Motion Sense – bezdotykowe sterowanie telefonu. Google szykuje gniota?

mm Adam Lulek Artykuły 2019-07-31

Fani urządzeń mobilnych dobrze wiedzą, że jesienią pojawią się nowe flagowce od Google. W tym roku jednak gigant wychodzi przed szereg i postanowił oficjalnie potwierdzić część plotek. Na oficjalnym koncie Google widzieliśmy już rendery tylnego panelu urządzenia. Ostatnio natomiast, spółka potwierdziła, że w Pixelu 4 i 4 XL zobaczymy Face ID oraz obsługę smartfona za pomocą gestów. Ma za nią być odpowiedzialny Projekt Soli i Motion Sense.

Motion Sense – kontrola smartfona znana od lat?

Bezdotykowa kontrola urządzenia za pomocą gestów od lat jest w naszych umysłach jako coś, czego pożądamy, przynajmniej w teorii. Sterowanie smartfonem za pomocą bezdotykowych gestów wykonywanych dłonią nie jest niczym nowym. Widzieliśmy je zaimplementowane już w 2014 r. Za przykład może służyć Moto X, ale istnieją także inne, które wykorzystały kombinację czujników ruchu, czujników podczerwieni i kamer do wykrywania ruchów dłoni. Większość ludzi z nostalgią spogląda na Moto X, ale na rynku pojawił się niedawno nowszy przykład – LG G8 ThinQ.

Motion Sense Air gestures

Jednym z „killer features” LG G8 jest „Air Motion”, zestaw bezdotykowych układów sterowania gestami, wspomagany przez zaawansowane kamery i czujniki w górnej części telefonu. Możesz włączać, wstrzymywać i przeskakiwać pomiędzy ścieżkami multimedialnymi, przechwytywać zrzuty ekranu, przełączać aplikacje i adresować przychodzące alerty, takie jak alarmy i połączenia – wszystko bez dotykania ekranu. Ciekawy pomysł, ale czy to faktycznie sprawdza się na co dzień?

Gesty – największa wada i obawa

Gesty Air Motion mają dwie wady: nie działają tak dobrze, jak powinny, a nawet kiedy działają, to czy przypadki ich użycia to nie zwykła fanaberia? Przecież to samo i niejednokrotnie szybciej można zrobić przesuwając palcem po ekranie, a nie trudząc się wykonując akrobacje dłońmi.  Wszystkie dostępne zastosowania są interesującymi pomysłami, ale w rzeczywistości wykonywanie gestów po prostu trwa dłużej. W końcu, jeśli Twój telefon jest wystarczająco blisko, aby móc rozpoznać gesty dłoni, jest w zasięgu ręki! Prawdopodobnie też w wielu przypadkach jest trzymany drugą ręką. Wystarczy wtedy dotknąć ekranu. Oczywiście pojawią się hasła: „Twoje ręce mogą być brudne lub mokre” – tak w tych wypadkach potencjał air gestures jest znacznie większy. Jednak czy faktycznie tych sytuacji jest aż tak dużo na co dzień? Wątpię.

Zobacz także: Lista bugów Windowsa 10 straszy

Nadzieja w Google, Projekt Soli i Motion Sense

Czujnik Soli Google i szereg podczerwonych świateł i kamer podczerwieni niewątpliwie sprawią, że air gestures będą bardziej precyzyjne i dokładne niż system znany z LG G8 ThinQ, który i tak jest już zaawansowany. Dodatkowo Projekt Soli prawdopodobnie ulepszy rozpoznawanie twarzy Pixela 4, pomagając telefonowi wiedzieć, kiedy się zbliżasz i próbujesz go odblokować. Prawdziwe pytanie brzmi, czy Google zrobiło cokolwiek w kierunku rzeczywistej funkcjonalności gestów wykonywanych w powietrzu.

To, co zobaczyłem na filmie pokazanym przez giganta, nie do końca mnie przekonuje. Mam obawy, że Google nie zaoferuje niczego nowego, co pokazało LG. Można mieć jednak nadzieję, że jakiekolwiek funkcje się pojawią, będą działały lepiej niż w konkurencyjnych urządzeniach.

Jak będzie działało Motion Sense i Projekt Soli?

Google twierdzi, że radar i towarzyszące mu oprogramowanie mogą „śledzić ruch submilimetrowy z dużą prędkością i z dużą dokładnością”. Chip Soli robi to poprzez wypychanie fal elektromagnetycznych w szerokim zasięgu, które odbijają się z powrotem do małej anteny wewnątrz. Kombinacja czujników i algorytmów oprogramowania uwzględnia następnie energię przenoszoną przez odbite promienie, czas potrzebny na powrót i sposób, w jaki zmieniły się po drodze, będąc w stanie określić „charakterystykę i dynamikę obiektu, w tym rozmiar, kształt, orientację , materiał, odległość i prędkość. ” Pomimo tego, że mały układ scalony nie jest w stanie zapewnić przestrzennego rozpoznawania większych instalacji, Google udoskonalił swoje algorytmy wykrywania ruchu i przewidywania, aby umożliwić niewielkie zmiany w gestach, które zostaną przekształcone w jedną i tę samą akcję interfejsu. Technologia ta jest zatem lepsza od kamer 3D umieszczanych na przednich panelach smartfonów, które bazują na linii widzenia i warunkach oświetlenia.

Motion Sense w wykonaniu Google – podsumowanie

Przynajmniej w teorii, technologia, jaką zaproponuje Google jest rewolucyjna. Nieco niepokojące jest jednak to, że spółka wymienia zdolności Motion Sense (tak mają się nazywać gesty na smartfonach Google) na Pixelu 4 jako „przerzucanie piosenek, ustawianie drzemki w alarmach, wyciszanie połączeń telefonicznych, machając ręką”. Są to rzeczy, które potrafi LG G8 ThinQ tylko za pomocą zestawu przedniej kamery, bez fantazyjnych miniaturowych radarów.

Motion Sense air gestures

Oczywiście Google twierdzi, że to dopiero początek i „Motion Sense będzie ewoluować”, ale niejednokrotnie wcześniej słyszeliśmy wiele publikacji marketingowych, że „coś będzie się rozwijać”, a ostatecznie ten rozwój jest żaden albo powolny (patrz Bixby). Dodatkowo Google napisało, że Motion Sense „będzie dostępne w wybranych krajach Pixel”, co również budzi pewne wątpliwości. Dlaczego Pixel 4 w jednym miejscu ma być wyposażony w nawigację gestami opartą na radarach, podczas, gdy w innych nie. Czy to dlatego, że różne kraje mają różne zasady dotyczące komercyjnych radarów w paśmie częstotliwości 57–64 GHz?

Źródło: androidcentral, phonearena






Przewiń stronę, by przeczytać kolejny wpis
x