Projekt Soli, czyli świetny pomysł na gesty, którego nie mogę się doczekać

Łukasz Pająk Artykuły 2018-07-08

Google chce pracować nad świetnymi projektami, ale nie zawsze kończą się one sukcesem. Wystarczy przypomnieć sobie smartfony spod znaku Ara – modułowe rozwiązanie, gdzie to my klockami wyznaczamy możliwości naszego mobilnego urządzenia. Niestety, takich telefonów nie ujrzymy, bo Amerykanie zamietli wszystko pod dywan i możemy zapomnieć o tym rozwiązaniu. Mam nadzieję, że to nie czeka projekt Soli, któremu kibicuję od kilku lat, ale od co najmniej roku słuch o nim zaginął.

Przede wszystkim zacznijmy od tego, skąd się takie pomysły biorą. Otóż Google stworzyło specjalny oddział do tego celu. Nazywa się ATAP, co oznacza Advanced Technology and Projects Division. To między innymi tutaj rodziła się i umierała Ara. Oprócz Soli, obecnie wymieniany jest jeszcze jeden projekt – Jacquard, którego celem jest stworzenie inteligentnych tkanin. Mogłyby one współpracować ze smartfonem, bo stanowiłyby tak naprawdę ogromny panel dotykowy. Swoją drogą, Jacquard też swoje lata ma, bo więcej o nim dowiedzieliśmy się, gdy Marshmallow był jeszcze opisywany jako Android M.

Projekt Soli też chce sterować, ale gestami i to w powietrzu

Mogłoby się wydawać, że już odkryliśmy najlepsze sposoby na kontrolowanie urządzeń mobilnych. Jednak ten rok doskonale pokazuje, że to nieprawda. Tak naprawdę to już w końcówce 2017 roku zaczęliśmy poznawać nowe sposoby na przekazywanie poleceń urządzeń mobilnym. Co prawda wciąż wszystko opierało się na panelu dotykowym, ale w grę weszły gesty, a nie dotykanie poszczególnych przycisków. Jednym z pierwszych producentów, który postawił na takie rozwiązanie było Apple, które w iPhone X zrezygnowało z jakichkolwiek klawiszy fizycznych, jak i ekranowych odpowiedników. Niedługo później swoje alternatywy zaproponowały takie firmy, jak chociażby Xiaomi i OnePlus. Jednak przestańmy dotykać ekrany, a zacznijmy sterować urządzeniami w powietrzu – to dewiza projektu Soli.

Powyższa wizja doskonale pokazuje, że projekt Soli ma ogromny potencjał, nie tylko na rynku mobilnym. Jednak skupmy się na nim. O ile w przypadku smartfonów takie rozwiązanie byłoby w głównej mierze miłym dodatkiem, to już dla smartwatchy byłaby to ogromna rewolucja.

Sterowanie w powietrzu rozwiązaniem wielu problemów?

Tak, o tym też Google pomyślało, bo projekt Soli został sprzęgnięty z LG Watch Urbane. Tak, tak, to swoje lata ma, więc tym bardziej ubolewam nad tym, że Amerykanie po prostu nic nie mówią o rozwoju tych rozwiązań, jak i komercyjnych zastosowaniach. Ponad dwa lata temu, gdy powyższy film został opublikowany głośno mówiło się o zainteresowaniu tą technologią przez JBL. Nie przypominam sobie, aby pojawił się stosowny głośnik, słuchawki, radio czy cokolwiek innego od tej firmy, co byłoby sterowane gestami w powietrzu.

Zobacz też: Czyżby los HTC był już przesądzony?

Czy coś lada moment ma się zmienić? Nic na to nie wskazuje. Obawiam się jedynie, że strona projektu Soli zaraz zniknie z wizji ATAP i pozostaną wspomnienia. Czy to za wcześnie na taką technologię? Nie wydaję mi się. O ile w przypadku urządzeń mobilnych trzeba liczyć się z ograniczeniami związanymi z rozmiarami, to w przypadku inteligentnych głośników już nie. Ok, Google Home w głównej mierze sterujemy głosowo, ale co stoi na przeszkodzie, aby też pokazywać polecenia za pomocą palców? Nie chcę za bardzo wybiegać w przyszłość, ale jakie to byłoby udogodnienie dla niemych osób w czasach, gdy przerzucamy się na obsługę za pomocą mowy. Oczywiście w tym wypadku też bardzo dobrze mogłaby poradzić sobie kamera, ale… Jestem ciekawy, co Wy sądzicie o projekcie Soli i gdzie najchętniej byście widzieli to rozwiązanie?



  • Tomasz

    Jak w serialu magicy. A jaki tam progres wystapil jak bohaterka po awansie na boginie nie musiala juz palcowac. Polsrodki.

  • moim zdaniem to bzdura

    • Łukasz Pająk

      Co dokładnie jest bzdurą?

  • Kuba

    Za pomocą palcy? XD

  • @rtur

    Zdaje się, że chyba Samsung pozwalał na sterowanie smartfonem (Chyba po raz pierwszy w Galaxy S III) poprzez machanie nad nim ręką. Jakoś się nie przyjęło. Choć może skończy się jak z rozpoznawaniem twarzy.

    • Łukasz Pająk

      Machanie ręką sprowadzało się – jeśli mnie pamięć nie myli – do obsługi czujnika zbliżeniowego, co jest zdecydowanie mniej zaawansowane od Soli.

      • a w życiu, AirView to było to samo co jest w note po przytrzymaniu rysika nad ekranem, tylko w SIV i S5 działało to też dla palca