Asystent Google będzie bardziej inteligentny. Sprawdź co się zmieni

mm Mariusz Nowak Artykuły 2017-09-08

Google Developer Days nie generują aż tak dużo szumu medialnego, jak konferencja I / O. Dają nam jednak niesamowicie dużo wiedzy o tym, czego możemy oczekiwać od firmy w najbliższej przyszłości. Ostatnia edycja GDD odbyła się w dniach 5 i 6 września w Krakowie. Po jej zakończeniu firma z Mountain View udostępniła bardzo dużo materiałów w serwisie YouTube. Na kanale Google Developers zobaczymy w tym momencie ponad 30 filmów wideo z wydarzenia. Dla fanów sprzętów mobilnych szczególnie interesujące będą demonstracje nowości, które zawitają do Asystenta Google, część przez integrację z Google Lens i Google Translate.

Odpowiadanie na złożone pytania

Obecnie Google Assistant używa uczenia maszynowego do rozwiązywania zagadnień, które są zwykle częścią naszego życia codziennego, jak na przykład pytania o pogodę. Niemniej może on odpowiadać również na bardziej szczegółowe pytania takie jak, choćby przykładowo liczba urządzeń w parku rozrywki i ich parametry. W najbliższej przyszłości będzie możliwe uzyskanie odpowiedzi na znacznie bardziej szczegółowe i złożone pytania. Na konferencji prezenter zapytał o tytuł filmu, w którym „Tom Cruise gra w bilard i przy tym tańczy”. Po przetworzeniu informacji asystent podał prawidłową odpowiedź „Kolor pieniędzy” i odczytał krótkie streszczenie filmu.

Integracja z Google Translate

Dzięki integracji z Google Translate, asystent zyska zupełnie nowy tryb tłumaczenia. Kiedy powiemy „bądź moim tłumaczem” i dodamy język, usługa zacznie powtarzać w wybranym przez nas języku wszystko, co mówimy. Dopóki nie zatrzymamy asystenta, tłumaczenie będzie dla nas widoczne w formie tekstowej na wyświetlaczu urządzenia.

Ustawianie preferencji

Możemy już ustawić swój adres domowy czy ulubioną drużynę sportową. Niemniej funkcja ta zostanie znacząco ulepszona w 2018 roku. Prezenter na konferencji przekazał asystentowi informację, że może pływać w Jeziorze Zuryskim, kiedy temperatura zewnętrzna wynosi powyżej 25 stopni Celsjusza. Następnie zapytał go, czy może to zrobić za tydzień. Asystent odpowiedział, że nie, z uwagi na to, że temperatura będzie niższa.

Umieszczanie rzeczy w kontekście

Google Assistant lepiej zrozumie nasze zapytania w oparciu o kontekst poprzednich zdań. Pokazano to na przykładzie pytania o zdjęcia Thomasa. Było to dość dziwne pytanie, jako że nie dostarczono żadnych informacji, poza tym imieniem. Usługa pobrała zdjęcie Thomas the Train, ponieważ jest to najbardziej popularny wynik. Następnie poproszono asystenta o skład Bayernu Monachium, z uwagi na gracza Thomasa Müllera. Po tym fakcie powtórzono pierwsze pytanie. Tym razem pokazały się zdjęcia właśnie piłkarza Bayernu w oparciu o poprzednie wyniki.

Integracja z Google Lens

Wreszcie dowiedzieliśmy się w jaki sposób asystent zyska dzięki integracji z Google Lens. Interesujące jest to, że „sztuczna inteligencja w naszym aparacie” potrafi określić zawartość kaloryczną różnych produktów spożywczych, a jednocześnie przeliczyć walutę.

Źródło: phonearena



  • Grzegorz W

    Może nawet parzyć kawę, dla PL to bez znaczenia…

  • Patryk

    Niebywałe, że ludzie w dzisiejszych czasach za darmo udostępniają komuś obcemu takie informacje jak: miejsce zamieszkania, miejsce pracy, miejsca do których się przemieszcza, czym się przemieszcza, ile czasu spędził w danym miejscu, wiek, wagę, wzrost, liczbę wypitych filiżanek kawy itd. Wszystko za free 🙂

    • Szymon Wilczyński

      Jak za free? Masz darmowy system operacyjny i kupę przydatnych narzędzi też za darmo. Chyba, że wyobrażasz sobie, że Google będzie to wszystko Co dawać charytatywnie 🙂 płacimy prywatnością, tyle.

  • edi194

    … a to wszystko i tak niedostępne w języku polskim.