Google pokazało nam wstęp do sztucznej inteligencji

3 minuty czytania
Komentarze

Konferencja Google to najważniejszy temat ostatnich dni. Amerykańska spółka pokazała wiele urządzeń, wśród których głównymi gwiazdami były oczywiście Pixele drugiej generacji. Więcej na temat wszystkich pokazanych sprzętów dowiecie się z tekstu, który przygotował Łukasz: Poznajcie nowości od Google! Pixel 2, Home Mini, Max, Pixelbook i to nie wszystko.

Sztuczna inteligencja jest ważniejsza od urządzeń

Konferencja to jednak nie tylko urządzenia. Gigant pokazał światu, że najważniejsza jest praca nad sztuczną inteligencją i zapowiada, że dzięki niej urządzenia będą lepsze od konkurencji. Szef Google, Sundar Pichai przekazał ze sceny informację, że jego firma jest podekscytowana transformacją świata mobilnych techonologii w kierunku AI. Ten opis dotyczy praktycznie każdego biznesu, którym zarządza Google. Prawie wszystkie zapowiedzi firmy z Mountain View dotknęły tego tematu. Przykładem może być TPU, czip Google do maszynowego uczenia drugiej generacji – przyspieszy on proces uczenia głębokiego w takich zadaniach jak badania nad rakiem czy sekwencjonowanie DNA.

Asystent Google obecny będzie wszędzie

Zaprezentowane głośniki Home Mini i Home Max również wykorzystują sztuczną inteligencję, a inteligentni asystenci wkroczą do naszego salonu. Urządzenia mają się uczyć naszych zachowań, badać otoczenie i dostosowywać się do niego, a co najciekawsze – reagować na to co dzieje się wokół. Głośnik dostosuje jakość brzmienia do wymiarów pomieszczenia. Z kilku podobnych sprzętów będziemy mogli zbudować cały ekosystem. Większy model tak samo jak mniejszy brat łączy się z asystentem Google i rozróżnia głosy użytkowników dzięki funkcji Voice Match. Wyróżnia go specjalnie opracowana sieć mikrofonów wyławiających głos z otoczenia, nawet jeśli panuje hałas czy włączona jest muzyka. System Smart Sound dostosuje głośniki do ustawienia obiektów w pomieszczeniu. Home Mini i Max nie posiadają ekranów. Interakcja z nimi będzie możliwa poprzez głos i gesty – obsługa wyświetlacza i wbudowanej klawiatury byłaby znacznie bardziej skomplikowana.

Wreszcie nie przeoczymy żadnej ważnej sprawy

Google Assistant ma być obecny w telefonie, telewizorze, głośniku czy komputerze, a co najważniejsze ma uczyć się, które informacje są dla nas priorytetowe. Na konferencji pokazano to na przykładzie wizyty u lekarza, której nie możemy przegapić.

Świetna funkcja rozpoznawania muzyki

Uczenie maszynowe i algorytm do rozpoznawania piosenek pokazano na przykładzie Pixela 2. Aplikacje takie jak Shazam czy SoundHound są niesamowicie popularne, ale zaprezentowano zdecydowanie bardziej wygodne rozwiązanie. Telefon cały czas będzie rejestrował muzykę wokół nas. Wyświetli wykonawcę, tytuł i album na ekranie blokady, jeżeli włączymy odpowiednią opcję w ustawieniach. Shazam od kilku lat podejmuje podobny krok, dzięki funkcji Auto Shazam. Nasłuchuje ona piosenki w tle i dopasowuje do bazy danych. Automatyczne dopasowanie w wykonaniu Google nie wymaga połączenia z Internetem. Algorytmy uczenia maszynowego porównają piosenkę do dziesiątek tysięcy wzorów już zapisanych w telefonie, dzięki ciągłemu rejestrowaniu otoczenia. Ciekawe jest, jak Google jest w stanie dopasować ogromną ilość piosenek do pamięci masowej urządzenia.

Pixel 2 z racji wykorzystania technologii OLED cały czas wyświetla powiadomienia na ekranie. Dzięki temu dane artysty mogą pokazywać się w czasie rzeczywistym, a pobór mocy będzie minimalny. W przeciwieństwie do Auto Shazam, możemy w każdej chwili spojrzeć na ekran, żeby poznać jaki świetny kawałek leci w radio, bez konieczności otwierania aplikacji.

Te z pozoru niewielkie rzeczy to prawdziwy wstęp do świata AI, do którego, Google na razie zbliża się szybciej niż konkurencja.

Źródło: phonearena, venturebeat

Motyw