Nowe możliwości mają im dać właśnie systemy AI. Ta rewolucja dotyczy wyszukiwarki Google, map i tłumacza – wszystkie zyskają nowe funkcjonalności. W koncernie przekonują, że teraz będą jeszcze prostsze i bardziej intuicyjne w obsłudze.
Na początek Google chce wykorzystać potencjał aparatów w smartfonach przy wyszukiwaniu. „Chcemy, aby obiektyw stał się furtką do globalnych zasobów informacji. W ramach najnowszej aktualizacji dodamy możliwość wyszukiwania tego, co jest widoczne na ekranie telefonu” – podał Google.
Jak ma to działać w praktyce? „Załóżmy, że koleżanka przysłała wiadomość z filmikiem nakręconym podczas zwiedzania Paryża. Jeśli chcesz dowiedzieć się, jak nazywa się widoczny w tle budynek, wystarczy, że na urządzeniu z Androidem naciśniesz i przytrzymasz przyciski zasilania i ekranu głównego, a następnie wybierzesz opcję wyszukaj na ekranie. Obiektyw rozpozna budynek, ale możesz też kliknąć, aby dowiedzieć się o nim więcej” – tłumaczą w Google.
Czytaj więcej
Sztuczna inteligencja, o której głośno na świecie ze względu na jej możliwości i obawy przed wywróceniem do góry nogami edukacji, jak się okazuje, ma problem ze zwykłą matematyką. W sposób przekonujący udziela błędnych odpowiedzi na proste pytania.
Sporo pozmienia się też w mapach. Google ulepsza widok imersyjny oraz funkcję Live View. Ta pierwsza opcja umożliwia odkrywanie różnych miejsc w zupełnie nowy sposób – sprawia, że możesz z bliska poznać dane miejsce, jeszcze zanim się w nim znajdziesz. „Korzystając z możliwości AI i technologii rozpoznawania obrazów, widok imersyjny może scalić miliardy zdjęć Street View i zdjęć lotniczych, aby tworzyć szczegółowe cyfrowe modele miejsc z całego świata.
Nakłada też na nie przydatne informacje np. na temat pogody, korków czy natężenia ruchu odwiedzających w wybranym miejscu. Załóżmy, że planujesz wizytę w amsterdamskim Rijksmuseum. Możesz wirtualnie unieść się nad budynkiem muzeum i sprawdzić z góry, gdzie znajdują się wejścia. Suwak czasu umożliwi Ci jednocześnie sprawdzenie, jak to miejsce wygląda o różnych porach dnia oraz jaka będzie pogoda. Dowiesz się również, kiedy w muzeum jest najbardziej tłoczno, a więc uzyskasz mnóstwo informacji przydatnych do podjęcia decyzji na temat najlepszej pory i miejsca odwiedzin. A jeśli zgłodniejesz, obniż lot do poziomu ulic i sprawdź okoliczne restauracje – możesz nawet zajrzeć do ich wnętrz, aby poznać panujący w nich klimat, zanim zarezerwujesz stolik” – pisze Google w komunikacie.
Aby stworzyć te realistyczne obrazy koncern korzysta z technologii sieci neuronowych (NeRF), czyli zaawansowanych funkcji AI, które przetwarzają oryginalne zdjęcia w obrazy 3D. Widok imersyjny na razie będzie dostępny w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio. W nadchodzących miesiącach funkcja ruszy w kolejnych miastach, takich jak Amsterdam, Dublin, Florencja i Wenecja.
Wyszukiwanie w trybie Live View (wykorzystuje AI oraz rzeczywistość rozszerzoną, aby pomóc znaleźć miejsca wokół: bankomaty, restauracje, parki i przystanki - wystarczy idąc ulicą unieść telefon) na razie działa w kilku miastach, ale w kolejnych miesiącach Google planuje dołączyć kolejne, np. Barcelonę, Dublin i Madryt.
Zmiany wdrożone zostaną także w tłumaczu. Translator ma lepiej rozpoznawać kontekst i być wygodniejszy w obsłudze. Ulepszona została funkcja tłumaczenia ze zdjęć. A na tym nie koniec. Jak ogłosił Xinxing Gu, odpowiedzialny za Google Tłumacz, w br. firma chce „dalej eksperymentować z funkcjami tłumacza opartymi na sztucznej inteligencji, aby zapewnić jeszcze szybsze, dokładniejsze tłumaczenia”.