Google właśnie ogłosił udostępnienie nowego modeli AI dla użytkowników - Gemini 2.0 Flash Experimental. jeżeli korzystacie z asystenta Gemini w przeglądarce, możecie już wybrać nową, testową wersję modelu AI. W niedługim czasie powinna pojawić się również w mobilnej aplikacji Gemini. Nowy model AI ma być dwukrotnie szybszy od poprzedniego, jednocześnie uzyskując lepsze wyniki w testach sprawdzających umiejętności wnioskowania, liczenia i programowania.
Hasłem przewodnim modelu AI od Google jest multimodalność, czyli możliwość łączenia poleceń tekstowych, obrazów i dźwięku. Na poniższym przykładzie Google demonstruje jak Gemini 2.0 może modyfikować dostarczony przez użytkownika obraz stosując się do poleceń. Można to porównać do wydawania poleceń grafikowi biegłemu w obsłudze programów takich jak Photoshop. Istotną kwestią jest, iż Gemini 2.0 modyfikuje tylko to o co został poproszony, pozostawiając resztę obrazu bez zmian, co jest trudnym zadaniem dla dzisiejszych modeli AI.
Przykład innego zadania to przesłanie zdjęcie pudełka, które ma na sobie napis „stara elektronika” i poproszenie Gemini 2.0 aby pokazało widok otwartego pudełka. Model sam wnioskuje co powinno znaleźć się w środku po wyglądzie i opisie pudełka. Rozumie także polecenie „otwórz to” ze strzałką wskazującą na drzwi w samochodzie.
Google zademonstrowało również jak Gemini 2.0 może doradzać w trakcie gry, śledząc to co dzieje się na ekranie i podpowiadać graczowi strategiczne budowanie armii czy adekwatne posunięcia:
Inną funkcją debiutującą w Gemini w przeglądarce jest Deep Research, która wykorzystuje AI do analizowania złożonych zagadnień i przedstawiania wyników w szczegółowych, przystępnych raportach. Również powinna pojawić się na liście dostępnych opcji dla użytkowników.
Docelowo Google chce stworzyć asystenta, który może widzieć świat iw czasie rzeczywistym go rozumieć. Prezentacją takich możliwości jest eksperymentalny asystent Astra, który wykorzystuje model Gemini 2.0.
Z kolei Project Mariner ma pomóc w złożonych zadaniach towarzysząc użytkownikowi w jego zadaniach wykonywanych w przeglądarce.
Jak zwykle w przypadku aktualizacji funkcji przez Google, zwłaszcza modeli AI, udostępnianie nowości będzie stopniowe i na pełną funkcjonalność wszystkich nowości we wszystkich językach przyjdzie nam trochę poczekać.