Google satser nu hele butikken på kunstig intelligens.
Med den nyeste opdatering til Android og Gemini-appen vil selskabet gøre AI til en central del af din hverdag – direkte fra mobilen.
Målet er ambitiøst: Gemini skal blive en universel assistent, der ikke bare svarer på spørgsmål, men også planlægger, forstår kontekst og handler på dine vegne.
Google kalder det ”et intelligent verdensmodel-system”, som blandt andet kan analysere dine tidligere handlinger, se gennem kameraet og give realtidsinformation via funktioner fra projektet Astra.
Styr telefonen med stemmen og få hjælp i realtid
Den nye Gemini Live-funktion er i stand til at genkende det, du ser gennem telefonens kamera, og besvare spørgsmål i realtid.
Du kan eksempelvis spørge, hvad du kigger på, eller få Gemini til at læse tekst op direkte fra et billede.
Samtidig har Google rullet skærmdeling ud, så Gemini kan hjælpe med præcise instruktioner baseret på det, du ser på skærmen.
Funktionen er allerede ude på Android, mens iOS-brugere må væbne sig med tålmodighed lidt endnu. Det skriver Chip.
Mere kontrol – men også mere data
Google lægger vægt på, at brugerne har fuld kontrol over, hvordan deres data bruges.
Gemini vil kunne analysere e-mails, Google Drev-dokumenter og tidligere samtaler for at foreslå smarte svar i Gmail, men kun hvis du aktivt tillader det.
Shopping, møder og oversættelse med AI
Opdateringen dækker mere end bare din telefon.
Gemini får adgang til shoppingdata, kan hjælpe med at finde billetter online og er blevet integreret i Google Meet med realtidsoversættelse – inklusive efterligning af stemme og mimik.
Alt sammen er del af Googles store AI-vision, hvor Gemini 2.5 og det nye AI Ultra-abonnement sigter mod at levere en personlig, intelligent og sikker brugeroplevelse.