Ny Gemini-funktion lader Android-brugere interagere med AI via kamera og skærm

Den nye funktionalitet giver nye muligheder for at få hjælp og sparring direkte på mobilen

Foto: Google

Google har lanceret en ny funktion i sin AI-tjeneste Gemini, der giver Android-brugere mulighed for at kommunikere direkte med AI’en ved hjælp af telefonens kamera og skærm. Funktionen, der er tilgængelig via Gemini-appen, giver brugerne mulighed for at få assistance og information i realtid baseret på det, kameraet ser, eller det, der vises på skærmen.

Med den nye “Gemini Live” funktion kan brugere stille spørgsmål om det, de peger kameraet på. Eksempler nævnt af Google inkluderer at få vejledning til at løse et tilstoppet afløb ved at vise kameraet mod problemet, eller at få stilråd ved at vise AI’en et par bukser fra en webshop og spørge, hvilke sko der passer til. Funktionen kan også bruges til at identificere årsagen til syge stueplanter eller få hjælp til at skifte printerpatroner.

Ud over praktisk husholdningshjælp kan Gemini også analysere brugerens omgivelser via kameraet og foreslå nærliggende restauranter eller komme med madlavningsforslag baseret på indholdet af køleskabet.

Kamerafunktionen er integreret i Gemini Live, som findes via en knap i Gemini-appen. I første omgang er funktionen gratis tilgængelig på Googles Pixel 9-telefoner og Samsung S25-enheder. Andre Android-brugere kan få adgang til kamerafunktionen gennem et Gemini Advanced-abonnement. Funktionen er endnu ikke tilgængelig på iOS-enheder.