Trend DK
Forside AI Google i problemer: Tvunget til at tage AI-model offline efter...

Google i problemer: Tvunget til at tage AI-model offline efter vild fejl

google
Shutterstock.com

Google har været nødt til at tage en af deres AI-modeller offline, da den har begået en ganske vild fejl.

Lige nu læser andre

AI-modeller, der ikke altid tager det lige nøje med sandheden, er ikke noget nyt. Alligevel er der nu opstået stor debat omkring AI-modellen Gemma, som for nylig blev afsløret i at være gået langt over grænsen.

Modellen fremsatte nemlig en række alvorlige beskyldninger mod en amerikansk politiker – beskyldninger, der viste sig at være fuldstændig opdigtede. Google har derfor midlertidigt taget Gemma offline.

I de seneste dage har flere brugere opdaget, at Gemma besvarede faktuelle spørgsmål med opdigtede oplysninger. Det mest ekstreme eksempel var en påstand om, at den republikanske senator Marsha Blackburn skulle have gjort sig skyldig i seksuelt misbrug.

Gemma underbyggede endda denne falske påstand med henvisninger til ikke-eksisterende nyhedsartikler, hvilket naturligvis må siges at være noget af et problem for en AI-model, der skulle fremstå som værende troværdig.

Google har siden reageret i form af både ord og handling. Gemma kan ikke længere bruges via AI Studio, og selvom udviklere stadig kan tilgå modellen gennem API’en, er den midlertidigt utilgængelig for offentligheden.

Læs også

Click here to display external content from twitter.com recommended by the editors. You can always enable and disable third-party content.

You agree to display external third-party content. It is possible, that personal data will be send to the provider of the content and other third-party services.

I en officiel erklæring har Google forklaret, hvad der skete, og understreget, at Gemma aldrig var tiltænkt denne type brug. AI-modellen er ikke et forbrugerprodukt, men udviklet til forskning og testformål for udviklere. Tilgængeligheden gennem AI Studio var udelukkende ment som en testfunktion.

Alligevel begyndte nogle brugere at stille modellen spørgsmål på andre måder, hvilket sandsynligvis fik Gemma til at ‘hallucinere’ – et begreb inden for AI, der betyder, at en model opdigter oplysninger, som lyder overbevisende, men ikke er sande.

Læs også

Det førte til misvisende svar, herunder den grundløse beskyldning om seksuelt misbrug, hvilket hurtigt har spredt sig på de sociale medier.

Forventningen er, at Gemma på et tidspunkt vender tilbage, men med strammere filtre og tydeligere advarsler. For Google har hændelsen været en klar lærestreg: Man skal være langt mere forsigtig med at frigive AI-værktøjer – selv når de kun er tiltænkt udviklere.

Ads by MGDK