Google har været nødt til at tage en af deres AI-modeller offline, da den har begået en ganske vild fejl.
Lige nu læser andre
AI-modeller, der ikke altid tager det lige nøje med sandheden, er ikke noget nyt. Alligevel er der nu opstået stor debat omkring AI-modellen Gemma, som for nylig blev afsløret i at være gået langt over grænsen.
Modellen fremsatte nemlig en række alvorlige beskyldninger mod en amerikansk politiker – beskyldninger, der viste sig at være fuldstændig opdigtede. Google har derfor midlertidigt taget Gemma offline.
I de seneste dage har flere brugere opdaget, at Gemma besvarede faktuelle spørgsmål med opdigtede oplysninger. Det mest ekstreme eksempel var en påstand om, at den republikanske senator Marsha Blackburn skulle have gjort sig skyldig i seksuelt misbrug.
Gemma underbyggede endda denne falske påstand med henvisninger til ikke-eksisterende nyhedsartikler, hvilket naturligvis må siges at være noget af et problem for en AI-model, der skulle fremstå som værende troværdig.
Google har siden reageret i form af både ord og handling. Gemma kan ikke længere bruges via AI Studio, og selvom udviklere stadig kan tilgå modellen gennem API’en, er den midlertidigt utilgængelig for offentligheden.
I en officiel erklæring har Google forklaret, hvad der skete, og understreget, at Gemma aldrig var tiltænkt denne type brug. AI-modellen er ikke et forbrugerprodukt, men udviklet til forskning og testformål for udviklere. Tilgængeligheden gennem AI Studio var udelukkende ment som en testfunktion.
Alligevel begyndte nogle brugere at stille modellen spørgsmål på andre måder, hvilket sandsynligvis fik Gemma til at ‘hallucinere’ – et begreb inden for AI, der betyder, at en model opdigter oplysninger, som lyder overbevisende, men ikke er sande.
Læs også
Det førte til misvisende svar, herunder den grundløse beskyldning om seksuelt misbrug, hvilket hurtigt har spredt sig på de sociale medier.
Forventningen er, at Gemma på et tidspunkt vender tilbage, men med strammere filtre og tydeligere advarsler. For Google har hændelsen været en klar lærestreg: Man skal være langt mere forsigtig med at frigive AI-værktøjer – selv når de kun er tiltænkt udviklere.