En YouTuber fortæller, at en ven næsten blev forgiftet efter, at ChatGPT identificerede en plante forkert.
Lige nu læser andre
Brugen af kunstig intelligens som ChatGPT er blevet hverdag for millioner af mennesker, men en ny episode rejser spørgsmål om sikkerheden ved helt ukritisk at følge AI-råd.
En amerikansk YouTuber fortæller, at hendes ven næsten blev alvorligt forgiftet efter at have fået forkert information om en giftig plante. Det skriver LADbible.
Ifølge historien delte YouTuberen Kristi, der står bag kontoen @rawbeautybykristi med næsten en halv million følgere, en advarsel på Instagram. Her beskrev hun, hvordan en ven havde brugt ChatGPT til at identificere en plante i sin baghave.
Vennen sendte et billede af planten til chatbotten og spurgte, hvilken plante der var tale om. ChatGPT svarede, at planten lignede gulerodstop og forklarede, at de ‘finfligede og fjeragtige blade’ var karakteristiske for gulerodsplanten.
Chatbotten nævnte samtidig flere lignende planter, herunder persille, koriander, Queen Anne’s lace – og giftig skarntyde.
Læs også
Da vennen direkte spurgte, om planten kunne være giftig skarntyde, blev hun ifølge de delte skærmbilleder gentagne gange forsikret om, at det ikke var tilfældet.
Også efter at hun sendte endnu et billede, fastholdt ChatGPT, at planten ikke var giftig. Det gjorde den blandt andet fordi den angiveligt ikke havde hule stængler med lilla pletter. Kristi reagerede kraftigt på forløbet.
“Jeg ved ikke, om I ved det, men hvis man spiser den, dør man. Man kan dø bare ved at røre den,” sagde hun i en video til sine følgere.
Hun henviste samtidig til oplysninger fra Google, hvor det fremgår, at giftig skarntyde kan give alvorlig systemisk forgiftning, og at der ikke findes nogen modgift.
Ifølge LADbible blev billedet efterfølgende lagt ind i Google Lens, som straks identificerede planten som giftig skarntyde. Da vennen gentog forespørgslen i en ny ChatGPT-session på sin telefon, blev planten denne gang også identificeret som giftig.
Læs også
Kristi understregede, at vennen heldigvis bad om en ekstra vurdering.
“Hun er et voksent menneske og vidste gudskelov, at hun skulle søge videre. For hvad nu hvis hun ikke havde gjort det?” sagde hun.
Episoden har fået Kristi til at advare mod at stole blindt på AI-baserede tjenester, når det gælder potentielt farlige situationer.