ChatGPT beskyldte angiveligt uskyldig mand for at have myrdet sine børn

Nicolai Busekist

1 dag siden

|

22/03/2025
AI
Foto: Shutterstock
Foto: Shutterstock
ChatGPT og OpenAI er igen havnet i problemer. Denne gang skyldes det, at AI-tjenesten angiveligt har beskyldt en mand for at have myrdet sine børn.

LIGE NU LÆSER ANDRE OGSÅ

Mest læste i dag

Det er nu over to år siden, at ChatGPT blev lanceret på verdensscenen, og selvom OpenAI har forbedret teknologien på mange måder, er der stadig en del udfordringer. En af de største problemer er såkaldte hallucinationer - hvor chatbotten fremsætter falske oplysninger som fakta.

Nu har den østrigske interesseorganisation Noyb indgivet sin anden klage mod OpenAI på grund af sådanne hallucinationer og nævner en specifik hændelse, hvor ChatGPT angiveligt - og fejlagtigt - hævdede, at en norsk mand var morder.

For at gøre sagen endnu værre påstod ChatGPT angiveligt, da manden spurgte chatbotten, hvad den vidste om ham, at han var blevet idømt 21 års fængsel for at have dræbt to af sine børn og forsøgt at dræbe sit tredje.

Hallucinationen var endda krydret med ægte oplysninger, herunder hvor mange børn han havde, deres køn og navnet på hans hjemby. Noyb hævder, at denne udtalelse bringer OpenAI i strid med GDPR

"GDPR er klar. Persondata skal være korrekte. Og hvis de ikke er det, har brugere ret til at få dem ændret, så de afspejler sandheden," udtalte Noybs databeskyttelsesadvokat Joakim Söderberg ifølge Engadget.

"At vise ChatGPT-brugere en lille ansvarsfraskrivelse, der siger, at chatbotten kan lave fejl, er tydeligvis ikke nok. Man kan ikke bare sprede falske oplysninger og så tilføje en lille tekst om, at det måske ikke er sandt."

Andre bemærkelsesværdige tilfælde af ChatGPT-hallucinationer omfatter beskyldninger mod en mand for bedrageri og underslæb, en retsreporter for børnemishandling og en jura-professor for seksuel chikane, ifølge flere medier.

Noybs første klage til OpenAI om hallucinationer, som blev indgivet i april 2024, omhandlede en offentlig persons forkerte fødselsdato (ikke et mord, men stadig unøjagtige oplysninger).

OpenAI afviste klagerens anmodning om at slette eller opdatere fødselsdatoen og hævdede, at de ikke kunne ændre oplysninger, der allerede var i systemet - kun blokere visse svar ved bestemte forespørgsler. ChatGPT er afhængig af en ansvarsfraskrivelse, der angiver, at chatbotten 'kan lave fejl'.

Ja, der findes et gammelt ordsprog, der siger noget i stil med: 'Alle laver fejl. Det er derfor, der findes viskelædere på blyanter'. Men når det gælder en ekstremt populær AI-drevet chatbot, gælder den logik så stadig? Vi må se, om og hvordan OpenAI reagerer på Noybs seneste klage.