Det Europæiske Databeskyttelsesråd (EDPB) har rettet skarp kritik mod OpenAI’s chatbot, ChatGPT.
Ifølge en nyligt offentliggjort rapport opfylder ChatGPT ikke EU's krav om datakorrekthed.
EDPB mener, at OpenAI ikke har gjort nok for at reducere antallet af fejl i chatbotten, hvilket rejser bekymringer om brugen af systemet i praksis.
Gennemsigtighed og korrekte data
Arbejdsgruppen bag rapporten anerkender ChatGPT's gennemsigtighed, men understreger samtidig, at dette ikke er tilstrækkeligt.
Der er fortsat betydelige mangler i forhold til at sikre, at de data, som chatbotten leverer, er korrekte.
Rapporten fremhæver, at ChatGPT ofte præsenterer output, som brugerne sandsynligvis vil tage for faktuelle, selvom de ikke nødvendigvis er nøjagtige. Det skriver computerworld.
Problemer med træningsmetoden
Et af de centrale problemer, som EDPB påpeger, er den måde, hvorpå ChatGPT er trænet.
Data, der bruges til at træne chatbotten, indsamles gennem webscraping og brugerinteraktioner.
Denne metode kan føre til en model, der producerer skævvredne eller opdigtede output på grund af systemets probabilistiske natur.
Arbejdsgruppen skriver, at "outputs fra ChatGPT sandsynligvis vil blive taget som faktuelt korrekte af slutbrugerne, uanset deres faktiske nøjagtighed."
Kritik fra nationale tilsynsmyndigheder
Kritikken fra EDPB kommer i kølvandet på bekymringer rejst af nationale tilsynsmyndigheder, ledet af Italien.
Flere EU-medlemslande har indledt deres egne undersøgelser af ChatGPT, og disse undersøgelser pågår stadig.
De nationale tilsynsmyndigheder har udtrykt bekymring over AI-tjenestens evne til at levere nøjagtige og pålidelige oplysninger.
OpenAI’s respons
OpenAI har indtil videre ikke kommenteret EDPB’s rapport.
Kritikken rejser dog vigtige spørgsmål om brugen af AI-systemer som ChatGPT, især når det kommer til at sikre, at de oplysninger, de leverer, er korrekte og pålidelige.
Det er endnu uvist, hvilke tiltag OpenAI vil tage for at adressere disse bekymringer og forbedre ChatGPT's datakorrekthed.