Trend DK
Forside AI OpenAI deler advarsel: Kan kontakte politiet på baggrund af dine...

OpenAI deler advarsel: Kan kontakte politiet på baggrund af dine ChatGPT-samtaler

ChatGPT OpenAI
Markus Mainka / Shutterstock.com

OpenAI har meldt klart ud, at de kan ende med at kontakte politiet på baggrund af dine ChatGPT-samtaler.

Lige nu læser andre

OpenAI reagerer nu på nylige sikkerhedsmæssige bekymringer efter flere dødsfald er blevet kædet sammen med brugen af kunstig intelligens. Virksomheden advarer om, at den kan gribe ind, hvis en situation vurderes at være ved at komme ud af kontrol.

Debatten om, at mennesker mister forbindelsen til hinanden, raser fortsat. Det skyldes, at mange vender sig mod tjenester som ChatGPT og Grok for en form for selskab.

Uanset om det handler om at forsøge at manipulere en AI til at bryde protokoller og indgå i et romantisk forhold, søge trøst under en krise eller bruge den som fortrolige, er der mange påmindelser om, at AI ikke skal erstatte rigtige mennesker.

Et tragisk eksempel er historien om 16-årige Adam Raine, hvis forældre forsøger at sagsøge OpenAI. De hævder, at ChatGPT ikke forhindrede deres søn i at tage sit eget liv, da han angiveligt søgte hjælp hos chatbotten.

OpenAI offentliggjorde hurtigt et langt blogindlæg om sine protokoller og ændringer for at undgå, at lignende situationer sker igen. Alligevel er der blevet stillet spørgsmålstegn ved virksomhedens nuværende holdning til at kontakte myndighederne.

Læs også

ChatGPT har faktisk mulighed for at opdage, når en bruger planlægger at skade andre, hvilket derefter sendes til ‘en lille gruppe medarbejdere, der er trænet i vores retningslinjer og har bemyndigelse til at handle’.

“Hvis menneskelige eksperter vurderer, at en sag involverer en overhængende trussel om alvorlig fysisk skade på andre, kan vi henvise sagen til politiet,” lyder det i et blogindlæg fra OpenAI.

Dog fremgår det, at en situation som Adam Raines ikke nødvendigvis ville blive rapporteret til myndighederne.

“Vi henviser i øjeblikket ikke tilfælde af selvskade til politiet af hensyn til privatlivets fred, givet den unikt private karakter af ChatGPT-interaktioner,” skriver OpenAI.

Ifølge virksomhedens retningslinjer må tjenesten ikke bruges til at ‘fremme selvmord eller selvskade, udvikle eller anvende våben, skade andre eller ødelægge ejendom, eller deltage i uautoriserede aktiviteter, der krænker sikkerheden i en tjeneste eller et system’.

Læs også

Mediet Futurism påpeger, at formuleringerne kan misforstås, mens jailbroken versioner af ChatGPT efter sigende har kunnet udlevere opskrifter på neurotoksiner eller instruktioner i selvmord.

Derudover mener nogle, at de opdaterede sikkerhedsprotokoller kan være i modstrid med virksomhedens igangværende sag om privatliv med The New York Times.

Avisen har krævet en lang række chatlogs udleveret for at bevise, at ophavsretligt beskyttet materiale ikke er blevet brugt til at træne modellerne. OpenAI har dog afvist at udlevere dem ‘for at beskytte brugernes privatliv’.

OpenAI-boss Sam Altman har allerede advaret om, at ChatGPT ikke har samme juridiske privilegier som en rigtig advokat. Men debatten om privatliv kontra sikkerhed fortsætter for alvor.

Har du det svært?

Læs også

Hvis du er i krise eller har tanker om selvmord, så sig det til nogen. Ring til Livslinien på 70 201 201. Livslinien har åbent alle årets dage fra kl. 11-05.

Ads by MGDK