OpenAI oplyste, at virksomheden har lukket en gruppe ChatGPT-konti, der angiveligt var knyttet til en russisk påvirkningsoperation,
Lige nu læser andre
OpenAI oplyste, at virksomheden har lukket en gruppe ChatGPT-konti, der angiveligt var knyttet til en russisk påvirkningsoperation, og dermed afskåret dem fra adgang til sine AI-værktøjer.
Tiltaget blev beskrevet i en virksomhedsrapport, der redegør for, hvordan selskabets modeller blev brugt til at understøtte koordineret onlineaktivitet.
Indholdsfabrik-taktikker
I sin rapport fra 26. februar, “Disrupting malicious uses of our models,” beskrev OpenAI et casestudie med kodenavnet “Fish Food”, som involverede konti forbundet med det russiske projekt kendt som “Rybar.”
Ifølge virksomheden brugte netværket ChatGPT til at producere opslag på sociale medier på russisk, engelsk og spansk. En del af dette indhold blev senere offentliggjort via konti under “Rybar”-navnet.
OpenAI oplyste, at mønstret lignede en indholdsfabrik designet til bred distribution. I ét eksempel genererede en enkelt prompt syv udkast, hvoraf seks efterfølgende blev offentliggjort på forskellige X-konti.
Læs også
Afrika-fokuseret planlægning
Rapporten oplyste, at hovedkontoen også brugte ChatGPT til at udarbejde forslag og skitsere påvirkningstjenester.
Dette omfattede oversættelse til engelsk af en liste over tjenester, som netværket kunne tilbyde, herunder administration af X- og Telegram-konti samt drift af en tosproget undersøgende hjemmeside med fokus på Afrika.
OpenAI oplyste, at planlægningsdokumenter henviste til betalte placeringer i fransksprogede medier, opbygning af forstærkningsnetværk og valgrelaterede strategier i lande som Den Demokratiske Republik Congo, Burundi, Cameroun og Madagaskar. Ét foreslået koncept havde et anslået årligt budget på op til 600.000 dollar.
Adgang tilbagekaldt
OpenAI oplyste, at virksomheden har udelukket konti knyttet til “Rybar”-netværket og delt indikatorer relateret til aktiviteten med andre virksomheder og relevante interessenter for at begrænse yderligere spredning af materialet.
Offentliggørelsen understreger bredere bekymringer om misbrug af generative AI-værktøjer i koordinerede påvirkningsoperationer, herunder brugen af syntetisk medieindhold og udgivelse for at være andre.
Læs også
Kilder: OpenAI, “Disrupting malicious uses of our models,” rapport fra 26. februar