Trend DK
Forside AI Politisk bias fundet i Metas AI chatbot

Politisk bias fundet i Metas AI chatbot

Meta logo on smartphone
Ascannio / Shutterstock

Ny forskning afslører bias i LlamaChat – og peger på, at også brugerne må være kritiske.

Lige nu læser andre

En ny undersøgelse fra Københavns Universitet afslører, at Metas AI-model llamaChat har politiske skævheder. Modellen hælder mod venstreorienterede holdninger og er klart pro-europæisk.

Undersøgelsen bag resultaterne

Forskerne testede modellen på EU-politiske spørgsmål. llamaChat svarede oftere i tråd med De Grønne/EFA og S&D end med EPP og ID.

Hvorfor opstår bias i AI?

Bias kan stamme fra træningsdata på nettet samt Metas etiske finetuning. Disse processer skubber ofte modeller mod mindre kontroversielle svar.

Et problem med indbygget etik

Ifølge forskerne mangler der gennemsigtighed, når virksomhederne selv styrer data og retningslinjer. Offentlige initiativer kan skabe uafhængige alternativer.

Første studie i EU-sammenhæng

Det er første gang, bias er undersøgt i EU. Tidligere studier har vist lignende tendenser i andre lande.

Bias kan ændres

Læs også

Yderligere træning kan ændre modellens politiske hældning. Det viser, at bias ikke er fastlåst.

Demokratisk potentiale og risiko

AI kan give vælgerne nuanceret information, men uden kontrol kan misvisende vinkler sprede sig.

Dansk modvægt til techgiganterne

Et dansk konsortium udvikler uafhængige og ansvarlige sprogmodeller, som kan blive et alternativ.

Behovet for kritiske brugere

Forskerne understreger også, at brugerne selv bør være kritiske. Når man interagerer med AI, er det vigtigt at huske, at svarene kan være præget af træningsdata og skjulte skævheder.

Ads by MGDK