Google har denne uge fjernet et tidligere løfte om ikke at udvikle kunstig intelligens (AI) til våben eller overvågning fra sin hjemmeside. Ændringen blev først opdaget af Bloomberg.
Virksomheden ser derfor ud til at have opdateret sin offentlige side om AI-principper og fjernet en sektion med titlen 'Anvendelser vi ikke vil forfølge', som stadig var inkluderet så sent som i sidste uge.
Da TechCrunch bad om en kommentar, henviste Google til et nyt blogindlæg om 'ansvarlig AI'. I indlægget står der blandt andet følgende:
"Vi mener, at virksomheder, regeringer og organisationer, der deler disse værdier, bør samarbejde om at skabe AI, der beskytter mennesker, fremmer global vækst og understøtter national sikkerhed."
Googles opdaterede AI-principper nævner, at virksomheden vil arbejde for at 'begrænse utilsigtede eller skadelige resultater og undgå uretfærdig bias', samt sikre, at dens arbejde er i overensstemmelse med 'bredt accepterede principper for international lov og menneskerettigheder'.
I de seneste år har Googles kontrakter om at levere cloud-tjenester til det amerikanske og israelske militær ført til interne protester blandt medarbejdere. Google har fastholdt, at virksomhedens AI ikke bruges til at skade mennesker.
Pentagons AI-chef har dog for nylig udtalt til TechCrunch, at visse AI-modeller fra virksomheder som Google allerede fremskynder det amerikanske militærs drabskæde, hvilket må siges at være noget, der står i seriøs kontrast til udtalelsen fra Google.
Om Google har noget særligt i støbeskeen, siden de har valgt at fjerne denne formulering fra deres side, er svært at spå om. Er der tale om AI, der skal bruges til våben eller lignende, er det da også svært at tro på, at de ikke vil gå stille med dørene med det.