Trend DK
Forside AI Når algoritmen trykker på aftrækkeren: AI på slagmarken ændrer alt

Når algoritmen trykker på aftrækkeren: AI på slagmarken ændrer alt

AI, writing, typing, robot
Shutterstock.com

Krigens ansigt er ved at ændre sig. Algoritmer udvælger mål, droner handler selv, og mennesker står på sidelinjen. Men hvad sker der, når maskinerne får magten til at dræbe?

Lige nu læser andre

1. En ny tidsalder for krig

Autonome våben og AI-styrede droner er ikke længere science fiction. I 2025 bekræfter flere regeringer, at kunstig intelligens nu anvendes direkte i militære beslutninger. Ukraine har i samarbejde med vestlige partnere testet systemer, der kan identificere og prioritere mål uden menneskelig indgriben. “Det er den største teknologiske forandring i krig siden atombomben,” siger militæranalytiker Mark Galeotti.

2. Fra data til dødelige beslutninger

AI på slagmarken handler ikke kun om droner, men også om beslutningstagning. Systemerne analyserer enorme mængder sensordata for at udpege trusler hurtigere end mennesker kan. Ifølge Reuters Defense kan et AI-system nu behandle kampinformation 20 gange hurtigere end en officer i felten. Det giver en taktisk fordel – men også et etisk dilemma.

3. Ukraine viser vejen – og sætter gang i debatten

Ifølge kilder i The Economist anvendes AI allerede i det ukrainske “Synytsia-program”, hvor droner udvælger mål ud fra billedanalyse og sandsynlighed. Selvom et menneske formelt trykker på affyringsknappen, foretager AI’en selve udvælgelsen. NATO har bekræftet, at lignende systemer testes i forsvarsalliancens forskningscentre i Estland og Storbritannien.

4. Den usynlige hævner – autonom krigsførelse uden mennesker

Flere lande, herunder Kina, Israel og Tyrkiet, har udviklet droner og robotter, der kan operere uden konstant forbindelse til en base. Det betyder, at våbnene kan fortsætte missioner, selv hvis forbindelsen brydes. En rapport fra Center for Strategic AI Studies vurderer, at over 40 nationer nu eksperimenterer med fuld- eller semi-autonome våbensystemer.

5. Etik, ansvar og frygten for fejl

Hvem bærer ansvaret, hvis en maskine dræber civile? Det spørgsmål har splittet politikere og militære ledere. FN’s Sikkerhedsråd diskuterede i oktober et forslag om et globalt moratorium mod “dræbende autonome våben”, men flere stormagter – herunder USA og Rusland – blokerede aftalen. Kritikere advarer om, at algoritmer ikke kan forstå proportioner, frygt eller moralske grænser.

6. AI som forsvar – ikke kun angreb

Læs også

Selvom frygten er stor, bruges AI også til at beskytte. NATO anvender kunstig intelligens til at opdage cyberangreb og overvåge satellittrafik i realtid. I Danmark arbejder Forsvarsministeriet på et AI-baseret system, der kan forudsige missiltrusler baseret på bevægelsesmønstre. Teknologien kan redde liv, hvis den anvendes med ansvar.

7. Den kolde krig bliver digital

Eksperter kalder udviklingen “et nyt digitalt våbenkapløb”. I stedet for atomvåben handler det nu om processorkraft, algoritmer og datatilgængelighed. Kina har de seneste to år øget sit AI-forsvarsbudget med 60 %, mens USA investerer rekordstore 25 milliarder dollar i “autonomous systems and deterrence”. Fremtidens stormagter måles i kode – ikke i kampvogne.

8. Fremtiden for krig – uden menneskelig kontrol

AI-krigsførelse rejser spørgsmål, menneskeheden ikke har stået overfor før: Hvad sker der, når beslutninger om liv og død tages af software? Eksperter frygter, at et globalt kapløb uden regler kan føre til uforudsigelige konflikter. “Når vi først har givet maskinerne magten til at dræbe, kan vi ikke tage den tilbage,” advarer FN’s teknologidirektør Eliza Ndung’u. Spørgsmålet er ikke længere om – men hvornår.

Ads by MGDK