U bent hier:

AI bedreigt het oorlogsrecht

Hoewel oorlogsvoering in theorie gebonden is aan strikte internationale kaders en het humanitair oorlogsrecht, verandert de praktijk razendsnel. Waar voorheen menselijke besluitvorming en duidelijke linies centraal stonden, verschuift het accent nu naar algoritmes en operaties op afstand. Dit creëert een fundamenteel spanningsveld: hoe valt de transparantie en rechtmatigheid van een aanval te waarborgen wanneer de besluitvorming plaatsvindt in de 'black box' van software en data?

De Algoritmisering van het Slagveld

Het kan voorkomen dat technologische vooruitgang sneller gaat dan onze wetgeving, zeker wanneer drones worden uitgerust met kunstmatige intelligentie (AI). Dit brengt een extra complexiteit met zich mee, namelijk de rol van de 'Human-in-the-Loop'. Bij de inzet van autonome of semiautonome drones worden doelen soms geselecteerd op basis van algoritmes die patronen herkennen. Deze data is vaak zo technisch of geclassificeerd dat de exacte reden achter een doelwit selectie voor buitenstaanders onzichtbaar blijft. Dit zorgt voor een complexe balans: het benutten van technologische superioriteit om eigen manschappen te sparen, terwijl tegelijkertijd het oorlogsrechtelijke beginsel van onderscheid het verschil tussen een strijder en een burger moet worden gewaarborgd.

In de praktijk betekent dit dat de bewijsvoering na een incident vaak gefragmenteerd is. Wanneer een droneaanval leidt tot onbedoelde burgerslachtoffers, krijgen onderzoekers of advocaten soms slechts een beperkt deel van de logbestanden of sensorbeelden te zien. De volledige broncode of de volledige context van de inlichtingen die tot de aanval leidden, blijven vaak staatsgeheim. Volgens internationale standaarden moet een rechter of tribunaal achteraf kunnen toetsen of een aanval proportioneel was, maar zonder volledige inzage in de algoritmes en de 'intelligence' blijft de waarheidsvinding beperkt. Een voorbeeld hiervan zijn de discussies rondom 'signature strikes' van de Amerikanen, waarbij personen worden aangevallen op basis van hun gedragspatroon in plaats van hun identiteit. Zo zijn er ook de Israëlische AI-systemen zoals ‘Lavender’ en ‘Gospel’. Volgens onderzoeksjournalistiek werden deze systemen gebruikt om doelwitten te selecteren op basis van grote datasets. Soldaten verklaarden dat zij soms honderden doelwitten per dag kregen voorgeschoteld, waarbij menselijke controle vooral een formaliteit was. Dat roept onvermijdelijk vragen op over de controleerbaarheid van het geweld.

Toezicht en Verantwoording

Toezichthouders en internationale hoven spelen hierin een cruciale rol. Waar we in Nederland de CTIVD hebben voor inlichtingen, wordt er internationaal gepleit voor striktere kaders voor de inzet van 'Lethal Autonomous Weapons Systems' (LAWS). Onafhankelijke commissies moeten achteraf kunnen vaststellen of de inzet van een drone voldeed aan de eisen van noodzakelijkheid en proportionaliteit. Zij moeten onderzoeken of de geprogrammeerde parameters van de drone de grenzen van het oorlogsrecht gerespecteerd hebben.

De toetsing vooraf is minstens zo belangrijk. Voordat een nieuw drone systeem in gebruik wordt genomen, moet er volgens het Eerste Aanvullend Protocol bij de Conventies van Genève worden getoetst of het wapen onder alle omstandigheden rechtmatig kan worden gebruikt. Deze toets fungeert als een essentiële bescherming voordat een algoritme de macht krijgt over leven en dood.

Dus in zaken waarin drone-technologie een rol speelt, zal in de nabije toekomst het volledige besluitvormingsproces nooit volledig transparant worden. Een deel van de technische specificaties en inlichtingen bronnen moet noodzakelijkerwijs geheim blijven om militaire voordelen niet prijs te geven. Hoewel rechters proberen toe te zien op de rechtmatigheid, kan niet elke regel code met de verdediging of het publiek worden gedeeld. Hierdoor blijft een deel van de feiten achter de schermen, wat de grenzen van de juridische verantwoording in moderne conflicten pijnlijk duidelijk maakt. 

 Bronnen

Het ontrafelen van de black box van AI - Verdieping - Universiteit Utrecht
https://www.uu.nl/organisatie/verdieping/het-ontrafelen-van-de-black-box-van-ai

Lethal Autonomous Weapon Systems | United Nations Office for Disarmament Affairs
https://disarmament.unoda.org/en/our-work/emerging-challenges/lethal-autonomous-weapon-systems

Defensie grijpt in tegen drones bij vliegvelden Eindhoven en Volkel | de Volkskrant
https://www.volkskrant.nl/binnenland/defensie-grijpt-in-tegen-drones-bij-vliegvelden-eindhoven-en-volkel~b76dfa58/

Initiatiefnota van het lid Belhaj over Autonome Wapensystemen | Tweede Kamer der Staten-Generaal
https://www.tweedekamer.nl/kamerstukken/detail?id=2021Z09236&did=2021D20388

US to continue 'signature strikes' on people suspected of terrorist links | Obama administration | The Guardian
https://www.theguardian.com/us-news/2016/jul/01/obama-continue-signature-strikes-drones-civilian-deaths

'Lavendel', 'Het Evangelie' en 'Where's Daddy?': hoe Israël AI gebruikt om Palestijnse doelwitten te bombarderen | VRT NWS: nieuws
https://www.vrt.be/vrtnws/nl/2024/04/04/ai-israelische-leger/