De rol van AI in het Israëlische bombardement op Gaza: een kwestie van oorlogsrecht

FFrits 17 december 2023 07:02

Het Israëlische leger zet artificiële intelligentie in bij bombardementen op Gaza, wat leidt tot een verhoogd tempo van aanvallen. Het AI-systeem 'Gospel' genereert steeds meer en snellere doelen, wat vragen oproept over de naleving van het internationale humanitair recht.

Snellere doelgeneratie door AI

Artificiële intelligentie speelt een steeds grotere rol in militaire operaties, zoals blijkt uit het gebruik van het AI-systeem ‘Gospel’ door het Israëlische leger. Dit systeem stelt het leger in staat om met een verhoogd tempo doelen in Gaza te bombarderen. Hierdoor ontstaan er echter vragen over de naleving van het internationale humanitair recht, omdat de hoeveelheid doelen de menselijke controle mogelijk overstijgt.

Enorme schaal van bombardementen

De omvang van de bombardementen op Gaza door het Israëlische leger is schokkend: sinds 7 oktober zijn maar liefst 22.000 doelen bestookt. Dit is een ongekende schaal van aanvallen, die in schril contrast staat met eerdere militaire operaties. Ter vergelijking, de internationale coalitie tegen IS gebruikte gemiddeld 2.500 bommen per maand over een gebied van 46.000 km² in Syrië en Irak. Gaza beslaat slechts 365 km².

AI richt zich ook op residentiële doelen

Het ‘Gospel’ AI-systeem van het Israëlische leger levert niet alleen een steeds groter aantal doelen, het breidt ook het soort doelen uit. Naast traditionele militaire doelwitten worden nu ook residentiële doelen, zoals huizen en flatgebouwen, geselecteerd. Dit omvat woningen van iedereen die een link heeft met Hamas, ongeacht de mogelijke burgerdoden. Het leger noemt deze doelen 'power targets', met als doel het veroorzaken van schade en afschrikking binnen de burgersamenleving.

Meer doelwitten, meer aanvallen, meer slachtoffers

Het tempo van doelgeneratie door het ‘Gospel’ AI-systeem heeft aanzienlijke gevolgen. Het systeem genereert dagelijks 100 tot 200 doelwitten, een sterke stijging ten opzichte van de 50 doelwitten per jaar die voorheen door inlichtingenofficieren werden aangemaakt. Dit leidt niet alleen tot meer aanvallen, maar ook tot mogelijk meer burgerslachtoffers. Het rapport stelt dat bombardementen die naar verwachting vijf of minder burgerslachtoffers maken, bijna allemaal worden goedgekeurd.

De groeiende rol van AI in militaire operaties heeft geleid tot een soort 'wapenwedloop', waarbij verschillende staten concurreren in technologische innovatie. Deze ontwikkeling wordt nauwlettend gevolgd door grootmachten en roept vragen op over de huidige stand van de regelgeving. Op dit moment is er vrijwel geen regelgevend kader voor het militaire gebruik van AI en er is geen specifiek protocol voor AI in het oorlogsrecht.

Een van de grootste zorgen rond het gebruik van AI in militaire operaties is de vraag wie verantwoordelijk is voor de daden en fouten van het systeem. Ligt deze bij de ontwikkelaar, de persoon die op de knop drukt, of de militaire en politieke leiders? Deze onduidelijkheid maakt de toepassing van het oorlogsrecht op AI-gegenereerde doelen nog complexer.

Meer artikelen

Lees ook

Hier zijn een aantal interessante artikelen op andere sites uit ons netwerk.