Hoe zal er in de toekomst op de Israëlische luchtoorlog in Gaza worden teruggekeken? Puur op basis van het verleden zou je zeggen: waarschijnlijk als een mislukking. De grootste bombardementscampagne ooit was die van de VS tijdens de Vietnamoorlog. Na twee jaar immense verwoesting, en de overwinning geen centimeter dichterbij, concludeerde een Amerikaanse generaal: ‘De oplossing in Vietnam is meer bommen, meer granaten, meer napalm.’ Studies achteraf concludeerden dat de luchtcampagne niet alleen ineffectief was, maar ‘systematisch’ de controle over Vietnam richting de vijand had geduwd. Over Duitsland in de Tweede Wereldoorlog woedt eenzelfde debat.
De huidige oorlog zal even intensief worden bestudeerd. Een eerste aanwijzing dat er in Gaza iets nieuws gebeurt, was het hoge aantal doelen dat Israël aanviel: ruim vijftienduizend in de eerste 35 dagen. In 2014 bombardeerde Israël in Gaza vijf- tot zesduizend doelen in 51 dagen, daarna was het door zijn doelwitten heen. Nu is duidelijk hoe Israël aan zoveel meer doelwitten komt: door ze te laten genereren door kunstmatige intelligentie (AI).
Aviv Kochavi, tot afgelopen januari stafchef van de Israëlische strijdkrachten (idf), zei in juni dat het ‘Doelwit Directoraat’ van de idf ‘door kunstmatige intelligentie wordt aangedreven’. De resultaten zijn ernaar: ‘In het verleden produceerden we in Gaza vijftig doelwitten per jaar. Nu creëert deze machine honderd doelen per dag.’
Hoe zo’n ‘machine’ er vanbinnen uitziet, wordt beschreven in een huiveringwekkende coproductie van de tijdschriften +972 Magazine en Local Call. Zij zeggen zich onder meer te baseren op zeven bronnen binnen de Israëlische veiligheidsdiensten. Die beschrijven hoe de idf een systeem gebruikt dat Habsora wordt genoemd: ‘Het Evangelie’. Waar ‘handmatig’ inlichtingenwerk zich richtte op kopstukken in Hamas, genereert Het Evangelie doelwitten van hoog tot laag in de organisatie, vermoedelijk tot voetsoldaten aan toe. Hamas-leiders zitten al in tunnels ondergedoken sinds 7 oktober, maar deze lagere leden van Hamas niet. Hun appartementen zijn doelwit. Het is alsof Hamas ‘de privéhuizen van Israëlische soldaten zou bombarderen als ze naar huis gaan’, zegt een kritische bron. Vanuit het merendeel van de aangevallen privéhuizen, zeggen alle bronnen, vindt geen militaire activiteit plaats.
Israël laat de doelwitten in Gaza genereren door AI
Bijkomende slachtoffers worden ingecalculeerd. ‘Niets gebeurt per ongeluk’, zegt een anonieme bron in +972. ‘Als er een meisje van drie wordt gedood in haar huis in Gaza, is dat omdat iemand in het leger besloot dat het geen groot bezwaar was dat zij gedood werd. We zijn niet Hamas, dit zijn geen willekeurige raketten.’ Volgens de bronnen van +972 zijn de criteria voor burgerslachtoffers ‘aanzienlijk verruimd’. Zo werden bij een poging om een Hamas-commandant te doden honderden zekere burgerslachtoffers geaccepteerd.
De immense schade in Gaza komt volgens dit artikel mede doordat de idf bewust ‘machtsdoelen’ aanvalt: grote gebouwen en infrastructuur, zoals hoge woontorens en universiteiten, die een psychologische schok bij de Gazanen moeten veroorzaken. Zij zouden dan ‘civiele druk’ op Hamas gaan uitoefenen. Als dit waar is, bouwt de idf voort op een eeuw aan psychologische misvattingen over bombarderen.
In The Guardian verdedigt een Israëlische ex-inlichtingenfunctionaris het gebruik van AI: dat zou zorgen voor minder burgerdoden en preciezere aanvallen. De vele burgerslachtoffers en reportages uit Gaza, met bewoners die geen idee lijken te hebben waarom hun huis is gebombardeerd, zetten daar vraagtekens bij, net als de luchtfoto’s van compleet verwoeste woonwijken. Of het effectief is moet nog blijken. Maar als Hamas-leiders in tunnels zitten, en bombarderen nieuwe rekruten creëert – een les uit bijvoorbeeld Afghanistan – dan is dat zeer de vraag.
Het automatisch genereren van doelwitten komt gevaarlijk dicht bij automatisch doden, wat internationaal als rode lijn wordt beschouwd. In de spaarzame reacties op het gebruik van AI benadrukte de idf dat alle doelwitten in Gaza door mensen worden gecontroleerd. Maar mensen die samen vijftig doelwitten per jaar genereren, kunnen er niet honderd per dag controleren. Waarschijnlijk precies hierom zei oud-idf-stafchef Kochavi in juni: ‘Kunstmatige intelligentie confronteert ons met extreem ernstige risico’s. De wereld moet hierover nadenken, en met strikte regels en controlemechanismen komen.’ Die zijn er nog niet, dat is zeker.