Don Trueten :antifa:<p>„Assistenz“ beim Bombardement in Gaza: Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg? </p><p>Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag <span class="h-card" translate="no"><a href="https://mastodon.trueten.de/@972mag" class="u-url mention" rel="nofollow noopener noreferrer" target="_blank">@<span>972mag</span></a></span> und der hebräischen Zeitung Local Call einen vielbeachteten Bericht veröffentlicht, wonach die israelische Armee (IDF) in großem Maßstab <a href="https://mastodon.trueten.de/tags/K%C3%BCnstlicheIntelligenz" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>KünstlicheIntelligenz</span></a> (KI) einsetze, um Ziele zu identifizieren, die anschließend in <a href="https://mastodon.trueten.de/tags/Gaza" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Gaza</span></a> bombardiert werden. Im Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist mit “The Gospel” übersetzt. Der Beitrag basierte im Wesentlichen auf Aussagen aktiver und ehemaliger israelischer Militärs, die im weiteren Sinne mit der Zielauswahl beschäftigt waren und angaben, „<a href="https://mastodon.trueten.de/tags/Habsora" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Habsora</span></a>“ basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu „produzieren“. Die Anwendung von <a href="https://mastodon.trueten.de/tags/Habsora" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Habsora</span></a> und anderen datenverarbeitenden Systemen hat demnach dafür gesorgt oder dazu beigetragen, dass der IDF bei ihrer massiven Luftkampagne über dicht besiedeltem Gebiet nicht die Ziele ausgingen und dieses massive <a href="https://mastodon.trueten.de/tags/Bombardement" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Bombardement</span></a> in seiner Intensität überhaupt durchgeführt werden konnte. Zugleich habe es dazu geführt, dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. „Power Targets“ (mehrstöckige zentrale Wohngebäude oder Verwaltungsgebäude) überhaupt ausgeführt worden seien. Bereits damals wurde der Vorwurf geäußert und mit Zitaten unterlegt, wonach die automatisch generierten Ziele zwar nochmal von Menschen bestätigt, dafür aber jeweils nur sehr kurze Zeit aufgewendet worden wären. Die Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, die in der ersten Woche täglich auf einer Fläche angegriffen wurden, welche nur etwas größer ist, als das Gebiet der Stadt München. Nach weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 22.000 angegeben.</p><p>Völkerrechtlich wären die IDF bei jedem Angriff, bei dem auch mit zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren militärischen Nutzen mit den erwartbaren zivilen Opfern in ein Verhältnis zu setzen und abzuwägen. Diese Verpflichtung dürfte bei nahezu allen Zielen bestanden haben und ihre Einhaltung lässt sich angesichts der schieren Masse angegriffener Ziele kaum plausibel darstellen – es sei denn, die Abwägung wäre auf der Grundlage automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die Informationsstelle Militarisierung <span class="h-card" translate="no"><a href="https://mastodon.social/@imi" class="u-url mention" rel="nofollow noopener noreferrer" target="_blank">@<span>imi</span></a></span> hat deshalb Mitte Dezember vermutet dass die IDF sogar ein Interesse daran gehabt haben könnten, dass der großflächige Einsatz von KI bei der Zielfindung bekannt wird, um ihrem Vorgehen zumindest oberflächlich den Anstrich einer – neuartigen – <a href="https://mastodon.trueten.de/tags/v%C3%B6lkerrechtlich" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>völkerrechtlich</span></a>en Legitimität zu verleihen, wonach große Teile der gebotenen „Abwägung“ an vermeintlich „intelligente“ datenverarbeitende Systeme delegiert wurden. Die <a href="https://mastodon.trueten.de/tags/Opferzahlen" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Opferzahlen</span></a>, die zum Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich kaum von denen, die bei einer vollkommen willkürlichen <a href="https://mastodon.trueten.de/tags/Bombardierung" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Bombardierung</span></a> eines dicht besiedelten Gebietes erwartbar wären. Der Autor Yuval Abraham bezifferte diese bis zum <a href="https://mastodon.trueten.de/tags/Waffenstillstand" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Waffenstillstand</span></a> vom 23. November auf 14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die <a href="https://mastodon.trueten.de/tags/IDF" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>IDF</span></a> hingegen schätzten die Zahl der getöteten Militanten etwa zum gleichen Zeitpunkt auf 1.000 bis 3.000.</p><p>(...) </p><p><a href="https://www.trueten.de/archives/13184-Assistenz-beim-Bombardement-in-Gaza-Was-bedeutet-Kuenstliche-Intelligenz-im-urbanen-Krieg.html" rel="nofollow noopener noreferrer" translate="no" target="_blank"><span class="invisible">https://www.</span><span class="ellipsis">trueten.de/archives/13184-Assi</span><span class="invisible">stenz-beim-Bombardement-in-Gaza-Was-bedeutet-Kuenstliche-Intelligenz-im-urbanen-Krieg.html</span></a> <a href="https://mastodon.trueten.de/tags/Israel" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Israel</span></a> <a href="https://mastodon.trueten.de/tags/Lavendar" class="mention hashtag" rel="nofollow noopener noreferrer" target="_blank">#<span>Lavendar</span></a></p>