Israel registriert massenhaft Palästinenser mit KI-Gesichtserkennung

Israel registriert massenhaft Palästinenser mit KI-Gesichtserkennung
Descriptive text here

Gesichtserkennungstechnologie kann ein wirksames Instrument zur Gewährleistung der Sicherheit sein, aber auch eine gefährliche Waffe, wenn sie auf undurchsichtige und diskriminierende Weise eingesetzt wird. Dies wird durch die Ereignisse im Gazastreifen deutlich, wo Israel nach den grausamen und barbarischen Angriffen vom 7. Oktober stillschweigend ein umfangreiches biometrisches Überwachungsprogramm für Palästinenser einführte. Nutzung der Algorithmen von Google Fotos und das Startup Korsighthat die israelische Armee ohne deren Zustimmung ein Profil von Tausenden von Menschen erstellt, was ein beunruhigender Fall von hochtechnologischer ethnischer Profilerstellung zu sein scheint.

Großer Bruder in Gaza

Die von der New York Times berichtete Geschichte hat die Konturen eines dystopischen Thrillers. Nach den Anschlägen vom 7. Oktober begann die Einheit 8200 (die wichtigste Geheimdiensteinheit) der israelischen Armee, potenzielle Verdächtige zu identifizieren, indem sie Bilder und Videos von Überwachungskameras analysierte, die die Hamas in sozialen Medien gepostet hatte. Gleichzeitig verhörten Soldaten palästinensische Gefangene, um Personen aus ihren mit der Hamas verbundenen Gemeinden zu identifizieren.

Mit diesem Material das Startup Korsight (das über Systeme verfügt, die Gesichter erkennen können, selbst wenn weniger als 50 % davon sichtbar sind) hat ein Ad-hoc-Gesichtserkennungstool für israelische Beamte entwickelt, die in Gaza arbeiten. Um die Datenbank weiter zu bereichern und weitere Ziele zu finden, installierte das Militär mit biometrischen Kameras ausgestattete Kontrollpunkte entlang der Hauptstraßen, über die Palästinenser in den Süden fliehen. Das Ziel, so ein Beamter gegenüber der Times, bestand darin, eine „Abschussliste“ der Teilnehmer an den Anschlägen vom 7. Oktober zu erstellen. In der Praxis eine Datei der „üblichen Verdächtigen“, die auf Algorithmen und ethnischem Profiling basiert. Eine High-Tech-Fahndung, die ohne Wissen und Zustimmung der Beteiligten durchgeführt wird. Ein Orwellscher Albtraum wird wahr.

Israel, Fehler und Missbräuche

Wie wir wissen, ist Technologie nicht unfehlbar. Vor allem, wenn es sich um körnige Bilder oder teilweise verdeckte Gesichter handelt. Dies ist auch der Grund, warum Europa bei der Gesichtserkennung zu Recht vorsichtig vorgeht. Israelische Soldaten selbst gaben gegenüber der Times zu, dass das System von Corsight nicht immer korrekt sei. Manchmal identifizierte er Personen fälschlicherweise als mit der Hamas verbunden. Dies ist der Fall des palästinensischen Dichters Mosab Abu Toha, wurde an einem israelischen Kontrollpunkt aufgegriffen, als er Mitte November versuchte, mit seiner Familie Gaza nach Ägypten zu verlassen. Er sei von der KI als gesucht gemeldet worden. Ergebnis: zwei Tage Haft, Schläge und Verhöre, bevor er nach Gaza zurückgeschickt wird. Ohne auch nur Erklärungen.

Ein Schicksal, das wer weiß wie vielen anderen unschuldigen Menschen hätte widerfahren können, die nur aufgrund ihrer ethnischen Zugehörigkeit oder ihres Wohnortes als potenzielle Terroristen abgestempelt werden. Ein mit Gesichtserkennungssystemen verbundenes Risiko, das menschliche Vorurteile verstärken kann, wenn es nicht mit Vorsicht und Transparenz eingesetzt wird.

israelische Gesichtserkennung

Google, das große Ohr

Aber hinter diesem Überwachungsprogramm steckt nicht nur Corsight. Die Soldaten enthüllten der Times, dass die israelische Armee die Technologie des Unternehmens in ein anderes, zugänglicheres und vielleicht sogar leistungsfähigeres Werkzeug integriert hat: Google Fotos. Geheimdienstmitarbeiter luden Datenbanken „bekannter Personen“ auf die Server von Big G hoch und nutzten die Bildsuchfunktion, um weitere Verdächtige zu identifizieren. Ein Soldat beobachtete, dass Google Fotos Gesichter selbst anhand minimaler Details erkennen kann und damit andere Anwendungen, einschließlich Corsight, übertrifft.

Kurz gesagt, der Riese von Mountain View ist, vielleicht ohne es zu wissen, zu einem wichtigen Rädchen in Israels Kontrollmaschinerie über Gaza geworden. Ein großes Ohr, das in der Lage ist, eine ganze Bevölkerung zu kartieren und auszuspionieren und dabei im Namen der nationalen Sicherheit ihre Privatsphäre und Rechte zu verletzen. Ein kontroverser und undurchsichtiger Einsatz von KI, der in Gaza mit dem Einsatz anderer fortschrittlicher Technologien wie Robotern und Drohnen kombiniert wird und Fragen zur ethischen Verantwortung großer Technologieunternehmen aufwirft.

Nicht nur Israel: das dunkle Gesicht der Überwachung

Leider ist der Fall Gaza kein Einzelfall. Corsight, gegründet im Jahr 2019 Mit einer Investition von 5 Millionen Dollar durch den kanadischen Fonds Awz Ventures ist es auf die Bereitstellung von Gesichtserkennungslösungen spezialisiert. Für viele Realitäten: Regierungen, Strafverfolgungsbehörden und Armeen. Im Jahr 2020Nur ein Jahr nach seiner Gründung prahlte das Unternehmen damit, maskierte Gesichter identifizieren zu können. Zwei Jahre später, im Jahr 2023, gab bekannt, dass es ein Tool entwickelt, mit dem sich die Merkmale einer Person aus ihrer DNA rekonstruieren lassen (wir haben hier darüber gesprochen). Im Jahr 2023arbeitete mit der Polizei von Bogota zusammen, um Mord- und Diebstahlsverdächtige in öffentlichen Verkehrsmitteln aufzuspüren.

Ein wachsendes Unternehmen, angetrieben von der Rhetorik der Angst und dem Hunger nach Sicherheit, aber nicht ohne Grauzonen. Denken Sie nur an die Aussagen von Aaron Ashkenazi, geschäftsführender Gesellschafter von Awz Ventures, der letzten Oktober in einem Leitartikel in der Jerusalem Post schrieb, dass sein Fonds Israel „die technologischen Werkzeuge zur Verfügung stellt, um diese bösen Terroristen aufzuhalten“. Man kann sich leicht vorstellen, was diese Werkzeuge sind.

Auf der Seite von Big Brother

Generell scheint die Mission von Corsight und anderen ähnlichen Unternehmen eine Mission im Dienste des globalen Big Brother zu sein. Ein Versuch, jedes Gesicht rückverfolgbar, katalogisierbar und überwachbar zu machen, in einer Welt, in der Anonymität ein Luxus ist, den wir uns nicht mehr leisten können, und Privatsphäre eine Option ist, die auf dem Altar der Verteidigung geopfert werden muss.

Es ist daher keine Überraschung, dass einige Krankenhäuser in Israel in den letzten Monaten auch damit begonnen haben, die Algorithmen von Corsight zu nutzen, um entstellte Patienten zu identifizieren, wie Forbes berichtet. Eine scheinbar humanitäre Anwendung, die aber den Weg für fragwürdigere Anwendungen dieser invasiven Technologie ebnet. Das Risiko besteht, wie die Ereignisse in Gaza zeigen, darin, dass Gesichtserkennungssysteme in die falschen Hände zu Instrumenten der Unterdrückung und Diskriminierung geraten. Dass sie das Recht auf Sicherheit in eine Entschuldigung für die Verletzung anderer Grundrechte verwandeln, angefangen beim Recht auf Anonymität oder auf ein faires Verfahren. Um es klar zu sagen: Hier geht es nicht darum, die Gesichtserkennung selbst zu verteufeln, die in verschiedenen Bereichen, vom Gesundheitswesen bis zur Sicherheit, positive Anwendungen haben kann. Sondern seine Nutzung klar und demokratisch zu regeln und mögliche Verzerrungen und Missbräuche einzuschränken.

Sie reduzieren Menschen auf Pixel und Prozentzahlen und kennzeichnen sie anhand ihrer Hautfarbe, Gesichtszüge oder sozialen Herkunft. Ein Albtraum, der sicherlich die Verantwortung derjenigen in Frage stellt, die diese Technologien entwickeln und verkaufen, aber sicherlich auch derer, die sie kaufen und nutzen.

PREV Manfredonia, ein Exemplar des Bussards, das von den italienischen Umweltschützern „vor dem sicheren Tod“ gerettet wurde
NEXT Terni. Federico und Flavio Mattiangeli gewinnen das vom Verein Interact organisierte Padel-Turnier, um den Verein „Ughd“ für Flavia zu unterstützen