Es ist dringend erforderlich, die Legitimität der Verwendung privater Benutzerdaten durch Meta zum Training künstlicher Intelligenz zu überprüfen

Viele von Ihnen werden die Benachrichtigung erhalten haben, mit der Meta den Start eines neuen Entwicklungsprogramms für seine künstliche Intelligenz ankündigt. Kurz gesagt, Meta wird mehr oder weniger alle im Laufe der Jahre von seinen Benutzern hinterlegten Informationen verwenden, um seine Algorithmen zu trainieren. Stellen Sie sich vor: persönliche Chats, Äußerungen, auf die Sie nicht stolz sind oder die Sie nicht mehr als Ihre eigenen erkennen, mehr oder weniger lächerliche Kommentare, Likes auf Fotos oder Beiträge mit zweifelhaftem Geschmack. All dies wird dazu verwendet, die KI zu trainieren, die wiederum in der Lage sein wird, mit Dritten zu „kommunizieren“.

(Auf dem Foto: Stefano Rossetti ist Anwalt bei Noyb – Europäisches Zentrum für digitale Rechte)

Was das alles bedeutet, bleibt offen gesagt ein Rätsel. Theoretisch kann man dagegen sein, aber nur theoretisch. Nach Metas ausdrücklicher Entscheidung ist die Ausübung dieses Rechts tatsächlich ziemlich schwierig (siehe Annalisa Godis hervorragenden Artikel dazu). Selbst wenn der Benutzer Erfolg hat, gibt es in jedem Fall keine Möglichkeit zu überprüfen, ob die Anfrage in der Praxis angenommen wird. Die irische Behörde, die örtlich für die Untersuchung von Meta zuständig ist, ist in der Tat nicht für die Sorgfalt bekannt, mit der sie ihre Aufsichtsfunktionen ausübt.

Aus diesen Gründen hat noyb eine Reihe von Beschwerden bei verschiedenen Datenschutzbehörden eingereicht und die Notwendigkeit konzertierter und dringender Maßnahmen zur Überprüfung der Legitimität solcher Vorgänge unterstrichen.

Hinter allem steht eine bewusste, gewollte Unklarheit hinsichtlich der Datenverarbeitung. Als alles vor ein paar Jahrzehnten begann, konnte sich niemand vorstellen, dass seine persönlichen Kontodaten für irgendeinen Zweck verwendet werden könnten. Stattdessen handelte es sich zunächst um Direktmarketing. Dann politisches Targeting (erinnert sich jemand an eine bestimmte Cambridge Analytica?). Und nun künstliche Intelligenz, mit den möglichen Risiken, die damit verbunden sind, insbesondere wenn das Training des Algorithmus auf solchen Informationen basiert (denken Sie an private Chats).

Ein praktischer Fall. Um mein Englisch zu verbessern, habe ich vor ein paar Tagen einen KI-Assistenten gebeten, mir dabei zu helfen, meinen Ausdruck natürlicher zu gestalten. Der Bot stellte mir eine Frage: „Was magst du?“ und ich dachte: „Lesen“. Ich antwortete: „Ich habe eine Leidenschaft für Bücher, ich liebe es, sie bei mir zu haben, sie zu lesen und von großartigen Köpfen, Frauen und Männern, zu lernen.“ KI-Fix: „Ich interessiere mich für Bücher.“ Ich liebe es, mich mit ihnen zu umgeben, mich in ihre Seiten zu vertiefen und die Weisheit großer Köpfe, sowohl Männer als auch Frauen, in mich aufzunehmen.“ Um eine verfeinerte Version bereitzustellen, hat die KI die Bedeutung der beiden hervorgehobenen Wörter umgekehrt und wie immer „Männer“ vor „Frauen“ gesetzt. Dies geschah, weil der Algorithmus auf einem Datensatz trainiert wurde, der statistisch gesehen diese Sequenz ergab. Mit anderen Worten, es bekräftigte die Diskriminierung aufgrund des Geschlechts. Und diese Art von Dynamik lässt sich in vielen anderen Branchen wiederholen.

Wenn wir den Gedanken beispielsweise auf Cambridge Analytica zurückbringen, besteht ein klares Risiko, dass KI die demokratische Debatte beeinflussen könnte, indem sie Artikel vorschlägt, die ein Vorurteil bestätigen, anstatt weitere Elemente bereitzustellen, die für die Bildung eines denkenden und abstimmenden Gehirns unerlässlich sind (wir wollen optimistisch sein). ). All dies kann systemische Risiken wie Hassrede, Diskriminierung aller Art und Einschränkung der Meinungsfreiheit im Internet befeuern. Wenn ein Beitrag beispielsweise keine akzeptierte Position widerspiegelt und daher negative Kommentare erhält, kann die KI ihn als „illegitim“ brandmarken und den Inhalt und seinen Autor von der Plattform entfernen. (Das ist keine Science-Fiction. All dies geschieht und ist Gegenstand einer neuen europäischen Verordnung, des Digital Services Act.) Die Anfechtung der algorithmischen Entscheidung ist theoretisch möglich, ebenso wie die Erlangung einer menschlichen Überprüfungsmaßnahme. Um dies jedoch effektiv tun zu können, müssten Sie die Entscheidungslogik der KI kennen. Die Plattformen sind jedoch nicht besonders daran interessiert, diese Erklärungen zu liefern, weil sie ihr gewerbliches Eigentum Risiken aussetzen und weil menschliche Moderation Geld kostet (es sei denn, sie lagern diese Funktion in Entwicklungsländer aus, ohne arbeitsrechtlichen Schutz, und selbst das haben wir gehört). es vorher.) Und hier rückt die Rolle der Aufsichtsbehörden in den Fokus.

Das in der europäischen Datenschutzverordnung vorgesehene Kooperationssystem sieht vor, dass die Zuständigkeit für die Überwachung dieser Art der Verarbeitung bei den Datenschutzbehörden der Länder liegt, in denen diese Giganten ihre Hauptniederlassung haben. Im Wesentlichen Irland und Luxemburg. Es gibt nur ein „kleines“ Problem. Aus irgendeinem unergründlichen Grund – sagen wir „unergründlich“, um niemanden zu verletzen – gibt es in diesen Ländern keine klaren Verfahrensregeln für die Bearbeitung von Beschwerden, mit der Folge, dass in den allermeisten Fällen keine Ermittlungen durchgeführt werden und selten irgendeine Art von Intervention. Mit anderen Worten: Das System funktioniert nicht genau für die Verarbeitung personenbezogener Daten, für die es besser funktionieren sollte.

Indem diese Länder die Aktivitäten ihrer Aufsichtsbehörden nicht rechtzeitig regulieren, ermöglichen sie tatsächlich die Schaffung wahrer Privatsphäre-Paradiese. Dies stellt einen Verstoß gegen europäische Vorschriften dar. Die Europäische Kommission könnte mit einem Vertragsverletzungsverfahren eingreifen. Bisher hat er jedoch nicht viel getan. Vielleicht können die Verhandlungen zur neuen Kommission diesem Sachverhalt Rechnung tragen. Die Zeit, konstruktiv zu handeln, ist wirklich gekommen. Tatsächlich sind wir schon sehr spät dran.

von Stefano Rossetti (Quelle: Tomorrow)

PREV Rune out gegen Thompson. Raonic siegt mit Rekord-Assen
NEXT Lazio, der Zusatz der Curva Nord zur Aussage: „Hört auf, euch über uns lustig zu machen!“