Instagram füllt sich mit kinderpornografischen Bildern, die mit künstlicher Intelligenz erstellt wurden

Instagram füllt sich mit kinderpornografischen Bildern, die mit künstlicher Intelligenz erstellt wurden
Instagram füllt sich mit kinderpornografischen Bildern, die mit künstlicher Intelligenz erstellt wurden

Der generative künstliche Intelligenzen Sie sind die unvermeidliche Zukunft, die uns erwartet, weil sie bequem und schnell sind, weil sie milliardenschwere Interessen haben und weil sie das Ego eines jeden aufblähen können. Es ist klar, dass viele sie für schändliche Zwecke nutzen werden, wie zum Beispiel um realistischeren Spam zu erstellen, Fälschungen zu erstellen, an denen echte Menschen beteiligt sind usw verbotene Bilder zu erstellen, beispielsweise solche mit kinderpornografischem Charakter.

Wie Forbes berichtet, ist die Insbesondere das soziale Netzwerk Instagram wird von Bildern dieser Art überschwemmtveröffentlicht ohne jegliche Kontrolle von Meta, dem Unternehmen, das es verwaltet.

Der Bericht geht auch detailliert auf die Art der Kommentare dieser Personen ein, die insbesondere Instagram und TikTok nutzen, wobei es oft die Minderjährigen selbst oder ihre Eltern sind, die ungewollt das Angebot zur Like-Suche schaffen.

Viele Agenturen führten durch erbitterte Kämpfe gegen Online-Pädophilieaber mit künstlicher Intelligenz könnte die Situation angesichts der Situation durchaus außer Kontrolle geraten Leichtigkeit, mit der diese Inhalte erstellt werden können.

Pädophile und diejenigen, die ihnen die Werkzeuge geben

Das Schlimmste ist, dass der Trend aus der Gier genau der Unternehmen entsteht, die die KI verwalten, denn Sie verwendeten freiwillig CSAM-Material (Material über sexuellen Missbrauch von Kindern), um ihre Modelle zu schulen. Beispielsweise entdeckte eine Studie aus dem Dezember 2023 das Vorhandensein dieser Art von Bildern in den Datensätzen von Stable Diffusion, einer der am häufigsten verwendeten bildgenerierenden KIs. Google selbst hat zugegeben, sie für seine KI zu nutzen.

Die Unternehmen trainierten ihre KI gezielt mit Kinderpornografie

Kurz gesagt, das kann uns nicht überraschen Pädophile haben einen Weg gefunden, all dieses Material selbst auszunutzen. Erschwerend kommt hinzu, dass es auch eine große rechtliche Lücke gibt, da einige der von Forbes entdeckten Materialien als legal gelten, da es sich bei den Bildern um Fälschungen handelt und die abgebildeten Minderjährigen nicht völlig nackt sind.

Ich meine, das sind sie sowieso sexuell anzügliche Bilderbasieren wahrscheinlich auf realen Bildern, erregen aber die Aufmerksamkeit und Kommentare von Pädophilen Niemand setzt konkrete Grenzen. Meta und ByteDance haben die von Forbes gemeldeten Accounts gelöscht, was einer Art Staub unter den Teppich kehrt, wenn man bedenkt, dass man nicht für jeden solchen Account, der online erscheint, einen journalistischen Bericht erwarten kann.

PREV Technologie: WhatsApp ändert eine beliebte Funktion, hier ist, was sich ändern wird
NEXT Auch Oppo setzt auf KI: Hier sind das neue Reno 12 und Reno 12 Pro