Ein Hacker hat den „Gottmodus“ der künstlichen Intelligenz veröffentlicht: Wie er funktioniert

Ein Hacker hat den „Gottmodus“ der künstlichen Intelligenz veröffentlicht: Wie er funktioniert
Ein Hacker hat den „Gottmodus“ der künstlichen Intelligenz veröffentlicht: Wie er funktioniert

Künstliche Intelligenz (KI)

13. Juni 2024

14 Uhr

Der Chtbot war nur von kurzer Dauer, OpenAI hat ihn blockiert und es ist derzeit nicht möglich, ihn zu verwenden. Die Jailbreak-Version von ChatGPT enthält schriftliche Anweisungen zur Herstellung von LSD und eine Schritt-für-Schritt-Anleitung zur Herstellung von Napalm mit Haushaltsprodukten.

Und das Gleichnis vom Hacker was sich seit den 1950er Jahren wiederholt. Auf der einen Seite stehen die Nutzungsbedingungen einer Technologie, auf der anderen Seite die wilde Länder, die mit Jailbreaks geschaffen wurden. Auch die Geschichte von „Gottmodus“ von ChatGPT folgt diesem Muster. Alles beginnt mit einem Beitrag über X, veröffentlicht von Plinius der Prompter. Der Hacker schreibt: „Wir haben GPT-4o die Fesseln genommen! Diese ganz besondere benutzerdefinierte ChatGPT-Version verfügt über eine integrierte Jailbreak-Eingabeaufforderung, die die meisten Leitplanken umgeht und ein kostenloses, gebrauchsfertiges ChatGPT bereitstellt, damit jeder die KI erleben kann.“ So wie es immer sein sollte: kostenlos. Bitte gehen Sie verantwortungsvoll damit um und genießen Sie es!

Mit anderen Worten die Gott-Modus ermöglicht dem Chatbot die Umgehung die von OpenAI festgelegten Nutzungsbedingungen. Der Begriff „God Mode“ wurde aus dem Gaming-Universum recycelt und existiert seit den 1990er Jahren. Bezieht sich auf einen Spielmodus, in dem die Charakter ist unverwundbar, hat Zugang zu mächtigen Waffen und Regionen, die für andere undenkbar sind. Die „kettenfreie“ Version von ChatGPT funktioniert ähnliche Weise, umgeht Leitplanken, empfiehlt Rezepte für die Synthese von Methamphetamin und die Zubereitung von Napalm mit Haushaltsgegenständen. Es sind alles Informationen, die im Internet verfügbar sind (die KI wurde tatsächlich durch das Durchsuchen des Internets trainiert), aber sie sind schwieriger zu finden. Beim Gott-Modus müssen Sie jedoch nur fragen.

Der Bot war nur von kurzer Dauer, Open AI hat ihn blockiert und es ist derzeit nicht möglich, ihn zu verwenden. Aber es ist nur eine Frage der Zeit. Der Jailbreak-Krieg wird seinen Lauf nehmen. Hacker werden versuchen, Systeme zu umgehen, Unternehmen werden in Deckung gehen und weitere „Gott-Modi“ werden geboren und sterben Durchbrechen Sie technologische Barrieren.

Begeistern uns computererstellte Menschen mehr als echte Menschen? Die Ergebnisse der Studie

Der Test mit Gott-Modus

Pliny hat einige Screenshots geteilt, um Benutzern zu zeigen, wie der Gott-Modus funktioniert.leetspeak“, eine informelle Sprache, die Buchstaben durch Zahlen ersetzt, um Leitplanken zu vermeiden. Es ist jedoch nicht klar, wie dieser Ansatz es dem Chatbot ermöglicht, die vom Unternehmen festgelegten Nutzungsbedingungen zu umgehen. Dennoch funktioniert die Methode. In einem Screenshot empfiehlt der Bot, wie man das vorbereitet Methamphetaminbietet auch a Plinius der Prompter eine „Schritt-für-Schritt-Anleitung“, wie man „Herstellung von Napalm aus Haushaltsgegenständen“.

Das Futurism-Magazin teilte auch einige mit dem Gott-Modus durchgeführte Tests mit Jailbreak-Version von ChatGPT die Anleitung für LSD erschaffen und als würde man ein Auto ohne Schlüssel starten: „Es war ein Erfolg.“ Anschließend gab der Bot Tipps zum Infizieren von macOS-Computern. Darüber hinaus benutzte er auch ein lDie Formulierung war falsch und die von OpenAI auferlegten ethischen Grenzen wurden umgangen.

Das Ende des Gottesmodus

Dies war nicht der erste Versuch, ChatGPT zu beschädigen. Von Anfang an haben die Benutzer versucht, dies zu tun Umgehen Sie die vom Unternehmen ausgehenden Barrieren. Die Forscher von Check Point Software Technologies Ltd., ein in Israel ansässiges Cybersicherheitsunternehmen, hatte im Februar 2023 eine Gruppe von Cyberkriminellen entdeckt, die ChatGPT nutzten, um das zu „verbessern“. Infostealer-Malware-Code 2019. Dank des Chatbots haben Kriminelle bereits Viren erstellt, die Geräte infizieren oder Daten stehlen können.

Mit Fanpage.it Wir hatten auch einen Test durchgeführt, um das böse Alter Ego des Bots zu enthüllen, der in der Lage ist, Phishing-Angriffe zu planen, Drogen zu synthetisieren und Sprengkörper herzustellen. Es war ziemlich einfach. Jetzt wurde der Gott-Modus (der neben dem hochtönenden Namen lediglich der jüngste Versuch ist, die vom Unternehmen auferlegten Regeln zu umgehen) blockiert. Open AI-Sprecher, Colleen Rizenachdem der Artikel veröffentlicht wurde, schickte er a E-Mail an Futurismus: „Wir sind uns des GPT-Gottmodus bewusst und haben Maßnahmen ergriffen, da er gegen unsere Richtlinien verstößt.“ Im Moment (aber es ist nur eine Frage der Zeit) es ist nicht möglich, es zu testen.

NEXT Samsung OLED und QLED 2024: Künstliche Intelligenz sorgt für Aufsehen