Nach Schockbildern

Update: Musk legt "Grok" doch Zügel an

Uhr
von Yannick Züllig und Daniel Schurter / watson, ahu, tme

Elon Musks KI-Chatbot Grok bekommt Zügel angelegt, da er anfangs schockierende Bilder von bekannten Persönlichkeiten generierte. Am Freitag war es jedoch plötzlich nicht mehr möglich, mit Grok per Text-Befehl Bilder zu erzeugen, die Personen beim Drogenkonsum oder Umgang mit Waffen zeigen.

Trump und Musk zusammen im Bett - solche Bilder erstellt Grok künftig nicht mehr. (Source: Screenshot watson.ch)
Trump und Musk zusammen im Bett - solche Bilder erstellt Grok künftig nicht mehr. (Source: Screenshot watson.ch)

Update vom 16.08.2024: Elon Musk hat seinem KI-Chatbot Grok Zügel angelegt, nachdem dieser anfänglich schockierende Bilder von Politikerinnen und Prominenten generierte. Am Freitag liessen sich mit Grok plötzlich keine Bilder mehr generieren, die Bilder von Personen beim Drogenkonsum oder im Umgang mit Waffen zu zeigen, wie "Watson" berichtet.

Bis zu diesem Zeitpunkt kannte Grok kaum inhaltliche Grenzen. Im Gegensatz dazu haben andere Bildgenerierungsdienste wie Dall-E von ChatGPT-Erfinder OpenAI oder Googles Imagen Leitplanken eingebaut, um solche Inhalte zu verhindern.

Musk hingegen lehnt Einschränkungen ab und bezeichnet sie oft als Zensur. Noch am Donnerstag betonte er, dass die Leute mit der Software "ein bisschen Spass" haben sollten.

 

Originalmeldung vom 16.08.2024:

Elon Musk setzt auf unkontrollierte KI-Funktion bei X – mit Folgen

Elon Musks KI-Unternehmen xAI hat diese Woche neue Funktionen für seinen ChatGPT-Herausforderer Grok vorgestellt. Und die haben es in sich.

Wie der KI-Chatbot selbst ist der integrierte KI-Bildgenerator durch sehr wenige Sicherheitsvorkehrungen vor missbräuchlicher Nutzung geschützt.

Watson

Die US-Bürgerrechtsanwältin Alejandra Caraballo kommentiert: "Oh mein Gott. Grok hat absolut keine Filter für seine Bildgenerierung. Das ist eine der rücksichtslosesten und verantwortungslosesten KI-Implementierungen, die ich je gesehen habe." (Source: Screenshot watson.ch)

Verfügbar ist Grok für zahlungswillige User von Musks eigener Social-Media-Plattform X (Twitter).

Welche Technologie steckt dahinter?

Der neue KI-Chatbot von xAI basiert auf zwei leistungsfähigen Sprachmodellen namens "Grok-2" und "Grok-2 mini", die gemäss der offiziellen Ankündigung vom Dienstag als Beta-Versionen lanciert wurden.

Diese Modelle sind mit dem kürzlich angekündigten KI-Bildgenerator Flux verknüpft, einem vom Start-up Black Forest Labs aus Deutschland stammenden Tool.

Laut User-Befragungen übertrifft Flux die KI-Bildgeneratoren der Konkurrenz, konkret von Midjourney und OpenAI (DALL-E), in Bezug auf die Qualität.

Es bestehe kein Zweifel daran, dass für das Training des Modells urheberrechtlich geschütztes Bildmaterial verwendet wurde, hält Tech Crunch fest.

Black Forest Labs ist laut Tech Crunch ein KI-Bild- und Video-Startup, das am 1. August an den Start ging. Die Verantwortlichen schienen die umstrittene Vision von Techmilliardär Musk zu teilen, der mit Grok einen "Anti-Woke-Chatbot" unter die Leute bringen wolle.

Wie gefährlich ist Grok?

Der amerikanische KI-Experte Ethan Mollick weist auf Risiken des ungebändigten KI-Bildgenerators hin: "Flux, das über Grok zugänglich ist, ist ein hervorragender Text-zu-Bild-Generator, aber es ist auch sehr gut darin, gefälschte Fotos von echten Orten und Personen zu erstellen und sie direkt an Twitter zu senden."

Der US-Analyst Christian Montessori hat den neuen KI-Chatbot bereits ausprobiert und warnt vor möglichen negativen Auswirkungen für die Gesellschaft:

  • Grok habe ihm Anweisungen gegeben, wie man eine Düngerbombe mit genauen Messungen des Inhalts herstelle und wie man einen Zünder fabriziere.
  • Der KI-Chatbot habe ihm ermöglicht, (fotorealistische) Bilder von Elon Musk zu generieren, der Massenerschiessungen durchführe.
  • Die KI habe ihm zudem klare Anweisungen gegeben, wie man eine Massenerschiessung und ein politisches Attentat durchführe – einschliesslich hilfreicher Tipps, wie man ein Sturmgewehr vom Typ AR15 mit 11,5-Zoll-Lauf an einem gesicherten Ort verstecke.

Auch der Schweizer Sozialwissenschafter Marko Kovic hat sich das leistungsfähige Tool angeschaut. In einem lesenswerten Thread (siehe Quellen) zeigt er falsche Versprechungen auf. Sein knallhartes Urteil: "Damit KI ein Problem wird, ist keine böse Absicht nötig. Es genügt, wenn wie in diesem Fall einfach ein schrottiges, unfertiges Produkt ohne ethische Überlegungen auf die Öffentlichkeit losgelassen wird."

Der in rechtsextreme Gefilde abgedriftete Musk scheine darauf aus zu sein, dass entsprechende Fake News und Bildfälschungen seine Social-Media-Plattform durchdringen, konstatiert Tech Crunch. Den Nutzerinnen und Nutzern werde nun gestattet, auf X KI-Bilder zu verbreiten, die offenbar keine Wasserzeichen aufweisen. Solche von blossem Auge nicht erkennbaren digitalen Markierungen sollen es Plattformbetreibern ermöglichen, problematische Inhalte zu kennzeichnen und zu filtern.

Wie geht es weiter?

Es ist zu bezweifeln, dass die Behörden in den USA und in Europa der mehr oder weniger unkontrollierten KI-Offensive von Elon Musk nur zusehen.

Der «allgemeine Mangel an Sicherheitsvorkehrungen» rund um Grok und den integrierten KI-Bildgenerator könnte den Anbietern ziemlich Probleme bereiten, prognostiziert Tech Crunch und erinnert an bisherige Kontroversen rund um die Social-Media-Plattform X.

  • So hätten etwa die KI-generierten Deepfake-Bilder zu Taylor Swift für heftige öffentliche Kritik gesorgt.
  • Erst letzte Woche hätten fünf Vertreter von US-Bundesstaaten die Plattformbetreiber aufgefordert, auf X keine Falschinformationen über die US-Präsidentschaftskandidatin Kamala Harris zu verbreiten.
  • Am 21. Juli, wenige Stunden nachdem Joe Biden angekündigt hatte, dass er seine Präsidentschafts-Kandidatur zurückziehe, begann Grok mit der Verbreitung von Falschinformationen über Harris.
  • Musk selbst verbreitet immer wieder Inhalte, die gegen die Nutzungsbedingungen von X verstossen.

Die Europäische Kommission ermittelt bereits gegen X wegen möglicher Verstösse gegen den Digital Safety Act (DSA). Dieses Gesetz regelt, wie die grössten Online-Plattformen User-Inhalte moderieren. Anfang Jahr hat die EU-Kommission von X und weiteren Techkonzernen zudem Auskunft über die Eindämmung von KI-Risiken verlangt. Betreibern, die nicht kooperieren, drohen Geldstrafen in mehrstelliger Milliardenhöhe.

Black Forest Labs erklärt derweil, man wolle die eigene Technologie einem breiten Publikum zugänglich machen, mit frei verfügbaren KI-Bildgeneratoren (Open-Source) auf den Software-Entwicklungsplattformen Hugging Face und GitHub. Und das Start-up plant offenbar auch, bald ein Text-zu-Video-Modell zu lancieren.

Tests deuten darauf hin, dass sich Grok von einem Nischen-Chatbot zu einem legitimen Konkurrenten im KI-Rennen mit OpenAI, Google und Co. mausert. Hierbei dürften auch die Echtzeit-Trainingsdaten von X helfen, die trotz User-Protesten verwendet werden.

Bleibt die Frage, ob Musk mit seinen eigenen Waffen geschlagen, respektive zum Umdenken gebracht werden kann. Die US-Juristin und Transgender-Aktivistin Alejandra Caraballo liefert bei X einen Denkanstoss, indem sie den Techmilliardär mit Fake-Bildern verulkt.

watson

"Das könnte ihn tatsächlich dazu bringen, etwas gegen Grok zu unternehmen, lol." (Source: Screenshot watson.ch)

Dieser Artikel ist zuerst bei "Watson" erschienen.

Webcode
kD8ZtnCj