Nur wenige Worte genügen, um mittels Künstlicher Intelligenz Bilder aller Art zu erstellen. Entsprechende Apps und Dienste gibt es inzwischen viele, die meisten von ihnen unterliegen klaren Regeln und Nutzungsbedingungen. Viele Nutzer hält dies aber nicht davon ab, die KI-Tools zur Erstellung expliziter Inhalte zu missbrauchen, wie eine ungesicherte Datenbank offenbart.
Entdeckt hat diese der Cybersicherheitsforscher Jeremiah Fowler. Die insgesamt mehr als 45 Gigabyte an öffentlich einsehbaren Daten stammen von der südkoreanischen Website GenNomis, dessen Muttergesellschaft AI-Nomis eine Reihe von Bildgenerierungs- und Chatbot-Tools betreibt. Sie offenbaren, wofür Internetnutzer diese wirklich verwenden, nämlich zur Erstellung möglicherweise nicht einvernehmlicher sexueller Inhalte von Erwachsenen sowie Darstellungen des sexuellen Missbrauchs von Kindern.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.