Das eigene Gesicht auf einem Nacktbild, das man nie geschossen hat – ein Alptraum, der durch KI für immer mehr Menschen zur Realität wird. Die Regierung plant nach aktuellem Druck neue Gesetze gegen den Missbrauch von Deepfakes. Wie könnten die Risiken, die mit immer besser werdenden KI-Technologien einhergehen, minimiert werden?
KI-Anwendungen sind heutzuage fast allgegenwärtig. Mit ihnen lassen sich – praktisch ohne Bildbearbeitungskenntnisse – täuschend echte Fake-Bilder und Videos erstellen. Aktuelle Fälle zeigen, dass die Justiz oft langsamer ist als der technologische Fortschritt. Die Regierung prüft daher nun gezielte Verschärfungen, um den Missbrauch von KI-Bildern klarer zu sanktionieren und Opfern schneller zu ihrem Recht zu verhelfen. Bisher gibt es in Österreich zwar keine eigene Strafnorm speziell für Deepfakes, doch Betroffene sind nicht völlig schutzlos: Sie können sich bereits auf das Zivilrecht, das Urheberrecht oder bestehende Gesetze gegen Cybermobbing und sexuelle Belästigung stützen.
Reichen neue Paragrafen aus, um gegen solche Fälschungen anzukommen, oder muss die Verantwortung für solche bei den Anbietern der KI-Anwendungen eingefordert werden? Wäre es sinnvoll, das Thema Deepfakes und digitale Gewalt in die Schulbildung zu integrieren? Wo würden Sie ansetzen? Diskutieren Sie mit und teilen Sie Ihre Ansichten und Lösungsideen unten in den Kommentaren!
Liebe Leserin, lieber Leser,
die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.
Mit freundlichen Grüßen
das krone.at-Team
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.