29.04.2022 07:06 |

EU-Gesetz zu „lax“

AK warnt vor Gefahren künstlicher Intelligenz

Ein Avatar, der im Chat antwortet; ein Algorithmus, der über Kreditanträge entscheidet: Künstliche Intelligenz ist Teil unseres Alltags. Die Schattenseiten der Technologie werden dabei oft ausgeblendet, warnen nun Experten der Arbeiterkammer und des Instituts für Technikfolgen-Abschätzung. Gefahr lauert demnach vor allem dort, wo KI anhand riesiger Datenmengen eine Entscheidung trifft, deren Zustandekommen für Menschen nicht mehr nachvollziehbar ist.

Artikel teilen
Drucken
Kommentare
0

In welchen Bereichen des Lebens sich der Einsatz von KI durchsetzen wird, ist noch offen - dementsprechend weitgefasst präsentiert sich auch das kürzlich verabschiedete KI-Gesetz der Europäischen Kommission. Angedacht war es, damit - ähnlich dem EU-Gesetz zur Datenschutzgrundverordnung - den internationalen Goldstandard zu setzen.

„Tatsächlich beschränken sich die Regulierungen aber auf ein absolutes Minimum“, stellt Daniela Zimmer, Datenschutzexpertin der Arbeiterkammer, fest. „Nur für hochriskante KI-Anwendungen wurden Spielregeln definiert - und sogar in extrem sensiblen Bereichen, wie etwa Kreditwürdigkeitsprüfungen, oder biometrischen Fernidentifikationen, sind die Verbote löchrig.“

AK-Expertin kritisiert Gesetz als zu „lax“
Anlass, das EU-Gesetz zu konzipieren war die Situation in China, wo ein Social-Scoring-System Menschen gläsern hat werden lassen. „Deswegen hat die Kommission auch verboten, dass Behörden Menschen nach ihren Eigenschaften und ihrem Verhalten kategorisieren dürfen - aber auch nur dann, wenn eine dadurch resultierende Schlechterstellung unverhältnismäßig ist“, kritisiert Zimmer den „laxen“ Ton des Gesetzestextes.

Was es brauche, sei eine rechtliche Handhabe für Menschen, denen durch eine KI-Entscheidung finanzielle Schäden erwachsen sind, sowie die Möglichkeit, die Beurteilung etwa der Kreditwürdigkeit oder auch die Auswertung persönlicher Daten durch eine KI abzulehnen, sagt die Expertin.

Entscheidungsfindung schwer nachvollziehbar
Das größte Problem beim Einsatz von KI sei derzeit jedenfalls die mangelnde Transparenz bei der Entscheidungsfindung: „Die KI eignet sich mittels Daten in einem Lernprozess ein Modell an und wartet mit einem Ergebnis auf, das auf Wahrscheinlichkeit beruht“, erläutert Walter Peissl vom Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften. „Damit ist es für einen Menschen oft schwer nachvollziehbar, wie es zu einer Entscheidung kam - aber nur, wenn ich ein System verstehe, kann ich Verantwortung dafür übernehmen“.

Es sei ein gesellschaftlicher Diskurs über KI nötig, in dem das Recht auf Information, aber auch die Verständlichkeit der Entscheidungsfindung festgelegt werden sollte, so der Experte. Letztlich brauche es auch einen rechtlichen Rahmen zur Überprüfung von Entscheidungen. „Die Letztverantwortung sollte aber auf jeden Fall auch in der heutigen Zeit bei natürlichen, juridischen Personen liegen“, sagt Peissl.

 krone.at
krone.at
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Kommentare lesen mit
Jetzt testen
Sie sind bereits Digital-Abonnent?