03.09.2019 14:07 |

Große Uneinigkeit

Künstliche Intelligenz: Was darf sie, was nicht?

Künstliche Intelligenz macht riesige Fortschritte. Bestenfalls sollte ihr Einsatz niemandem schaden. Nur wie lässt sich das bewerkstelligen? Die Antworten von Staaten, Unternehmen und Organisation fallen sehr unterschiedlich aus, wie Zürcher Forschende zeigen.

Künstliche Intelligenz weckt viele Ängste: dass lernende Algorithmen und intelligente Automatisierungen Menschen den Job kosten, dass KI zum Schaden der Bevölkerung eingesetzt werden oder durch Erlernen menschlicher Vorurteile oder unausgewogene Datensätze als Trainingsbasis bestimmte Gruppen diskriminieren könnte. In Reaktion auf solche Ängste haben Staaten, Organisationen und Privatwirtschaft ethische Leitlinien entwickelt. Die Vorstellungen darüber, wie ein ethisch verantwortlicher Umgang mit KI aussehen sollte, gehen dabei allerdings teils weit auseinander, wie Forschende um Effy Vayena von der ETH Zürich berichten.

Das Forschungsteam hat 84 Dokumente gesammelt, die ethische Prinzipien und Leitlinien für KI festlegen. Sie reichen von Leitlinien von Unternehmen, die KI entwickeln oder einsetzen, über Berichte und Diskussionspapiere aus Expertengremien und Hochschulen bis zu Dokumenten von Regierungsorganen und internationalen Organisationen. „Diese ethischen Leitlinien zu KI sind in den letzten Jahren wie Pilze aus dem Boden geschossen“, sagte Studienautorin Anna Jobin von der ETH Zürich. „Deshalb wollten wir einen Überblick schaffen, woher diese Leitlinien stammen, welche ethischen Prinzipien genannt und wie stark sie gewichtet werden.“

Kein einziges ethisches Grundprinzip fand sich demnach in allen Dokumenten. Insgesamt konnten die Forscher elf Prinzipien identifizieren, die aber sehr unterschiedlich häufig vorkamen. Fünf Eckpunkte kristallisierten sich heraus, die in mehr als der Hälfte der Leitlinien erwähnt wurden: Transparenz, Gerechtigkeit und Fairness, das Verhindern von Schaden, Verantwortung und Datenschutz. Allerdings fiel teils sehr unterschiedlich aus, was genau mit diesen Prinzipien gemeint ist und wie sie zu erreichen sind.

Transparenz wichtigstes Grundprinzip
Transparenz war dabei das am häufigsten genannte Grundprinzip und tauchte in 73 von 84 Dokumenten auf. Das Schlagwort umfasst dabei Bemühungen, die Technologie hinter KI und ihre Verwendung verständlicher zu kommunizieren, oder auch die Art des Einsatzes und der Nutzung von Daten, den Quellcode, Grenzen der Technologie oder auch Haftbarkeit offenzulegen.

Insbesondere die verständliche Kommunikation und dadurch auch die Überprüfbarkeit durch externe Kontrollinstitutionen („Audits“) werde in den Dokumenten hervorgehoben. Das Hauptziel von Transparenz beim Einsatz von KI ist dabei das Vorbeugen von Missbrauch oder unerwünschten Nebenwirkungen der Technologie. Damit reicht dieses Grundprinzip auch übergreifend in die anderen vier Eckpunkte, beispielsweise um Schlagseite und Diskriminierung in von KI gefällten Entscheidungen zu verhindern.

In sich widersprüchlich
„Erstaunlich ist, wie widersprüchlich die Dokumente in sich selbst teilweise sind“, sagte Jobin. Beispielsweise sei ein oft genanntes Ziel, Diskriminierung zu verhindern, indem man möglichst noch größere und dadurch ausgewogenere Datensätze ansammle. „Im gleichen Dokument findet man plötzlich das ethische Prinzip des Datenschutzes und dass Nutzer die Kontrolle über ihre Daten haben sollten. Das ist nur schwer mit dem Sammeln von noch größeren Datenmengen zu vereinbaren.“

Während Transparenz sehr im Vordergrund der ethischen Leitlinien steht, werden andere Prinzipien eher selten erwähnt, wie Vertrauen, Solidarität oder auch Nachhaltigkeit. „Man kann sich jetzt fragen, ob das gerechtfertigt ist. Kann KI wirklich ethisch sein, wenn sie nicht das Prinzip der Nachhaltigkeit erfüllt?“, so Jobin. „Dank dieses Überblicks wissen wir nun, wo wir künftig noch größeren Fokus setzen müssen.“

Bestimmte Regionen unterrepräsentiert
Insgesamt stellten die Forschenden fest, dass sich die Dokumente aus Privatsektor und öffentlichen Institutionen zahlenmäßig die Waage hielten, sich also beide Bereiche mit einem verantwortungsvollen Umgang mit KI auseinandersetzen. Allerdings zeigte sich, dass bestimmte Weltregionen bisher offenbar kaum teilnehmen an der Debatte zur Ethik von KI.
Unterrepräsentiert sind demnach insbesondere Afrika, Süd- und Mittelamerika, sowie Zentralasien. Dies zeige ein globales Ungleichgewicht: Industriell weiter entwickelte Länder prägten die Diskussion, was dazu führen könnte, dass lokales Wissen, kultureller Pluralismus und globale Fairness in der Debatte zu kurz kämen. „Wenn wir den Anspruch haben, dass KI weltumgreifend wirken soll, sollte auch die ganze Welt mitreden“, sagte Jobin.

Teufel im Detail
Anstatt immer neue Richtlinien zu erstellen, sollte sich die Debatte vielleicht mehr um die Prozesse drehen, wie man zu ethischen Grundprinzipien für KI kommt und wie diese umgesetzt werden sollten, erklärte die Forscherin. „Was unsere Auswertung deutlich gezeigt hat, ist, dass der Teufel im Detail steckt.“ Eine einfache Antwort auf die Frage nach ethisch verantwortlichem Einsatz von KI gebe es nicht. „Aber Ethik ist eben ein Prozess, keine Checkliste.“

 krone.at
krone.at
Kommentare

Liebe Leserin, lieber Leser,

die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.

Mit freundlichen Grüßen
das krone.at-Team

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Produktvergleiche

Alle Produkte sehen