03.02.2019 05:59 |

krone.at-Analyse

Künstliche Intelligenz: Werbeschmäh oder Gefahr?

Wer heute ein Smartphone, einen Fernsehapparat oder auch ein Sexspielzeug kauft, muss damit rechnen, dass der Hersteller das Produkt mit künstlicher Intelligenz (KI) bewirbt. In Smartphones, so die Versprechen, macht KI aus Amateur- Profifotografen. In TV-Geräten skaliert sie grobpixelige Sender bis auf superscharfe 8K-Auflösung hinauf und Sexspielzeug soll dank KI „menschlicher“ werden. Wie lang dauert es da noch, bis sich die Maschinen erheben, will man fragen. Doch es ist nicht alles Dystopie, was „denkt“.

Motivprogramme samt Motiverkennung gibt es in Digitalkameras seit Jahren. Wenn ein Handyhersteller seinen Oberklasse-Smartphones ein solches Feature spendiert, werkt im Hintergrund aber plötzlich Intelligenz, die ohne KI-Prozessor nicht möglich wäre. Upscaling in TV-Geräten gab es schon in den ersten HD-Receivern. Wenn ein IT-Gigant heute einen 8K-Fernseher auf den Markt bringt, handelt es sich beim Upscaling aber plötzlich um künstliche Intelligenz.

Man muss kein ausgewiesener Skeptiker sein, um bei solchen Versprechungen misstrauisch zu werden. Steckt da nun wirklich eine künstliche Intelligenz in den Alltagsgegenständen, die vor einem Jahr noch „dumm“ waren? Oder ist KI in der IT-Branche zum Verkaufsturbo geworden, den Marketingschaffende zurate ziehen, wenn ihnen die sichtbaren Innovationen ausgehen?

Es gibt verschiedene künstliche Intelligenzen
Die Sache ist, wie so oft, nicht ganz so einfach. Tatsächlich ist künstliche Intelligenz nämlich ein dehnbarer Begriff. Und je nachdem, wer ihn wie dehnt, kann man ihn durchaus auch schon bei geringeren technologischen Leistungen als Skynet wie im „Terminator“ heranziehen. Oder sogar, wenn gar keine entsprechende Hardware in einem Gerät verbaut ist und KI nur in irgendeiner Form in die Entwicklung der darauf laufenden Software involviert war.

Aber der Reihe nach. Versuchen wir uns an einer Definition Künstlicher Intelligenz. In einem Hintergrundartikel im Wirtschaftsmagazin „Forbes“ begibt sich Informatikprofessor Kristian Hammond zu diesem Zweck zurück in die Fünfziger, als der US-Informatiker John McCarthy unter dem Schlagwort Künstliche Intelligenz einen Sommer-Workshop veranstaltete, bei dem sich Forscher verschiedener Disziplinen mit der menschlichen Sprache, neuronalen Netzen und anderen komplexen Dingen befassten. Ihr Ziel: „Denkende Maschinen“ bauen, die irgendwo zwischen Kybernetik und hochkomplexer Informationsverarbeitung Probleme lösen wie der Mensch.

Künstliche Intelligenz ist eine Wissenschaft
Diese Definition der „denkenden Maschine“ prägte den KI-Begriff in den folgenden Jahrzehnten. Heute bezeichnet künstliche Intelligenz aber nicht zwangsläufig die denkende Maschine à la Skynet, sondern einen wachsenden Teilbereich der Informatik. Einen, der sich laut dem Merriam-Webster-Wörterbuch mit der „Simulation intelligenten Verhaltens in Computern und der Imitation intelligenter menschlicher Verhaltensmuster“ beschäftigt. Im Oxford-Wörterbuch wird das Feld als „Theorie und Entwicklung von Computersystemen, die Aufgaben erfüllen, die normalerweise menschliche Intelligenz erfordern würden“ klassifiziert. Dabei kann es sich um Bilderkennung, Übersetzung, Spracherkennung oder Entscheidungsfindung handeln.

Als er den Begriff definierte, war es McCarthy egal, ob der Computer bei der Lösung eines Problems wirklich dachte wie ein Mensch, oder ob er - auf welche Weise auch immer - lediglich vollbrachte, wofür es normalerweise einen Menschen brauchte. So oder so handelt es sich aus der McCarthy-Perspektive um künstliche Intelligenz. Später wurde der Begriff aber genauer differenziert, heute kennt man verschiedene Arten der künstlichen Intelligenz. Dabei wird zwischen starker und schwacher künstlicher Intelligenz unterschieden.

Zwischen starken und schwachen KIs
Starke künstliche Intelligenz wird als Begriff für Computersysteme verwendet, die tatsächlich ähnlich wie der Mensch denken und von selbigem nicht als Maschine identifizierbar sind. Der Mathematiker Alan Turing entwickelte bereits im Jahr 1950 einen Test zur Identifikation dieser starken künstlichen Intelligenz. Bemerken 100 Prozent der Probanden im Gespräch mit einem Computer nicht mehr, dass es sich um einen Computer handelt, kann man nach Turings Vorstellung von KI sprechen.

Kann der Computer sich nicht als Mensch tarnen, sondern nur - wie in der Definition McCarthys - Probleme lösen, für die es so etwas wie Intelligenz braucht, spricht man von schwacher KI. Im Zwischenbereich der beiden Einordnungen wird das menschliche Denken als Modell genutzt, am Ende muss aber keine wie ein Mensch denkende Maschine stehen, damit von KI die Rede sein kann.

Eine wirklich starke KI gibt es noch nicht
Ein Chatbot, der - womöglich gar in gesprochener Sprache - täuschend echt menschliches Verhalten imitiert wie im Science-Fiction-Film „Her“, in dem sich der Protagonist in seine KI-Assistentin verliebt, wäre nach dieser Definition eine starke KI. Systeme zur Mustererkennung und Bildmanipulation, die in heutigen Smartphones werken, würde man als schwache KI definieren. Es ist also durchaus legitim, einem Gerät heute künstliche Intelligenz zuzuschreiben. Allerdings handelt es sich um ihre einfachste Form, die wenig mit den kommunizierenden KIs zu tun hat, die wir aus der Science-Fiction kennen. Wer schon einmal mit einem Sprachassistenten geplaudert hat, weiß: Davon sind wir noch weit entfernt.

Trotzdem schreibt man auch schwacher künstlicher Intelligenz bereits eine starke Wirkung zu. Nicht nur in der Vermarktung von TV-Geräten und Handys, sondern im großen Stil in der Wirtschaft - etwa beim Online-Händler Amazon. Dort setzt man auf Maschinenlernen durch die statistische Auswertung immenser Datenmengen und definiert KI als „ein Feld der Computerwissenschaft, das kognitive Probleme behandelt, die eigentlich menschliche Intelligenz erfordern, etwa Lern- und Problemlösungsfähigkeiten und die Mustererkennung“. Bei Amazon erkennen also Computer auf Basis statistischer Methoden, wie sich das Geschäft entwickelt und wie etwa Sortiment und Logistik optimiert werden sollten.

Google steckt viel Geld in lernende Computer
Google forscht ebenfalls an KI, ist für seine Spracherkennungs- und Suchtechniken an lernenden Computern interessiert, die mit zunehmender Nutzung immer besser werden. Facebook investiert in die KI-Forschung, IBM mit seinem Supercomputer Watson ebenfalls. Der hat in den letzten Jahren seine Rechenkraft beispielsweise der Krebsforschung zur Verfügung gestellt. Die Analyse unzähliger Diagnosedaten und hohe Fallzahlen sollten ihn dazu ermächtigen, die optimale Therapie für Erkrankte zu identifizieren. Wie sich im Sommer 2018 herausstellte, war Watson aber nicht gut darin und empfahl oft falsche Therapien. Das KI-Experiment wurde eingestellt.

Wirtschaft erhofft sich Mega-Wachstum durch KI
Solche Rückschläge trüben die allgemeine KI-Aufbruchsstimmung allerdings kaum. Studien attestieren künstlicher Intelligenz größeres Potenzial als Wirtschaftsmotor als allen Technologien vor ihr. Bedenkt man die Auswirkungen, die etwa die Dampfmaschine oder die Entdeckung der Elektrizität auf die globale Wirtschaft hatten, ist das eine starke Ansage, die erklärt, wieso viele Staaten bereits im großen Stil in die KI-Forschung investieren.

China nutzt KI bereits zur Überwachung
Investitionen, die nicht ausschließlich aus wirtschaftlichen Gründen getätigt werden. So wird KI in China, wo man sich besonders intensiv mit der Zukunftstechnologie beschäftigt, bereits zur Überwachung der Bürger verwendet. Da werden von intelligenten Algorithmen Sozial-Ratings gebildet, die einem schon einmal den Zugang zu einem Kredit verwehren, oder Gesichter gescannt und mit Verbrecherdatenbanken abgeglichen, als wäre Orwells „1984“ schon Realität.

Stephan Hawking warnte zuletzt noch vor KI
Da verwundert es wenig, dass viele große Denker vor dem Missbrauch künstlicher Intelligenz warnen. Dass KI nicht nur für Wirtschaftswachstum, zur Foto-Optimierung oder als Hilfsarzt verwendet werden könnte, sondern auch gegen uns, hat etwa der 2018 verstorbene Physiker Stephen Hawking schon vor Jahren prognostiziert. „Sobald Maschinen in der Lage sind, sich selbst zu entwickeln, können wir nicht vorhersagen, ob ihre Zielen die gleichen wie unsere sind“, so der Physiker.

Dominik Erlinger
Dominik Erlinger
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Produktvergleiche

Alle Produkte sehen
Newsletter