Mo, 20. August 2018

Microsoft-Projekt

09.08.2017 11:35

"KI-Prostituierte" macht online Jagd auf Freier

Microsoft hat einen neuen Chatbot entwickelt, der - als Prostituierte getarnt - in den USA gegen illegale Prostitution im Internet kämpft. Die künstliche Intelligenz soll potenzielle Freier in Gespräche verwickeln und Ermittlern so Beweismittel gegen Männer liefern, die illegalerweise online nach käuflichem Sex suchen. Bisher sind der "KI-Prostituierten" 1000 Freier ins Netz gegangen.

Entwickelt wurde der Chatroboter als neues Mittel im Kampf gegen Menschenhandel und illegale Prostitution im Internet, berichtet das Technikmagazin "Wired". Die Künstliche Intelligenz, die sich mit den Freiern unterhält, wurde vom gleichen Team entwickelt, das auch schon eine Software zur computergestützten Analyse von Kinderpornos programmiert hat. Der Chatroboter arbeitet für die Organisation Seattle Against Slavery, die es sich zum Ziel gesetzt hat, gegen Menschenhandel und Zwangsprostitution vorzugehen.

Um potenzielle Freier zu entlarven, wird der Bot über Online-Anzeigen beworben. Kontaktiert ein Freier den Bot, verwickelt dieser ihn in ein Gespräch und täuscht vor, es handle sich bei ihm um einen echten Menschen. Durch die Künstliche Intelligenz, die hinter dem Chatbot steht, soll sich der Chatroboter dabei an sein Gegenüber anpassen.

Bot konnte bereits 1000 Freier ködern
Der Plan geht der NGO auf. Bisher sind dem Bot bereits 1000 potenzielle Freier ins Netz gegangen, insgesamt wurden 14.000 Nachrichten ausgetauscht. Bei den Chats analysiert der Roboter die Nachrichten, bis er eindeutige Beweise dafür hat, dass sein Gegenüber illegalerweise nach käuflichem Sex fragt. Ist der Beweis aus Sicht des Bots erbracht, folgt eine Belehrung und die Weitergabe des Chat-Protokolls an die Behörden. Auf diese Weise will man menschliche Ermittler entlasten und ihnen helfen, sich auf ihre Kernaufgaben zu konzentrieren.

Chatroboter mit künstlicher Intelligenz gelten bei Microsoft als Zukunftstechnologie mit viel Potenzial, das Unternehmen forscht bereits seit geraumer Zeit auf diesem Gebiet. Bisweilen kommen dabei auch ungewöhnliche Situationen zustande - etwa beim Chatbot Tay, dessen künstliche Intelligenz Microsoft mithilfe von Twitter-Nachrichten trainieren wollte. Die Twitter-Gemeinde zweckentfremdete den Bot, fütterte ihn mit nationalsozialistischem und antisemitischem Gedankengut - und schuf so binnen kürzester Zeit den wohl ersten künstlichen Rassisten.

Dominik Erlinger
Dominik Erlinger

Das könnte Sie auch interessieren

Kommentar schreiben

Sie haben einen themenrelevanten Kommentar? Dann schreiben Sie hier Ihr Storyposting! Sie möchten mit anderen Usern Meinungen austauschen oder länger über ein Thema oder eine Story diskutieren? Dafür steht Ihnen jederzeit unser krone.at-Forum, eines der größten Internetforen Österreichs, zur Verfügung. Sowohl im Forum als auch bei Storypostings bitten wir Sie, unsere AGB und die Netiquette einzuhalten!
Diese Kommentarfunktion wird prä-moderiert. Eingehende Beiträge werden zunächst geprüft und anschließend veröffentlicht.

Kommentar schreiben
500 Zeichen frei
Kommentare
324

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Newsletter

Melden Sie sich hier mit Ihrer E-Mail-Adresse an, um täglich den "Krone"-Newsletter zu erhalten.