Do, 24. Mai 2018

Microsoft-Projekt

09.08.2017 11:35

"KI-Prostituierte" macht online Jagd auf Freier

Microsoft hat einen neuen Chatbot entwickelt, der - als Prostituierte getarnt - in den USA gegen illegale Prostitution im Internet kämpft. Die künstliche Intelligenz soll potenzielle Freier in Gespräche verwickeln und Ermittlern so Beweismittel gegen Männer liefern, die illegalerweise online nach käuflichem Sex suchen. Bisher sind der "KI-Prostituierten" 1000 Freier ins Netz gegangen.

Entwickelt wurde der Chatroboter als neues Mittel im Kampf gegen Menschenhandel und illegale Prostitution im Internet, berichtet das Technikmagazin "Wired". Die Künstliche Intelligenz, die sich mit den Freiern unterhält, wurde vom gleichen Team entwickelt, das auch schon eine Software zur computergestützten Analyse von Kinderpornos programmiert hat. Der Chatroboter arbeitet für die Organisation Seattle Against Slavery, die es sich zum Ziel gesetzt hat, gegen Menschenhandel und Zwangsprostitution vorzugehen.

Um potenzielle Freier zu entlarven, wird der Bot über Online-Anzeigen beworben. Kontaktiert ein Freier den Bot, verwickelt dieser ihn in ein Gespräch und täuscht vor, es handle sich bei ihm um einen echten Menschen. Durch die Künstliche Intelligenz, die hinter dem Chatbot steht, soll sich der Chatroboter dabei an sein Gegenüber anpassen.

Bot konnte bereits 1000 Freier ködern
Der Plan geht der NGO auf. Bisher sind dem Bot bereits 1000 potenzielle Freier ins Netz gegangen, insgesamt wurden 14.000 Nachrichten ausgetauscht. Bei den Chats analysiert der Roboter die Nachrichten, bis er eindeutige Beweise dafür hat, dass sein Gegenüber illegalerweise nach käuflichem Sex fragt. Ist der Beweis aus Sicht des Bots erbracht, folgt eine Belehrung und die Weitergabe des Chat-Protokolls an die Behörden. Auf diese Weise will man menschliche Ermittler entlasten und ihnen helfen, sich auf ihre Kernaufgaben zu konzentrieren.

Chatroboter mit künstlicher Intelligenz gelten bei Microsoft als Zukunftstechnologie mit viel Potenzial, das Unternehmen forscht bereits seit geraumer Zeit auf diesem Gebiet. Bisweilen kommen dabei auch ungewöhnliche Situationen zustande - etwa beim Chatbot Tay, dessen künstliche Intelligenz Microsoft mithilfe von Twitter-Nachrichten trainieren wollte. Die Twitter-Gemeinde zweckentfremdete den Bot, fütterte ihn mit nationalsozialistischem und antisemitischem Gedankengut - und schuf so binnen kürzester Zeit den wohl ersten künstlichen Rassisten.

Dominik Erlinger
Dominik Erlinger

Das könnte Sie auch interessieren

Kommentar schreiben

Liebe Leserin, lieber Leser,

die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.

Mit freundlichen Grüßen
das krone.at-Team

Kommentare
324

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Aktuelle Schlagzeilen

Für den Newsletter anmelden