Microsoft-Projekt

“KI-Prostituierte” macht online Jagd auf Freier

Web
09.08.2017 11:35

Microsoft hat einen neuen Chatbot entwickelt, der - als Prostituierte getarnt - in den USA gegen illegale Prostitution im Internet kämpft. Die künstliche Intelligenz soll potenzielle Freier in Gespräche verwickeln und Ermittlern so Beweismittel gegen Männer liefern, die illegalerweise online nach käuflichem Sex suchen. Bisher sind der "KI-Prostituierten" 1000 Freier ins Netz gegangen.

Entwickelt wurde der Chatroboter als neues Mittel im Kampf gegen Menschenhandel und illegale Prostitution im Internet, berichtet das Technikmagazin "Wired". Die Künstliche Intelligenz, die sich mit den Freiern unterhält, wurde vom gleichen Team entwickelt, das auch schon eine Software zur computergestützten Analyse von Kinderpornos programmiert hat. Der Chatroboter arbeitet für die Organisation Seattle Against Slavery, die es sich zum Ziel gesetzt hat, gegen Menschenhandel und Zwangsprostitution vorzugehen.

Um potenzielle Freier zu entlarven, wird der Bot über Online-Anzeigen beworben. Kontaktiert ein Freier den Bot, verwickelt dieser ihn in ein Gespräch und täuscht vor, es handle sich bei ihm um einen echten Menschen. Durch die Künstliche Intelligenz, die hinter dem Chatbot steht, soll sich der Chatroboter dabei an sein Gegenüber anpassen.

Bot konnte bereits 1000 Freier ködern
Der Plan geht der NGO auf. Bisher sind dem Bot bereits 1000 potenzielle Freier ins Netz gegangen, insgesamt wurden 14.000 Nachrichten ausgetauscht. Bei den Chats analysiert der Roboter die Nachrichten, bis er eindeutige Beweise dafür hat, dass sein Gegenüber illegalerweise nach käuflichem Sex fragt. Ist der Beweis aus Sicht des Bots erbracht, folgt eine Belehrung und die Weitergabe des Chat-Protokolls an die Behörden. Auf diese Weise will man menschliche Ermittler entlasten und ihnen helfen, sich auf ihre Kernaufgaben zu konzentrieren.

Chatroboter mit künstlicher Intelligenz gelten bei Microsoft als Zukunftstechnologie mit viel Potenzial, das Unternehmen forscht bereits seit geraumer Zeit auf diesem Gebiet. Bisweilen kommen dabei auch ungewöhnliche Situationen zustande - etwa beim Chatbot Tay, dessen künstliche Intelligenz Microsoft mithilfe von Twitter-Nachrichten trainieren wollte. Die Twitter-Gemeinde zweckentfremdete den Bot, fütterte ihn mit nationalsozialistischem und antisemitischem Gedankengut - und schuf so binnen kürzester Zeit den wohl ersten künstlichen Rassisten.

Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele