Google-Chef Sundar Pichai zeigte am Dienstag auf seiner Keynote zur Google-I/O-Konferenz dem staunenden Publikum wie leistungsfähig Googles künstliche Intelligenz ist. Obwohl Pichai vor der Audioaufzeichnung verraten hatte, wer Mensch und wer Maschine ist, war kaum zu erkennen, dass einer der beiden keine echte Person, kein Mensch ist. Das Projekt läuft bei Google unter dem Namen Duplex. Es ist eine Weiterentwicklung des digitalen Assistenten, der auf bestimmte Gesprächssituationen trainiert worden ist. Vorläufig kann das System deshalb nur für wenige Arten von Telefongesprächen genutzt werden: für Reservierungen in Restaurants oder Termine beim Friseur sowie für die Abfrage von Öffnungszeiten. Das wirft aber ethische Fragen auf. Etwa die, ob ein solches System sich dem Angerufenen gegenüber zu erkennen geben sollte. Der KI-Forscher Toby Walsh von der Universität von New South Wales in Sydney hat das bereits im Jahr 2016 vorgeschlagen: „Turing’s Red Flag law“ nannte er sein Konzept. „Was passiert, wenn die KI jemanden nachahmt, dem wir vertrauen?“, fragte er in seinem Aufsatz. Was, wenn wir eine soziale Bindung zu einer KI aufbauen oder uns gar in sie verlieben?“
Turing Red Flag law: „An autonomous system should be designed so that it is unlikely to be mistaken for anything besides an autonomous sysem, and should identify itself at the start of any interaction with an- other agent.“
Quelle:
Joaquin Phoenix: Her by Spike Jonze, 2013
spiegel.de, Matthias Kremp, 09.05.2018
googleblog.com, Yaniv Leviathan, 08.05.2018
Toby Walsh, Turing’s Red Flag, 2016