Wie Bots unser Leben beeinflussen

Nicht alle sind so nett wie Siri auf dem Smartphone. Bots manipulieren im Internet. Das kann Folgen haben.

Seine Freundin ist ein Bot und liebt ihn virtuell. Joaquin Phoenix als Theodore Twombly im Film «Her».

Seine Freundin ist ein Bot und liebt ihn virtuell. Joaquin Phoenix als Theodore Twombly im Film «Her». Bild: PD

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

So hilfsbereit kann Technik sein: Siri gibt sich am iPhone als geduldige Assistentin, und Google-Smartphones weisen von sich aus auf den nächsten Termin und Verkehrsstaus auf dem Heimweg hin. Amazons Assistentin Alexa bestellt auf Zuruf WC-Papier und spielt die passende Musik. Facebook-Chef Mark Zuckerberg will einen digitalen Assistenten auf die Menschheit loslassen. Er heisst «M» und wird in der Messenger-App sitzen. Dort wartet er darauf, den Facebook-Nutzern Geschenktipps zu geben, wenn der Geburtstag des Partners ansteht. Oder bei der Jobsuche zu helfen.

Willkommen in der Welt der Bots. Bei Facebook werden Unternehmen und Promis künftig sogar die Möglichkeit haben, eigene Bots zur Kommunikation mit Kunden und Fans aufzusetzen. Und so dem Kontakt einen persönlicheren Anstrich verleihen. Doch Bots sind nicht immer nur nett. Sie unterwandern soziale Medien. Sie bringen Diskurse zum Entgleisen. Und sie arbeiten für politische Strippenzieher. «Es ist definitiv so, dass wir heute mit Bots kommunizieren, ohne dass uns immer klar ist, dass wir es mit einer Maschine und nicht mit einem Menschen zu tun haben», sagt Simon Hegelich.

Er ist Professor für Political Data Sciences an der Technischen Universität München und forscht unter anderem auch dazu, wie man Bots als solche erkennt. Er hat festgestellt, dass auf Twitter um die 15'000 Bots unterwegs sind, die sich in den Ukrainekonflikt einmischen und für die Nationalisten Stimmung machen. Sie sind für manche Nutzer als automatisch reagierende Dialogmaschine erkennbar – für andere nicht.

Trumps mexikanische Fanbots

Die «Social Bots» bewegen sich auf Facebook und Twitter, und versuchen, möglichst viele Follower für sich zu gewinnen. Sie posten Witze und lustige Bilder, lassen sich übers Wetter aus und tun, was die anderen User auch tun. Und verbreiten nebenbei ihre Botschaft. Im US-Wahlkampf hat eine grössere Zahl von Bots behauptet, Donald Trump sei in Nevada bei den Latinos besonders beliebt.

Wie wirkungsvoll solche Kampagnen sind, sei schwierig zu beurteilen, sagt Hegelich. Auszuschliessen sei, dass jemand wegen eines rassistischen Kommentars zum Rassisten wird: «Eine Manipulation auf Zuruf findet nicht statt.» Doch wenn Bots zu bestimmten Hashtags wie Pegida oder Refugee besonders aggressive Kommentare posten, fühlen sich manche abgestossen und meiden die Diskussion. Andere Nutzer lassen sich vom gehässigen Tonfall anstecken. So oder so heizt sich die Stimmung auf.

Es gibt auch Bots, die die öffentliche Meinung nicht kippen, sondern subtil lenken wollen. «Nudging» nennt sich das, weil Entscheidungen «angestossen» werden. Datenwissenschaftler Simon Hegelich hat ein Beispiel, wie das ablaufen kann: Wenn ein politischer Kandidat ermitteln kann, wer Sympathien für ihn hegt, dann kann er sie am Wahltag erinnern, zur Urne zu gehen. Auch ohne explizite Wahlempfehlung kann über die Mobilisierung eine Beeinflussung des Resultats gelingen. Und zwar auf «eine Art und Weise, die ethisch relativ harmlos ist», wie Hegelich findet.

Die Stärke der Bots ist das, was Experten die «Skalierbarkeit» nennen. An einer Service-Hotline können die Bots Hunderte oder Tausende Anrufe gleichzeitig entgegennehmen und die wiederkehrenden Fragen autonom beantworten. Das «Time Magazine» machte schon Ende 2013 den Fall von «Samantha West» publik. Sie rief wegen einer Krankenkassenpolice an und beteuerte auf die Frage des Reporters, ob er es mit einem Computersystem zu tun habe, ein echter Mensch zu sein. Andererseits konnte sie jedoch die Frage nicht beantworten, welches Gemüse in einer Tomatensuppe zu finden sei. Der Betreiber des Callcenters seinerseits beteuerte, «Samantha West» werde von echten Menschen gesteuert. Sie nutzen jedoch die Computerstimme, weil sie im Ausland angesiedelt seien und wegen ihres Akzents von den Kunden womöglich nicht akzeptiert werden würden.

Vielleicht telefonieren wir schon mit Maschinen. Und wenn nicht, werden wir es sehr bald tun. Die Technik hat in den letzten Jahren grosse Fortschritte gemacht. Die grundlegenden Algorithmen wurden zwar schon in den 1970er-Jahren entwickelt. Die neuronalen Netze, die heute für Furore sorgen, sind in den 1990er-Jahren entstanden. Doch dank des Mobiltelefons lässt sich die Kommunikation heute auswerten: Dank den riesigen Datenmengen können die alten Verfahren heute statistisch greifen.

Wie man Bots enttarnt

Sind Bots intelligent? Da sie es schaffen, unerkannt soziale Netze unsicher zu machen, stellt sich auch die Frage, ob sie damit den Turing-Test bestehen – und damit als künstliche Intelligenz gelten dürfen. Der Turing-Test ist ein einfaches Verfahren, das der Vater der Informatik, Alan Turing, 1950 vorgeschlagen hat: Wenn ein Nutzer nicht merkt, dass er mit einer Maschine spricht, dann «denkt» die Maschine wie ein Mensch. Dieser Schluss sei heikel, sagt Simon Hegelich, der an der TU München Erkennungsverfahren für Bots entwickelt. Der Turing-Test geht davon aus, dass Tester ein System bewusst auf den Prüfstand stellen: «Wenn das gegeben ist, dann werden die Bots schnell enttarnt.» Mit unvermittelten Alltagsfragen wie «Was befindet sich rechts von dir?» bringt man Bots aus dem Konzept. Oder mit der Frage nach den Zutaten einer Tomatensuppe, auf die «Samantha West» keine Antwort wusste.

Bots sind keine echten künstlichen Intelligenzen. Sie sind zwar in der Lage, sich automatisch zu verbessern, beispielsweise im Kontakt mit Kunden einer Hotline zu analysieren, wann die Anrufer zufrieden sind, wann sie nachfragen oder einfach auflegen. Sie können aber nicht auf unbekannte Situationen eingehen und autonome Entscheidungen treffen. Das macht sie gefährlicher als eine echte künstliche Intelligenz. Eine solche müsste über moralische Richtlinien verfügen.

Microsofts Holocaust leugnender Bot

Ohne das Wissen über Gut und Böse lassen sich Bots leicht manipulieren. So ist es Microsoft kürzlich mit dem Twitter-Bot Tay passiert. Die Gesprächspartner haben den Bot dazu gebracht, Dinge wie «Ich rauche Hanf vor der Polizei» zu twittern oder den Holocaust zu leugnen.

Wegen dieser Beeinflussbarkeit erachtet Simon Hegelich eine Deklarationspflicht für Bots für sinnvoll. Damit jeder Nutzer entscheiden kann, ob er sich mit ihnen abgeben will oder nicht. (baz.ch/Newsnet)

Erstellt: 10.05.2016, 21:30 Uhr

Simon Hegelich

Professor für Political Data Sciences Simon Hegelich: Bots sind gefährlicher als wirkliche künstliche Intelligenzen, da sie kein ethisches Leitsystem haben.
Hegelich ist auf Twitter zu finden und führt ein Blog. (Bild: PD)

Artikel zum Thema

1:0 für die künstliche Intelligenz

Eine Software von Google ist in einer Partie des Brettspiels Go gegen den Champion Lee Sedol angetreten – und hat für eine Überraschung gesorgt. Mehr...

«Künstliche Intelligenz könnte das Ende der Menschheit bedeuten»

Video Stephen Hawking hat ein Leben lang von Hightech profitiert. Nun lässt er bei einem Auftritt in London aufhorchen. Mehr...

Kommentare

Blogs

Nachspielzeit Frauenfussball zieht nicht. So einfach ist das.

Die Welt in Bildern

Süsse Handarbeit: In der Schokoladenfabrik 'La muchacha de los chocolates' platziert ein Arbeiter eine Kirsche in eine mit Schokolade ausgekleidete Form. (21. Juli 2017)
(Bild: Andres Stapff) Mehr...