6.6 C
Flensburg
Freitag, März 29, 2024

Bots: Maschinen, die helfen und manipulieren

Sie informieren über Wetter und News, lösen den Anruf im Call-Center ab oder manipulieren Wahlen: Bots breiten sich aus. Ein Einblick in die Welt ihrer Entwickler und Jäger.

Alles beginnt mit einem «Hallo!». Max Koziolek tippt die Begrüßung in eine Maske in seiner Software – und lässt gleich weitere folgen. «Guten Tag!», «Hi!», «Grüß Gott!». Die Maschine wird dann eines der Worte auswählen. Koziolek programmiert einen Chatbot – eine Software, die sich im Netz mit Menschen unterhält. Er ist Chef des Berliner Start-ups Spectrm. Es hilft Medienunternehmen, ihre Inhalte in einfachen Dialogen rüberzubringen. Wie etwa: «Möchtest du mehr darüber erfahren?» Je nachdem, ob der Nutzer «Ja» oder «Nein» eintippt, wird der nächste Informationsschnipsel eingeblendet. Oder die Software wechselt zum nächsten Thema. Bots sind ein aktuelles Netz-Phänomen mit entsprechendem Hype. Schon jetzt kommen wir immer wieder mit ihnen in Kontakt, zum Beispiel wenn man Assistenten wie «Siri» oder «Alexa» nach dem Wetter fragt. Und in Zukunft werden wird man noch häufiger auf Bots treffen. Etwa wenn Dialog-Software in großem Stil im Kundendienst von Unternehmen die Call-Center ersetzt. Die Kehrseite des Trends ist die Angst vor Bot-Armeen, die Wahlen beeinflussen, indem sie die öffentliche Meinung manipulieren. Hinter den heutigen Bot-Konversationen steckt noch mehr Mensch als Maschine. Die Äußerungen der Software bewegen sich in einem engen Rahmen, der vom Programmierer vorgegeben wurde.

«Die Antworten, die ein Chatbot gibt, müssen auf irgendeine Weise von Menschen erstellt werden», sagt Koziolek. Chatbots, die selbst Inhalte formulieren und eine Unterhaltung führen können, seien zwar definitiv das Ziel. «Das wird früher oder später kommen.» Doch im Moment komme man nicht daran vorbei, auch selbstlernende Bots von Menschen beaufsichtigen zu lassen. Microsofts Debakel mit dem Spaß-Chatbot «Tay», dem böswillige Internet-Nutzer binnen Stunden rassistische Ansichten beibrachten, sei ein mahnendes Beispiel dafür, wie man es nicht machen sollte. Auch wenn heutige Chatbot-Kontakte simpel anmuten, der Aufwand dahinter ist groß. Immer wieder versuchten Nutzer, vom geplanten Dialogpfad abzuweichen – «auszubrechen», wie Koziolek es nennt. Was macht man dann? Eine Lösung ist, die Frage einfach zu wiederholen. Oder der Bot fischt eine freche Bemerkung aus seinem vorprogrammierten Satz-Fundus. «Das hängt davon ab, welche Persönlichkeit man dem Bot geben will.» Persönlichkeit? Soll ein Chatbot menschlich rüberkommen – oder einfach nur seine Aufgabe erfüllen? Hier scheiden sich die Geister. Koziolek ist dafür: «Wenn man den Bot menschlicher erscheinen lässt, funktionieren viele Sachen einfach besser», sagt er. Internet-Investor Phil Libin, der gerade in San Francisco ein Studio für Bot-Entwickler aufbaut, ist ganz anderer Meinung. «Wenn ich als Nutzer auf einen Chatbot treffe, will ich meistens nur ein Problem gelöst haben, sonst nichts. Dafür muss er nicht einen Menschen imitieren.»

Wer sich schon von der Idee her als Mensch ausgibt, sind die sogenannten Social Bots, die Online-Netzwerke wie Facebook und Twitter mit Einträgen fluten. Spätestens seit der auch stark durch Internet-Kampagnen entschiedenen US-Präsidentenwahl gelten sie als Schreckgespenst für die Demokratie. Amerikanische IT-Sicherheitsexperten vermuten hinter Tausenden Profilen, die etwa mit verzerrenden Kommentaren zu Medienberichten Stimmung machen, zwar weniger Automaten, sondern eine Legion günstiger Arbeitskräfte, die nach Vorgaben Botschaften in Smartphones tippen. Mit Dutzenden Geräten pro Person. «Einmal haben sie vergessen, das GPS von einem solcher Telefon abzuschalten. Es befand sich in Sankt Petersburg», sagt ein ranghoher US-Fachmann. Aber was oder wer auch immer dahintersteckt – in der deutschen Politik formiert sich ein Konsens, davon die Finger zu lassen. «Politische Parteien sollten im Wahlkampf und auch sonst komplett auf den Einsatz von Social Bots verzichten», sagt Bundesjustizminister Heiko Maas (SPD).

Die Gefahr der automatisierten Stimmungsmache bringt auch Bot-Jäger wie Christian Stöcker auf den Plan. Schon in seiner Zeit als Journalist beschäftigte er sich mit dem Thema. Heute ist er Professor an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg und informiert als Experte politische Entscheider in Berlin darüber, welche Auswirkungen Bots haben können. Und wie man sie aufspürt. Dazu läuft in Hamburg sowie anderen Orten der Welt ein Forschungsprojekt. Stöckers Kollegen entwickeln ein System, das Bots enttarnen kann. «Bots sind ein bewegliches Ziel», sagt der Bot-Jäger in Hamburg. Entwickler bauen immer ausgefeiltere Netze, um unentdeckt zu bleiben. Damit sind die Gejagten ihren Verfolgern meist einen Schritt voraus. Noch. Das wurmt den 44-Jährigen. Er gestikuliert, beschreibt eigene Erfahrungen mit Bot-Accounts. Vor allem auf Twitter, wo viele lauern. Am Tag der Brexit-Entscheidung – also der Abstimmung zum Austritt aus

der EU – schrieben ihn mehrere angebliche Nutzer aus Großbritannien mit immer der gleichen Frage an: «Wird Angela Merkel den Brexit akzeptieren?» Am Ende fand Stöcker heraus: Mehrere deutsche Journalisten wurden von rund 40 Accounts angetwittert – mit der gleichen Frage. Wohl in der Hoffnung, dass Meinungsführer den Satz retweeten oder in ihre Berichterstattung aufnehmen. Und so eine angebliche Sorge der britischen Bevölkerung transportieren. Gut gemachte Accounts für solche Aktionen werden, so berichten US-Experten, normal angelegt: mit Profilbild und ein paar Einträgen wie einem Cappuccino-Foto aus einem Lokal. Und dann eingemottet. Bis sie vor einem Großereignis wie einer Wahl in Massen aufwachen. Die Rolle der Bots lässt sich optisch zeigen: Auf Stöckers Bildschirm sind Hunderte blaue und rote Punkte zu sehen. Unterschiedlich groß. Manche mit grauen Linien miteinander verbunden. Das ist eine Grafik aus einer US-Studie zum Thema Social Bots. Die Wissenschaftler analysieren darin eine Twitter-Diskussion zwischen Impfbefürwortern und Impfgegnern. «Die roten Punkte sind mutmaßliche Bots. Die blauen sind die mutmaßlich menschlichen Teilnehmer dieser Debatte», erklärt Stöcker. «Je mehr Retweets ein Nutzer generiert, je relevanter er dadurch wird, desto größer ist der Punkt dargestellt.»

Wir sehen: Die roten Punkte – also die Social Bots – sind in der Mehrzahl und deutlich größer. Die Tweets dieser Bots sprechen sich klar gegen das Impfen aus. Es handle sich, so folgert die Studie, um ein Bot-Netzwerk, das von Impfgegnern in Stellung gebracht wurde. Diese eine Diskussion wird also mehrheitlich von Computern geführt. Sie verbreiten Argumente in ihrem Netzwerk und darüber hinaus in das weltweite Twitter-Universum. Meinungsmacher Maschine. Stöcker ist fasziniert. Die Diskussion über Social Bots mündet für ihn am Ende in eine grundsätzliche, moralische Frage: «Habe ich als Mensch das Recht zu wissen, ob ich mit einer Maschine kommuniziere oder nicht?» In nicht allzu ferner Zukunft müsse das die Gesellschaft für sich entscheiden. Am Ende vielleicht die Politik. Was also unterscheidet einen menschlichen von einem künstlichen Twitter-Nutzer? Kann ich Social Bots sogar selbst aufspüren? «Ja», sagt der Hamburger Experte. Wenn die automatisierten Systeme nicht allzu komplex sind, können einige Kriterien helfen, Bots zu erkennen: Ein Account hat kein Profilbild, dann kann er ein schlicht gemachter Bot sein: «Hier sollte man als Erstes skeptisch werden.» Die Twitter-Biografie ist nicht ausgefüllt oder macht sprachlich keinen Sinn: «In der Biografie eines Bots, der mich bei Twitter angeschrieben hatte, stand: «Ich bin ein junger Vater einer Familie und liebe den Kuchen.» Spätestens an dieser Stelle ist klar, dass das eine mit einer Übersetzungssoftware erstellte Biografie ist.» Das Profil folgt vielen anderen Accounts, hat aber kaum eigene Follower: «Ein typisches Bot-Merkmal.» Von dem Profil werden ungewöhnlich viele Tweets abgesetzt: «Ein Account, der pro Minute einen Tweet schreibt, 24 Stunden am Tag, kann eigentlich kein Mensch sein.»  Das Profil retweetet deutlich mehr, als eigene Tweets zu schreiben: «Denn das ist für einen Bot viel einfacher.» Auch wenn es für Twitter-Nutzer diese Anhaltspunkte für Bot-Accounts gibt, können echte Bot-Jäger wie Christian Stöcker damit allein noch nicht gut arbeiten. Denn bei der Menge an Daten sei es nicht möglich, nach und nach einzelne Profile zu überprüfen.

Die Hamburger Forscher tauschen sich mit anderen Experten aus, die weltweit auf der Bot-Jagd sind. Die Software «Bot or Not» und mehrere Internetseiten versuchen ebenfalls, falsche Twitter-Nutzer aufzuspüren. «Botwatch.de» analysiert zum Beispiel Tweets zu Polit-Talkshows auf mögliche Bots. Eines der Ergebnisse: Nach einer «Anne Will»-Sendung im Dezember 2016 kam fast jeder fünfte Tweet mit dem Hashtag «#annewill» mutmaßlich von einem Bot. Die Macher der Seite definieren diese beispielsweise als Accounts, die durchschnittlich 50 oder mehr Tweets am Tag und/oder 50 oder mehr Likes am Tag vorweisen. Die Likes mit dem Herz-Symbol haben bei Twitter das Favorisieren von Tweets abgelöst. Die Erkennungsmechanismen sind ein Anfang. Optimal sind sie aber noch nicht. Denn die «Betreiber von Bot-Armeen» (Stöcker) lassen sich im technischen Wettrüsten mit ihren Jägern immer etwas Neues einfallen. Von den sozialen Netzwerken selbst und ihren Verantwortlichen erwartet der Experte im Kampf gegen «böse» Bots nicht viel. Twitter führe zwar regelmäßig «Bot-Schlachtungen» durch, löscht diese also, sei daran aber nach seinem Eindruck in der Regel nicht interessiert: «Es geht natürlich auch darum, die Nutzerzahlen möglichst hochzuhalten.» Stöcker hofft, dass sich die Gesellschaft zumindest mit dem Phänomen Bots beschäftigt. Mit guten und schlechten. Mit Bots, die Dienste leisten, und solchen, die Meinungen manipulieren. (dpa)

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Datev kann Umsätze trotz Wirtschaftsflaute steigern

Der genossenschaftlich organisierte Nürnberger Datendienstleister Datev hat im vergangenen Jahr der Wirtschaftsflaute getrotzt und seine Umsätze deutlich ausgebaut.

CPN mit Jahreskongress

Das IT-Netzwerk CPN, das zur Byteclub-Gruppe gehört, startet Ende April seine traditionelle Jahresversammlung.

Also kündigt Dividendenerhöhung an – CEO-Nachfolge weiter offen

Also hat auf seiner Aktionärsversammlung die dreizehnte Dividendenerhöhung in Folge angekündigt. Der neue CEO wurde allerdings noch nicht bekannt gegeben.