Menü

Bad Bot

Das ist ein Bot: Jürgen Pfeffer, Professor an der Hochschule für Politik München, zeigte ihn bei der Georg-von-Vollmar-Akademie. Oft wird er gefragt, wie denn ein Bot überhaupt aussieht. Deswegen bringt er jetzt immer einen mit. Import sys, codecs.json steht da. Ziemlich unspektakulär. Und Sachen, wie:

If ’text’ in data:
fp = codecs.open(filename, ’a’, ’utf-8’)
fp.write(json.dumps(data)+”\n”)
fp close()

Dieser Bot (der hier nur ausschnittweise abgebildet ist) sollte Daten bei Twitter sammeln. Es ist mitunter schwer, Bots oder automatisierte Nutzeraccounts von echten Konten bei Facebook oder Twitter zu unterscheiden. Es gibt keine offensichtlichen Eigenschaften, die anzeigen, dass sich hinter einer Nachricht – oder einem Post – evtl. eine Maschine verbirgt. Auch wenn der Bot von Jürgen Pfeffer kein besonders komplexer ist, wird er von den im Internet eingesetzten »Spürnasen«, die Bots identifizieren und gegebenenfalls blockieren sollten, nicht als solcher erkannt.

Bots gibt es praktisch schon so lange, wie es das Internet gibt. Die ersten Einsatzgebiete waren Massensendungen, mit denen Firmen möglichst viele Mailadressen ansteuern und gleichzeitig über ihre Produkte, Angebote etc. informieren wollten. Auch heute werden Bots häufig eingesetzt, um Spam zu produzieren, sie können käuflich erworben werden, mit ihrer Hilfe können Twitter- oder Facebook-Konten Followerzahlen manipulieren. Chat- und Social-Media-Bots seien die bekanntesten, erklärte Edward Roberts, Autor der Untersuchung The 2018 Bad Bot Report, doch es gäbe durchaus nützliche und gute Bots, wie etwa den Google Bot – ein Skript, das automatisch die Webseiten ausliest und für die Suche indexiert. Richtige Berühmtheit erlangten Bots aber erst im US-Präsidentschaftswahlkampf 2016. Sie werden als ein Faktor genannt, der die Wahl von Donald Trump ermöglichte.

Social-Media-Provider sind grundsätzlich nicht verpflichtet, aufgedeckte (oder vermutete) Bots zu löschen oder zu sperren. Solange sie keine Hassrede oder andere strafwürdige Inhalte verbreiten, fallen sie auch nicht unter die Löschpflichten gemäß Netzwerkdurchsetzungsgesetz (NetzDG). Twitter gab dennoch bekannt, wöchentlich circa zehn Millionen verdächtige Konten zu sperren oder zu entfernen, unter anderem wegen der Verletzungen der Anti-Spam-Richtlinien und anderer »Hausregeln«.

Was man mit Technik nicht schafft, soll nun ein Gesetz regeln. Im US-Bundesstaat Kalifornien, so berichtete die New York Times, wird an einem Gesetzentwurf gearbeitet, der die verpflichtende Kennzeichnung von Bots einführen soll. Senator Robert M. Hertzberg, der offenbar persönlich schlechte Erfahrungen mit Bots im Wahlkampf gemacht hat und aktuell eine Wiederwahl anstrebt, sei davon überzeugt, so NYT, dass »bot bill« eine große Auswirkung auf das gesamte Internet haben wird – schließlich hätten die meisten Tech-Konzerne ihren Sitz in Kalifornien.

Ob die Kennzeichnungspflicht für automatische Accounts falsch ist, wie Kritiker befürchten, oder richtig, wovon der Senator überzeugt ist, ob sie im Ergebnis das bewirkt, was erwartet wird, nämlich dass Menschen sich von den Bots abwenden oder sich durch von ihnen verbreitete Fake News nicht beirren lassen und stattdessen den echten, menschlichen Nutzerkonten folgen und ihr Vertrauen schenken werden, diese Überlegungen basieren eventuell auf der falschen Annahme, dass Bots nur dann effektiv seien, wenn sie überzeugend menschlich sind.

Ganz so verhält es sich leider nicht. Roboter gelten als effektiv, unbestechlich, objektiv und nicht korrumpierbar: nicht imstande, Menschen Schaden zuzufügen, unfähig der Tyrannei, der Korruption, der Dummheit und des Vorurteils. »Maschinen haben uns ohne Zweifel schon jetzt auf vielen Gebieten überholt«, schrieb der polnische Futurologe Stanisław Lem und gab als Beispiel die medizinische Diagnostik an, in der »Maschinen keine schlechteren medizinischen Gutachten erstellen als gute Ärzte«, was der IBM-Großrechner Watson seit einigen Jahren effektiv unter Beweis stellt. Anders als Menschen müssen sich Roboter und Maschinen an die moralischen Grundsätze halten, die man ihnen einprogrammiert hat (d. h., wenn man ihnen keine Vorgaben gemacht hat, halten sie sich auch an keine).

Für den französischen Technologie-Philosophen Gilbert Simondon war das steigende Vertrauen in die Maschinen und dass man Alter Techno dem Alter Ego mehr und mehr vorziehen werde, eine logische Konsequenz des Fortschritts. Dass Menschen lieber die Entscheidung über die Aufteilung von gemeinsamem Geld einem neutralen Computer als einem Geschäftspartner überlassen, bestätigten in einem Experiment drei Wissenschaftler aus Deutschland und den USA. Mit der Strategie, die Entscheidung einem neutralen Computer zu überlassen, würden Menschen offenbar unbewusst negative Emotionen vermeiden, die mit einem potenziellen Vertrauensbruch verbunden sind, stellten die Forscher fest. Die Kennzeichnung von Bots als Bots könnte daher genau die gegenteilige Wirkung haben, als beabsichtigt. Nämlich, wenn Wähler/innen Meldungen einer neutralen Maschine eher als »wahr« qualifizieren, als die eines menschlichen (und daher fehlbaren) Politikers.

Während in den USA Wahlen als kritische Infrastrukturen betrachtet werden und Kalifornien eine Kennzeichnungspflicht für Bots einführen möchte, wird auch in Europa und Deutschland den Falschnachrichten und der Desinformation in politischen Kampagnen der Kampf angesagt. Aber mit anderen Schwerpunkten. Es wird gegen »hybride Bedrohungen« aufgerüstet. Was sich hinter diesem neuen Begriff verbirgt, erklärte die Bundesregierung anlässlich der Gründung des informellen Staatenbündnisses gegen »Destabilisierungsversuche aus Ländern wie Russland« auf dem G7-Gipfel in Kanada. Die Regierung in Russland wird von westlichen Geheimdiensten beschuldigt, in Wahlkämpfe eingegriffen zu haben oder »gezielt Fehlinformationen zu streuen, um die öffentliche Meinung zu beeinflussen». Mit Instrumenten wie dem »Rapid Response Mechanism« möchten die G7-Staaten ein Abwehrsystem gegen Fake News schaffen und gegen »Wahlmanipulationen, Propagandaattacken und andere inakzeptable Handlungen« vorgehen.

Die Integrität der politischen Information und Kommunikation ist untrennbar mit der Integrität der Informationssysteme verknüpft. Damit sind nicht nur die Sicherheit und Integrität der Wahlautomaten und der Wahlsoftware gemeint. Angesicht der Attacken auf die internen Systeme des Bundestages und der Bundesregierung, bei denen Daten in einem noch unbekannten Umfang entwendet wurden, die offenbar nie wieder aufgetaucht sind, hat das Bundesamt für Sicherheit in der Informationstechnik (BSI), obwohl für die Netz(un)sicherheit des Bundestages nicht verantwortlich, die Bundestagswahl in den Fokus der Lagebeobachtung genommen und im Rahmen seiner Beratungstätigkeiten zur IT-Sicherheit Parteien und parteinahe Stiftungen über die Möglichkeit von Cyberangriffen informiert sowie Maßnahmen zum digitalen Persönlichkeitsschutz (z. B. Schutz privater E-Mail-Postfächer, Verifizierung von Twitter- und Facebook-Accounts, Absicherung der Aktivitäten von wichtigen Persönlichkeiten im digitalen Raum) ergriffen. Das Angebot, heißt es im BSI-Lagebericht 2017, wurde sehr gut angenommen.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben