Unsere Partner
Fake news, Social Bots, Cyber-Spionage: Was tun? Dienstag, 07 Februar 2017 08:49 Foto: Peter Pohl

Fake news, Social Bots, Cyber-Spionage: Was tun?

Raffinierte Analyseprogramme analysieren heute nicht nur Daten, sondern auch Texte und leiten so im Rahmen von »predicitve analytics« aus Beiträgen in Sozialen Medien automatisch Einstellungen, Sorgen und Meinungen von Menschen ab. Individuell und zielgruppengenau werden diesen Menschen Nachrichten präsentiert, die sie in ihren Sorgen bestätigen und scheinbar passende Lösungen darstellen – eine passgenaue, ganz gezielte Beeinflussung mitten ins Herz. Diese Nachrichten sind unter Umständen falsch, sie sind ungeprüft, sie stellen die Meinung von Einzelnen als großartiges Phänomen dar oder es sind neudeutsch einfach alternative Fakten – es sind Fake news. Und zudem können heute diese Nachrichten nicht mehr von Menschen geschrieben und verbreitet sein, sondern von Robotern, Social Bots, die sich als menschliche Nutzer tarnen, aber völlig autonom und automatisch, allein über entsprechende Programmierung mit künstlicher Intelligenz, reagieren.

Diese Szenarien wecken bei uns Sorge, denn es geht um nicht weniger, als um die zukünftige Machtverteilung. Es entstehen Ungleichgewichte zu Gunsten derjenigen, die diese Technologien beherrschen, die reine Menge an Nachrichten trägt mehr zu Intransparenz als zu guter Information bei: man sieht, allgemein und grob formuliert, die Demokratie in Gefahr. Und dagegen gilt es etwas zu unternehmen. Allein, bei genauerem Hinsehen stellt sich das, fast natürlich, als sehr viel schwieriger dar, als man es sehen möchte.

Wie immer gilt zunächst: Eine Technologie und auch Soziale Medien tragen nicht die Schuld am schlechten Benehmen ihrer Nutzer. Denn genau die genannten Technologien, predictive analytics, Big Data Analytics, künstliche Intelligenz von Bots und den ebenso begabten Software Agenten sind uns aus der Wirtschaft wohl bekannt. Hier tun sie dem Unternehmer Gutes: Sie analysieren Präferenzen von Kunden und Kundengruppen, können hieraus den Erfolg zukünftiger Produkte erkennen oder Zielgruppen genau ansprechen. Schon ganz einfache Agenten unterstützen Geschäftsbeziehungen, wie der Bieteragent von Ebay oder Bots, die auf erste Chat-Anfragen von Kunden im Internet auch einmal automatisch reagieren können, bevor der menschliche Verkäufer hierzu Zeit hat.

Abgesehen davon, dass sich technische Entwicklungen sowieso nicht aufhalten lassen, raten diese »guten« Einsatzmöglichkeiten von scharfen Gesetzen gegen ihren Einsatz eigentlich ab. Ich bin auch nicht sicher, ob ein zentrales staatliches »Wahrheitsministerium« die gute Lösung ist. Die Verantwortung wäre nicht richtig verteilt und der Grad zur Zensur wird schmal. Ebenso kritisch zu überdenken ist es, grundsätzlich und allein die Anbieter von Plattformen, auf welchen diese Bots agieren, in die Pflicht zu nehmen. Soll ein großer Player mit potenziell großem Einfluss auf die gesamte Gesellschaft über wahr und falsch entscheiden (dürfen)? Ist es überhaupt richtig, der Infrastruktur die Schuld für das menschliche Verhalten zu geben? Dem entspräche, wenn man es plakativ darstellen wollte, ein Messer oder einen Konzertsaal mit ihren Möglichkeiten und Mechanismen für ein Attentat in die Pflicht zu nehmen.

Es klingt einfach, ist aber dafür um so schwieriger: die Verantwortung für die Gestaltung von Kommunikation und Dialog über soziale Medien liegt bei jedem Einzelnen. Eine wichtige Rolle spielen Journalisten. Es ist gut, wie zunehmend Meinungen der nicht mehr sprachlosen Masse von Individuen aus sozialen Medien in Recherchen und Diskussionen einfließen. Die Verantwortung jedoch, digitale Meinungen und Meldungen in den Raum der Massenmedien zu tragen, ist groß. In eine weitere potenziell gute Richtung könnte es weisen, von Bots generierte Meldungen einer Kennzeichnungspflicht zu unterlegen. Der unter Umständen sogar wohlmeinende Propaganda-Manager kann sich damit weniger hinter der tatsächlich fast nicht kontrollierbaren Automatisierung verstecken und der Bürger ist aufmerksam gemacht. Denn, obwohl man es fast nicht glauben mag, auch Experten aus der neuen, so genannten Social Media Forensik, halten es für nicht immer möglich, Nachrichten von Bots von echten, menschlichen zu unterscheiden. Was kann der ganz normale Internetnutzer tun, davon abgesehen? Er/sie verfällt hoffentlich nicht in die typische Schockstarre und Verweigerungshaltung, die digitale Herausforderungen manchmal auslösen. Stattdessen kann er klar ablehnen, dass wir statt am Dialog nun an einer individuellen einseitigen Massenbeeinflussung arbeiten. Es sieht ja bereits so aus, als ob sich die Parteien hierauf verständigen können. Und wir können uns als Einzelne darauf verständigen, dass wir auch noch so schön in unser Wirklichkeitsbild passende Meldungen nicht unreflektiert weitergeben. Diese und viele andere Praktiken und Kompetenzen im Umgang mit der neuen Infrastruktur müssen von denjenigen, die sie kennen, verbreitet und insbesondere rasch, fundiert und offen für neue Entwicklungen, an Schulen, Universitäten und allen anderen Bildungsorten weitergegeben werden.

Sie können Susanne Robra-Bissantz auch eine E-Mail schreiben: s.robra-bissantz@tu-bs.de

Bild oben: »Was steht uns im kommenden Wahlkampf bevor?«, fragt Susanne Robra-Bissantz. Die Professorin der TU Braunschweig leitet das Institut für Wirtschaftsinformatik und den dortigen Lehrstuhl für ­Informationsmanagement.

geschrieben von  wo