Fake News und Social Bots

Die großflächige Beeinflussung der öffentlichen Meinung durch Desinformation: Hintergründe, Risiken – und wie Sie sich schützen können.

Die Meinungsmache automatisiert sich

Heute – in den Zeiten von Facebook, Twitter und Instagram – steht Möglichkeit der großflächigen Beeinflussung der öffentlichen Meinung theoretisch jedem zur Verfügung. Dies gilt umso mehr, weil hinter der Verbreitung falscher Nachrichten inzwischen nicht mehr unbedingt Menschen stehen müssen. Die Meinungsmache in den sozialen Medien wird heute auch von sogenannten Social Bots geführt – automatisierte Programme, die sich als Menschen ausgeben und versuchen, die dort geführten Debatten durch Likes, Tweets oder Retweets in die von ihren Urhebern gewünschte Richtung zu lenken.
Fake News und Social Bots stellen deshalb eine zunehmende Herausforderung für Regierungen, Organisationen und Unternehmen dar. Wie lassen sich Social Bots identifizieren? Sind Social Bots für politische oder wirtschaftliche Institutionen nur ein Abwehrthema oder können sie auch einen sinnvollen Zweck erfüllen?
 

Social Bots: Gefahr für die Demokratie? – Jetzt downloaden

Menschen arbeiten an Laptops und Smartphones

Was sind Social Bots?

Was sind Social Bots?

„Bot“ ist eine Kurzform von Roboter. Social Bots wiederum sind Computerprogramme, die in sozialen Medien in automatisierter Form Nachrichten oder Meinungen verbreiten. Dies geschieht beispielsweise durch Likes, Tweets oder Retweets bei Online-Diensten wie Twitter. Dabei wird der Eindruck erweckt, hinter den entsprechenden Social Media-Profilen stünden reale Menschen.

Undemokratischer Charakter
Tatsächlich sind Social Bots aber Maschinen, die von ihren Betreibern gezielt eingesetzt werden, um die öffentliche Meinung zu manipulieren – zuweilen auch mithilfe von Fake News. Ihr täuschender Charakter widerspricht den Gepflogenheiten des demokratischen Diskurses, denn Bots geben vor jemand zu sein, der sie nicht sind. Neben dieser kritischen Betrachtungsweise stellt sich jedoch die Frage, ob es in den kommenden Jahren nicht auch legitime Möglichkeiten geben könnte, Social Bots zu nutzen.

Unterschiedliche Qualität
Die Qualität der Meinungsroboter ist sehr unterschiedlich. Simpel programmierte Bots beschränken sich in erster Linie auf die Streuung bereits vorformulierter Mitteilungen. Andere kommunizieren mit echten Nutzern und sind in der Lage, eigenständig neue Nachrichten zu generieren. Social Bots haben sich in den vergangenen Jahren stark weiterentwickelt. Dadurch – und aufgrund ihrer schieren Masse – wird es immer schwieriger, die automatisierten von den realen Accounts zu unterscheiden.

Mehr erfahren

View more

Wie lassen sich Social Bots identifizieren?

Die meisten Bots lassen sich noch immer anhand einfacher Fragen identifizieren: Formuliert er wie ein Mensch? Macht er auch mal eine Pause? Warum hat sein Profil kein Foto? Geht es um einen einzigen Social Bot, der Fake News via Twitter oder Facebook verbreitet, dann sind Journalisten oder andere Profis meist in der Lage, den Täuschungsversuch zu enttarnen.

Zunehmend überzeugender
Jedoch verwischt die Grenze zwischen eindeutig menschlichen und eindeutig maschinellen Verhaltensweisen. Dank steigender Rechnerkapazitäten können Social Bots auf immer größere Datenbestände zugreifen. Durch den kombinierten Einsatz von Big-Data- und Artificial-Intelligence-Technologien sind Social Bots in der Lage, menschliche Verhaltensmuster immer überzeugender nachzuahmen.

Mehr erfahren

View more

Welche Risiken bergen Social Bots?

Zu den am besten dokumentierten Fällen von Social Bots gehört ihr großflächiger Einsatz während des Ukrainekonflikts im Jahr 2014. Zwei deutsche Wissenschaftler wiesen die Existenz eines mutmaßlich von ukrainischen Rechtsnationalisten gesteuerten Social-Bots-Netzwerks mit rund 15.000 aktiven Twitter-Accounts nach.

Tarnung durch Themenvielfalt
In den rund 60.000 versandten Tweets ging es nicht nur um Politik, sondern um viele andere populäre Themen. Diese intelligente Strategie macht es normalen Nutzern schwer, die tatsächlichen Motive der Urheber zu erkennen. Aus diesem Beispiel und ähnlichen dokumentierten Fällen – unter anderem während der Brexit-Kampagne – 
lassen sich zumindest drei potenzielle Gefahren ableiten, die Social Bots für die demokratische Debattenkultur bergen:

  • Social Bots sind in der Lage, gezielt Falschinformationen in Umlauf zu bringen, was vor allem in angespannten politischen Lagen potenziell dramatische Folgen haben kann.
  • Durch die enorme Menge verbreiteter Beiträge können Social Bots Trends in sozialen Netzwerken manipulieren und so die öffentliche Meinung in eine bestimmte Richtung lenken.
  • Mit ihren häufig radikalen Positionen tragen Social Bots dazu bei, dass sich (menschliche) User aus politischen Debatten zurückziehen. Somit erreichen Meinungsroboter eine Verrohung des öffentlichen Diskurses.

Nicht nur politische Motive
Die potenziellen Gefahren durch Meinungsroboter beschränken sich allerdings nicht auf die politische Sphäre. Eine Reihe theoretischer Szenarien beschäftigt schon heute die Spezialisten. Beispielsweise könnten gezielt Aktienkurse manipuliert werden. Bot-Kampagnen könnten Anleger in nicht-existente Kapitalanlagen treiben. Und durch Falschnachrichten könnten klassische Vertriebs- und Beratungsmodelle infiltriert werden. Doch trotz aller Risiken: Bergen Social Bots nicht auch Chancen?

Mehr erfahren

View more

Welche Chancen bieten Social Bots?

Social Bots sind in der Lage, durch die Verbreitung von Fake News gezielt „falsche Tatsachen“ in Umlauf zu bringen. Aber sind Social Bots deshalb als Instrument für Unternehmen und andere seriöse Institutionen diskreditiert? Die Frage ist nicht ganz leicht zu beantworten, denn technisch betrachtet handelt es sich bei Social Bots lediglich um eine Spielart der Chatbots.

Kommunizierende Roboter
Wenn man von Social Bots als Meinungsrobotern spricht, lassen sich Chatbots analog als Kommunikationsroboter bezeichnen. Letztere werden bereits von vielen Unternehmen verwendet – eine Entwicklung, die dadurch beschleunigt wurde, dass Facebook seine Messenger-App im vergangenen Jahr für die Chatbots von Fremdfirmen öffnete.

Vielfältige Einsatzmöglichkeiten
Die Einsatzfelder von Chatbots werden immer vielfältiger. Bei Taco Bell beispielsweise (einer US-Kette im Bereich Systemgastronomie) nimmt der Roboter inzwischen die Essensbestellung entgegen, kümmert sich um die Rechnung, gibt kulinarische Tipps und organisiert Gruppenbestellungen. Auch viele Buchungsportale setzen inzwischen auf Chatbots, ebenso wie Wetterdienste oder Anbieter für Gesundheitstipps.

Zukunft im Kundenservice?
Entsprechende Fortschritte bei künstlicher Intelligenz und maschinellem Lernen vorausgesetzt, könnten die Kommunikationsroboter in den kommenden Jahren zu virtuellen Assistenten mutieren, die menschlichen Servicemitarbeitern sowohl in der Kundenkommunikation als auch im Kundenservice immer mehr Aufgaben abnehmen.

Mehr erfahren

View more

Wie können Sie sich schützen?

Soziale Medien sind nicht nur ein Verbreitungskanal für Fake News, sondern auch ein potenzielles Einfallstor für Cyberangriffe. Netzwerke wie LinkedIn oder Xing erlauben es Außenstehenden dabei, die Organigramme ganzer Unternehmen nachzuvollziehen. Die Frage lautet: Wie können sich Regierungen, Parteien, Unternehmen und andere Organisationen gegen Angriffe zur Wehr setzen?

Begrenzte Möglichkeiten
Facebook wie auch Google haben bereits eine Reihe von Maßnahmen gegen Fake News ergriffen. Doch radikale Abwehrmaßnahmen sind kaum denkbar. Eine Art „Ausweispflicht“ beispielsweise würde darauf hinauslaufen, dass Nutzer bei der Eröffnung eines Facebook- oder Twitter-Accounts einen ähnlichen Identifizierungsprozess durchlaufen wie etwa bei einem Girokonto.

Recht und Unrecht
Wie sieht der richtige Umgang mit falschen Nachrichten aus? Wer entscheidet, was eine Fake News ist und was nicht? Welche Geschichte ist objektiv falsch – und welche lediglich politisch „gespinnt“? Auch wenn sich die Linie zwischen Recht und Unrecht trennscharf ziehen ließe, so bliebe das Problem der Durchsetzung: Wenn Urheber illegaler Handlungen im fernen Ausland sitzen, hat die nationalstaatliche Rechtsprechung keine Chance.

Aufklärung tut Not
Die potenzielle Gefahr, die von Fake News, Social Bots oder Cyberattacken in den sozialen Medien ausgeht, verlangt nach gesamtgesellschaftlichen Antworten. Im Mittelpunkt muss dabei die Aufklärung stehen. Das Problem muss nicht nur auf Makro-, sondern auch auf Mikroebene angegangen werden: Parteien, Unternehmen und sonstige Institutionen werden nicht umhinkommen, eigene Schutzmechanismen gegen die Risiken zu entwickeln.

Alle bisherigen Erfahrungen deuten darauf hin, dass die entsprechenden Maßnahmen von zusätzlichen Investitionen in die IT-Sicherheit über Vorkehrungen zur Krisenkommunikation bis hin zu einer stärkeren Sensibilisierung der Mitarbeiterschaft reichen müssen.

Mehr erfahren

View more

„Angesichts der Informationsflut im digitalen Zeitalter scheint das Bedürfnis nach Verlässlichkeit zuzunehmen. Mit diesem Pfund können Medienhäuser wuchern, indem sie Transparenz und Recherche in den Vordergrund stellen.“

Werner Ballhaus, Leiter des Bereichs Technologie, Medien und Telekommunikation bei PwC Deutschland

Bevölkerungsbefragung: Social Bots und Fake News

PwC hat im April/Mai 2017 eine repräsentative Bevölkerungsumfrage zum Thema „Social Bots und Fake News“ durchführen lassen. 1.000 Bundesbürger ab 18 Jahren nahmen daran teil. Lesen Sie hier die wichtigsten Ergebnisse unserer Umfrage und erfahren Sie, wie die Deutschen das Thema sehen.

Bedeutung von Social Media Kanälen

Ein Viertel der Deutschen informiert sich in Social Media Kanälen, primär Facebook. Darüber hinaus nutzen sie regelmäßig vor allem Kanäle von Zeitungen und Magazinen (60%), öffentlich-rechtlichen Fernsehsendern (48%) und Einzelpersonen, Prominenten, Meinungsbildern, YouTubern etc.

Mehr erfahren

Vertrauenswürdigkeit deutscher Medien

Deutsche Medien gelten im Vergleich zu internationalen Medien (Schweiz, Österreich, Niederlande, Frankreich, England, USA, Russland, Türkei) als die vertrauenswürdigsten (75%). In Ostdeutschland werden fast alle Medien etwas skeptischer betrachtet.

Mehr erfahren

Erkennen von Fake News und Social Bots

Knapp vier von zehn Deutschen haben Social Bots bereits wahrgenommen, vor allem wenn sie Informationen zu politischen Themen über Social Media beziehen. „Enttarnt“ wurden die Social Bots am ehesten wegen ihrer vielen vergebenen „Likes“ und wegen verdächtiger Profile.

Mehr erfahren

Contact us

Werner Ballhaus
Leiter Technologie, Medien, Telekommunikation, PwC Germany
Tel.: + 49 211 981 5848
E-Mail

Julia Wollschläger
PwC Communications, PwC Germany
Tel.: +49 211 981-5095
E-Mail