Image Image Image Image

Facebook manipulierte die Meinung von Usern im Massen-Experiment

Facebook manipulierte die Meinung von Usern im Massen-Experiment

Insgesamt über 689.000 Nutzer waren Teil der Studie und wurden zufällig ausgewählt: Wissenschaftler bei Facebook, der University of California (genauer dem Center for Tobacco Control Research and Education) und der Cornell Universität (Fakultäten für Kommunikation und Informationswissenschaften) haben Facebook-User zu unwissenden Teilnehmern an einem psychologischen und soziologischen Experiment gemacht.

Die Frage: Kann ein emotionaler Ansteckungseffekt auf massiver Skala über soziale Netzwerke experimentell nachgewiesen werden? In der Praxis sah der Versuch dann so aus, dass den zufälligen Probanden im Newsfeed herum manipuliert wurde.

Statt den herkömmlich gefilterten "Neuigkeiten", die aus einem Mix der Postings von Freunden, abonnierten Seiten und Sponsorenbeiträgen (Werbung) bestehen, gab es spezielle Zusammensetzungen für angepeilte Effekte.

Das Experiment:
Mal wurde Gutes weggelassen, mal Schlechtes

In einem Versuch wurde der Anteil der positiven Beiträge (auf Basis der Wortinhalte und gängiger Gewichtung von Begriffen) reduziert. Der nichtsahnende User sah also eine etwas grauere Netzrealität mit mehr Negativität als Positivität in seinen Facebook-Besuchen. Das Resultat: Die eigenen Status-Updates und Beiträge des Nutzers waren stärker von Negativität geprägt. Ein negatives Umfeld erzeugt -wenig überraschend- eine negative Grundstimmung bei den meisten Individuen.

Andersherum ließen sich Probanden auch von gesteigerter Positivität anstecken: Wurde die Anzahl der negativ klingenden Beiträge reduziert, blieb mehr Raum für positive Inhalte. So fielen dann auch die eigenen Äußerungen der Probanden aus: In freundlicher, positiver Sprache.

Die hypnotische Wirkung sozialer Gruppen auf ihre Mitglieder: Ansteckungstheorie

Wer sich mit Literaturwissenschaft, Psychologie oder Soziologie auch nur im Vorbeigehen auseinandersetzte, wusste sowieso schon um diese Effekte. Vielleicht auch ohne sich irgendwelcher Fachliteratur auszusetzen, irgendwo ist uns der Einfluss der kollektiven Stimmung schon immer klar gewesen: Wir nennen die Ansteckungstheorie umgangssprachlich auch Herdentrieb, letzterer Begriff fällt immer häufiger. In der Soziologie ist der Franzose Gustave Le Bon hierzu eine interessante Quelle, insbesondere seine Psychologie der Massen.

Gerade auf Facebook ist die Suche nach Originalität in Meinungen oft vergeblich, in der Regel gibt es einen gedanklichen Grundstrom, der durch (im Kern strategisch sehr vorsichtig gewählte, wenn auch äußerlich anders auftretende) Folgeäußerungen unterstützt wird. Konformität.

Das beobachten wir beispielsweise auch im sozialen Netz in den Kommentaren unter unseren Artikeln, oder den Artikeln anderer Technologie-Websites. Beginnt der Diskurs mit einen oder zwei negativen Äußerungen, folgen meistens gleich mehrere Sympathisanten und der Raum für gegenteilige Meinungen reduziert sich auf wenige Gegenstimmen. Das ist ganz natürlich, denn:

Selten möchte jemand den Außenseiter mit seinen Gedanken verkörpern, dann findet oft keine  Teilnahme der still verbleibenden Gegenseite mehr statt. Oder aber die Diskussion teilt sich in zwei Fraktionen, die einander mit unveränderlichen Standpunkten gegenüberstehen und eher selten auf eine Einigung aus sind.

Gruppenmentalität (beispielsweise ganz klassisch: Android vs. iOS) ist eben ein Kernaspekt einiger sozialer Verhaltensmuster der großen Treffpunkte im öffentlichen Netz.

sheep

Was können wir aus der Studie von Facebook lernen?

Interessant als persönliches Takeaway für den alltäglichen Nutzer sozialer Medien (und gerade für die, die auch mal öfter ihren Senf öffentlich dazugeben, so wie wir) ist hierbei das Gewicht von einzelnen Ausdrücken.

Ein einzelnes, gut gewähltes Wort kann einen massiven manipulativen Einfluss auf Vertrauenspersonen haben, sowohl im bekräftigenden Sinne, als auch im provozierenden Sinne. Summiert sich gut (oder schlecht) gewählte Sprache in den brummenden sozialen Feeds der heutigen Zeit, wird ein sich verselbstständigendes Phänomen in Kraft getreten, das die eigenen Wirkungen verstärkt und antreibt.

Als Konsumenten von Massenmedien sind wir anfällig für Schlagworte und große Gesten, wie sie Le Bon nennt. Irrationales Verhalten ist oftmals die Folge unbewusster Entscheidungen und Denkprozesse, die von unserer emotionalen Welt angetrieben werden.

Umso wichtiger wird das Bewusstmachen von Ursachen und Wirkungen, gerade bevor man seine Worte in das soziale Netz schießt.

Was werde ich hiermit bewirken? Welche Konsequenzen hat mein Lob/Gemecker? Lasse ich mich gerade von einer geschickten Täuschung oder Strategie führen?  Vielleicht macht es auch Sinn, manchmal die Intentionen eines Autors gezielt anzusprechen, um auf diese aufmerksam zu machen.

Ich finde das Thema durchaus spannend und eng zusammenhängend mit Neuropsychologie, der Idee eines freien Willens (oder der Abwesenheit dessen) und als Einblick in die herrschenden sozialen Strukturen und ihre großen Dynamiken sehr relevant in einer Zeit der sozialen Umbruchs in Richtung Egozentrismus, Narzissmus aber gleichzeitiger globaler Verknüpfung und bisher nie dagewesenen Möglichkeiten durch neue Technologien. Durchaus eine wirre Zeit, in der wir hier leben, oder?

Wenig überraschend finde ich hingegen, wie überrascht nun unsere Medienkollegen zu dieser Studie posieren. War uns nicht allen schon jahrelang klar, dass für Facebook die Nutzer nur die lebendige Grundmasse sind, die es mittels Algorithmen zu knacken und monetarisieren gilt? Dass solche Studien an Big Data bei sozialen Netzwerken stattfinden, dürfte hoffentlich jedem kostenfreien Partizipanden dabei klar sein.

Etwas gruseliger sind dann aber doch die Implikationen für die Zukunft, wir stehen ja schließlich nur am Anfang. Wie werden soziale Netzwerke die öffentliche Meinung durch eingesetzte Filter (die es ja heute bereits gibt) steuern und beispielsweise den Ausgang einer politischen Wahl damit manipulieren können? Selbst wenn es um die Meinung der eigenen Nutzerschaft zu den angebotenen Diensten geht, können und werden Filter zur Kontrolle genutzt werden. Wie kann sich der Netzbürger dagegen wehren? Was meint ihr?

Hier der Link zum wissenschaftlichen Paper der Studie.

P.S.: Lasst Euch nicht vom Coverbild des Artikels manipulieren 😉


Übrigens: Wenn Du keine Neuigkeiten, Produkt-Tests oder Artikel von uns verpassen willst, dann folge uns am besten auf Facebook oder Twitter.



Hier kannst Du Deine Meinung loswerden:



← Menü öffnen weblogit.net | Home