Einsteiger30 Min.

Psychologie der sozialen Medien: Algorithmen, Filterblasen und digitales Wohlbefinden

🎯 Lernziele

  • Erklären, wie Empfehlungsalgorithmen sozialer Medien funktionieren und welche psychologischen Effekte sie haben
  • Den Unterschied zwischen Filterblase und Echo-Kammer mit eigenen Worten beschreiben
  • Social Comparison Theory auf Social-Media-Nutzung anwenden
  • Parasoziale Beziehungen zu Influencern erkennen und kritisch einordnen
  • Cybermobbing-Situationen erkennen und angemessene Handlungsschritte nennen
  • Doom-Scrolling als Phänomen erklären und Gegenstrategien entwickeln
0/4 Abschnitte0%
1

Algorithmen und wie sie unsere Wahrnehmung prägen

Instagram, TikTok, YouTube, Facebook, X (ehemals Twitter) – jede Plattform entscheidet in Millisekunden, welche Inhalte du siehst und welche nicht. Diese Entscheidungen treffen nicht Menschen, sondern Algorithmen: hochkomplexe mathematische Systeme, die auf Basis deines bisherigen Verhaltens vorhersagen, was dich als nächstes beschäftigen wird.

Das Ziel dieser Algorithmen ist nicht Vollständigkeit oder Ausgewogenheit. Es ist Engagement: Wie lange bleibst du auf der Plattform? Was likedst, kommentierst oder teilst du? Was schaust du bis zum Ende? Jede deiner Interaktionen trainiert den Algorithmus, dir ähnliches anzuzeigen. Plattformunternehmen maximieren ihre Werbeeinnahmen durch maximale Aufmerksamkeit – nicht durch maximale Information.

Wie das konkret funktioniert: Du schaust ein Video über veganes Kochen bis zum Ende. Der Algorithmus registriert: 'Diese Person mag Veganes-Kochen-Content.' Er zeigt dir ähnliche Videos. Du interagierst auch damit. Bald siehst du hauptsächlich vegane Rezepte, vegane Ethik-Diskussionen, veganen Aktivismus – und immer weniger Anderes. Dieser Prozess ist nicht neutral: Wenn du ein Video über politische Verschwörungstheorien ansiehst und nicht sofort wegklickst, wird der Algorithmus dir ähnliche Inhalte zeigen – und schrittweise radikalere, weil radikalere Inhalte mehr Emotion und damit mehr Engagement erzeugen.

**Der emotionale Bias der Algorithmen**: Forschung von Facebook (intern 'Project Amplify' und extern publiziert) zeigt, dass emotionale – insbesondere empörungsauslösende – Inhalte systematisch mehr Engagement erzeugen. Der Facebook-Algorithmus bevorzugt solche Inhalte. In einem internen Dokument (veröffentlicht durch Whistleblowerin Frances Haugen, 2021) räumte Facebook ein, dass ihr Algorithmus 'Hass, Fehlinformationen und politische Unruhe' verstärkt, weil diese Inhalte Engagement erzeugen.

**Was Algorithmen über dich wissen**: Nicht nur, welche Posts du likest – sondern auch, wie lange du bei welchem Post verweilst, welche Videos du abbrichst, wann du öffnest, wo du bist (Standortdaten), mit wem du chattest und welche externen Websites du besuchst (über Tracking-Pixel). Aus diesen Daten entsteht ein psychografisches Profil, das präziser sein kann als deine eigene Selbstwahrnehmung.

**Auswirkungen auf die Informationsdiät**: Wenn Algorithmen entscheiden, was wir sehen, verändert sich unsere Wahrnehmung der Realität. Wer primär über Social Media informiert wird, bekommt kein Bild der Wirklichkeit – sondern ein algorithmisch gefärbtes Bild, optimiert für Engagement, nicht für Verstehen.

**Aktuelle Regulierung: EU findet TikToks Design suchtfördend (Februar 2026)**: Die EU-Kommission befand im Februar 2026 vorläufig, dass TikToks 'süchtig machendes Design' gegen den Digital Services Act (DSA) verstößt. Konkret: Infinite Scroll, Autoplay, hochpersonalisiertes Recommender-System und Push-Benachrichtigungen. TikTok muss sein Grunddesign ändern: Infinite Scroll deaktivierbar machen, effektive Bildschirmzeit-Pausen implementieren (auch nachts), das Recommender-System für Minderjährige anpassen. Dies ist ein Meilenstein: Zum ersten Mal stuft eine Behörde das zentrale Design-Prinzip einer Plattform als gesetzwidrig ein.

**Plattformlandschaft 2025/2026**: Neben den etablierten Plattformen (Instagram, TikTok, YouTube, Facebook) hat sich Bluesky als ernstzunehmende Alternative zu X/Twitter etabliert: 26 Mio Nutzer Januar 2025, über 40 Mio Anfang 2026 (Verdreifachung in 13 Monaten). Deutschland gehört zu den Top-5-Ländern auf Bluesky. Journalisten und Politiker migrieren verstärkt zu Bluesky. Mastodon (dezentrales Netzwerk) bleibt kleiner (unter 690.000 aktive Nutzer Ende 2025), aber für datenschutzbewusste Nutzer attraktiv.

💡 Algorithmen sind keine neutralen Kuratoren – sie sind Engagement-Maschinen, die dein Bild der Welt systematisch verzerren.

🤔 Führe ein kleines Experiment durch: Öffne dein bevorzugtes soziales Netzwerk und schau dir die ersten 20 angezeigten Inhalte an. Welche politischen, sozialen oder kulturellen Perspektiven fehlen vollständig?

2

Filterblasen, Echo-Kammern und Gruppendenken

Der Begriff '' wurde 2011 vom Aktivisten und Technikautor Eli Pariser geprägt. In seinem Buch 'The Filter Bubble: What the Internet Is Hiding From You' beschrieb er, wie Personalisierungsalgorithmen eine 'Blase' erzeugen, in der wir primär Informationen sehen, die unseren bestehenden Überzeugungen entsprechen. Abweichendes wird weggefiltert – nicht durch unsere eigene Entscheidung, sondern durch maschinelle Automatismen.

** vs. – ein wichtiger Unterschied**: Beide Konzepte beschreiben, wie Menschen zunehmend isolierte Informationsräume bewohnen, aber aus unterschiedlichen Gründen. Eine ist algorithmisch bedingt: Das System entscheidet. Eine ist sozial bedingt: Wir selbst entscheiden, wem wir folgen, mit wem wir befreundet sind, welche Gruppen wir beitreten. In der Praxis verstärken sich beide Mechanismen gegenseitig.

**Ist die überschätzt?** Der aktuelle Forschungsstand ist differenzierter als die populäre Debatte. Studien wie die von Axel Bruns ('Are Filter Bubbles Real?', 2019) zeigen, dass n existieren, aber in ihrer Wirkung oft überschätzt werden. Die meisten Menschen konsumieren weiterhin diverse Nachrichtenquellen. Trotzdem: Der algorithmische Bias für emotional aufwühlende Inhalte ist empirisch belegt und hat reale Auswirkungen auf politische Polarisierung.

**Gruppendenken (Groupthink) in Online-Gemeinschaften**: Der Psychologe Irving Janis beschrieb 1972 das Phänomen des Gruppendenkens: In eng zusammengeschlossenen Gruppen nimmt der Druck zur Konformität zu, kritische Stimmen werden ausgeblendet, und die Gruppe überschätzt ihre eigene Urteilsfähigkeit. Online-Communitys – besonders in geschlossenen Gruppen auf Facebook, Discord oder Telegram – verstärken diesen Effekt durch räumliche Nähe digitaler Bubbles.

**Polarisierung als Folge**: Wenn Menschen in n leben, nehmen sie die Ansichten der anderen Seite nicht als legitime politische Position wahr, sondern als Unsinn, Böswilligkeit oder Dummheit. Das Pew Research Center (2021) zeigt, dass politische Polarisierung in vielen westlichen Demokratien zunimmt – und dass soziale Medien dabei eine (wenn auch nicht alleinige) Rolle spielen.

**Strategien zur Diversifizierung des Medienrepertoires**: Folge bewusst Accounts, die andere Perspektiven vertreten (auch wenn du nicht zustimmst). Nutze aggregierende Nachrichtenquellen wie AllSides.com, die dasselbe Thema aus verschiedenen politischen Perspektiven zeigen. Abonniere einen Newsletter oder eine Zeitung, die du nicht algorithmisch findest. Frage dich bei jeder neuen Information: Bin ich dieser Meinung, weil ich sie geprüft habe – oder weil meine Timeline sie mir täglich bestätigt?

💡 Filterblasen und Echo-Kammern sind real – aber sie sind keine Naturgewalten. Wir können aktiv gegensteuern.

3

Social Comparison Theory und Influencer-Psychologie

Der Sozialpsychologe Leon Festinger stellte 1954 eine simple, aber folgenreiche These auf: Menschen bewerten sich selbst durch den Vergleich mit anderen. Wenn objektive Maßstäbe fehlen – wie ist man 'gut genug' als Elternteil, attraktiv genug, erfolgreich genug? – suchen wir soziale Vergleichspunkte.

**Aufwärtsvergleich vs. Abwärtsvergleich**: Wir vergleichen uns mit Menschen, die uns ähnlich sind (lateraler Vergleich), mit denen, die 'besser' sind (Aufwärtsvergleich) oder 'schlechter' (Abwärtsvergleich). Aufwärtsvergleiche können motivieren – oder deprimieren, je nach Kontext und Attributionsweise. In sozialen Medien dominieren Aufwärtsvergleiche strukturell: Die gezeigten Leben sind gefiltert, optimiert, inszeniert. Niemand postet sein schlechtestes Foto, seinen schlechtesten Tag.

**Social Media und Selbstwertgefühl – was sagt die Forschung?** Jean Twenge und Jonathan Haidt analysierten 2017 Daten von über 500.000 US-amerikanischen Teenagern und zeigten einen Zusammenhang zwischen erhöhter Smartphone- und Social-Media-Nutzung und sinkenden Wohlbefindenswerten, insbesondere bei Mädchen. Der Kausalzusammenhang ist wissenschaftlich umstritten, aber die Korrelation ist robust. Eine Meta-Analyse von Verduyn et al. (2015) zeigt: Passive Social-Media-Nutzung (scrollen ohne zu posten) ist stärker mit negativem Wohlbefinden korreliert als aktive Nutzung.

**Beauty Filter und digitale Körperbilder**: Filter auf Instagram und TikTok ermöglichen es, das eigene Gesicht in Echtzeit zu verändern – dünnere Nase, größere Augen, makellose Haut. Der Dermatologe Neelam Vashi beschrieb 2018 das Phänomen 'Snapchat Dysmorphia': Patientinnen und Patienten kamen in die Praxis und wollten aussehen wie ihr gefiltertes Selfie – ein medizinisch nicht erreichbares Ideal. Die British Association of Plastic Surgeons warnte vor diesem Trend.

**Influencer-Psychologie: en**. Die Soziologen Donald Horton und Richard Wohl prägten 1956 den Begriff '' für einseitige, emotionale Bindungen an Medienpersönlichkeiten. Was damals für Fernseh-Stars galt, ist heute für YouTuberinnen und TikTok-Stars akuter als je zuvor. Wer täglich 30 Minuten den Alltag, die Meinungen und die Emotionen einer Person mitverfolgt, entwickelt das Gefühl, sie zu kennen – und ihr zu vertrauen. Das macht Influencer zu äußerst effektiven Werbeträgern: Empfehlungen wirken wie Freundschaftsempfehlungen.

**Die Kennzeichnungspflicht in Deutschland**: Da parasoziale Vertrauensbeziehungen kommerzielle Empfehlungen glaubwürdiger machen als klassische Werbung, ist die korrekte Kennzeichnung bezahlter Kooperationen rechtlich vorgeschrieben. Influencer müssen Beiträge als Werbung kennzeichnen, wenn: (1) sie eine Gegenleistung erhalten haben (Geld, Produkte, Reisen), (2) ein fremder Name/Marke prominent vorkommt. Die Kennzeichnung erfolgt über 'Werbung', 'Anzeige', '#ad' oder 'gesponsert'. Nicht ausreichend: 'gifted', 'collaboration' oder bloßes Taggen der Marke. Urteile des BGH (Hutchinson 3G, 2021) und des OLG Frankfurt haben diese Regeln konkretisiert.

**Parasoziale Parasiten: Dark Parasocial Relationships**. en können problematisch werden, wenn Fans übermäßig emotional abhängig werden, Grenzen nicht wahrnehmen (Stalking, aggressive Verteidigung des Influencers) oder ihre Selbstwahrnehmung primär über die definieren. Das Phänomen tritt häufiger bei jüngeren Nutzerinnen und Nutzern auf.

💡 Social-Media-Feeds zeigen keine Realität – sie zeigen eine kuratierte, gefilterte, auf Engagement optimierte Inszenierung. Gesunder Medienkonsum erfordert das Bewusstsein dieses Filters.

4

Cybermobbing und Doom-Scrolling: Dunkle Seiten der digitalen Welt

**: Definition und Formen**. Die Deutsche Gesellschaft für Psychiatrie und Psychotherapie (DGPPN) definiert als wiederholte, absichtliche Schädigung über digitale Kommunikationsmittel, bei der ein Machtgefälle zwischen Täter und Opfer besteht. Wichtige Formen:

- *Harassment*: Wiederholte beleidigende, bedrohliche Nachrichten

- *Cyberstalking*: Dauerhafte Überwachung und Verfolgung online

- *Outing*: Veröffentlichung privater oder intimer Informationen ohne Zustimmung

- *Doxing*: Veröffentlichung von Privatdaten (Adresse, Arbeitsstelle, Familienangehörige) mit Ziel der Einschüchterung

- *Impersonation (Identitätsdiebstahl)*: Erstellen gefälschter Profile im Namen des Opfers

- *Flaming*: Öffentliche Attacken in Foren oder Kommentarspalten

- *Exclusion (digitale Ausgrenzung)*: Bewusstes Ausschließen aus Online-Gruppen

**Zahlen zur Verbreitung**: Die JIM-Studie 2025 (Jugend, Information, Medien) des Medienpädagogischen Forschungsverbunds Südwest wurde November 2025 veröffentlicht (N=1.200 Jugendliche, 12-19 Jahre, Juni-Juli 2025). Kerndaten: 95% der Jugendlichen besitzen ein eigenes Smartphone. Durchschnittliche Bildschirmzeit: 231 Minuten (~4 Stunden) täglich. 91% nutzen mindestens eine KI-Anwendung, 74% davon für Hausaufgaben. 25% suchen bei TikTok oder Instagram nach Antworten auf relevante Fragen. Zu : Vorgängerdaten aus JIM 2024 zeigen 17% Opfer unter 12-19-Jährigen – JIM 2025-Wert in Veröffentlichung zu prüfen. EU Kids Online-Studie 2023 zeigt ähnliche Werte für Europa. Besonders betroffen: Mädchen (häufiger Opfer), Jugendliche mit Migrationshintergrund und LGBTQ+-Jugendliche.

**Psychologische Folgen**: Forschung belegt schwerwiegende Auswirkungen: erhöhte Depressionsraten, Angstsymptome, sozialer Rückzug, Schulleistungsabfall, in schweren Fällen Suizidgedanken. Die Allgegenwärtigkeit des Internets bedeutet, dass Opfer nicht mehr in einen 'sicheren Raum' (nach Hause) flüchten können – verfolgt sie überall hin.

**Rechtslage in Deutschland**: ist kein eigenständiger Straftatbestand, aber es greift eine Vielzahl von Strafnormen: §185 StGB (Beleidigung), §186 StGB (üble Nachrede), §187 StGB (Verleumdung), §238 StGB (Stalking, auch im digitalen Raum), §184 StGB (Verbreitung pornografischer Inhalte, relevant bei 'Sexting'-Mobbing). Das NetzDG verpflichtet Plattformen, eindeutig illegale Inhalte innerhalb von 24 Stunden zu entfernen.

**Was tun wenn du betroffen bist?**: (1) Nicht löschen, sondern sichern: Screenshots mit Zeitstempel, vollständige Profile-URLs. (2) Melden: Alle Plattformen haben Meldewege – nutze sie. (3) Blockieren: Täter von weiterer Kommunikation ausschließen. (4) Vertrauensperson einschalten: Eltern, Lehrkraft, Schulberatung, Freundinnen und Freunde. (5) Hilfe suchen: Nummer gegen Kummer (0800 111 0 333, kostenlos, anonym), klicksafe-Hotline, local.de/. (6) Anzeige erstatten: Bei schwereren Fällen (Bedrohung, Stalking) Anzeige bei der Polizei.

**Was tun wenn du Zeuge bist?**: Ignorieren ist keine neutrale Handlung – es signalisiert dem Täter Toleranz und dem Opfer Gleichgültigkeit. Aktive Unterstützung: Dem Opfer privat Solidarität zeigen, Inhalte melden, wenn möglich öffentlich Stellung beziehen, Lehrkräfte oder Eltern informieren.

**: Wenn Schlechtes süchtig macht**. '' beschreibt das Phänomen, zwanghaft durch negative Nachrichten und erschreckende Inhalte zu scrollen, obwohl diese Stress und Angst verursachen. Der Begriff wurde während der COVID-19-Pandemie 2020 populär, als Menschen stundenlang Panndemie-News konsumierten. entsteht an der Schnittstelle mehrerer Mechanismen: Die Availability Heuristic sorgt dafür, dass wir Bedrohungen überproportional wahrnehmen; Infinite Scroll entfernt natürliche Pausen; variable Belohnungen (manchmal eine gute Nachricht!) halten uns engagiert; und evolutionär ist unser Gehirn für Bedrohungssensitivität programmiert.

**Gegenmittel gegen **: Zeitlimits setzen (iOS-Bildschirmzeit-Funktion, Android Digital Wellbeing). Bewusste Nachrichtenzeiten festlegen statt permanentes Checken. Curated News-Dienste nutzen, die strukturierte statt endlose Information bieten. 'News-Diät' einführen: Qualität über Quantität. Benachrichtigungen abschalten, besonders für Nachrichten-Apps.

💡 Cybermobbing ist reale Gewalt mit realen psychologischen Folgen. Doom-Scrolling ist eine Reaktion auf algorithmische Designs, die sich mit unserer Biologie verbünden. Beide Phänomene erfordern aktives Gegensteuern.