Meta: Interne Studie zu Risiken für Jugendliche abrupt gestoppt?

latest news headlines 1 tag vor
Flipboard
Hat Meta Hinweise auf Risiken für Jugendliche zurückgehalten? Neue Unterlagen heizen die Debatte über den Umgang des Konzerns mit sensiblen Erkenntnissen an. Neue Gerichtsdokumente belasten den Facebook-Mutterkonzern Meta: Das Unternehmen soll eine interne Studie eingestellt haben, die Hinweise auf negative Auswirkungen seiner Plattformen auf die psychische Gesundheit lieferte. Meta weist die Vorwürfe zurück. Interne Untersuchung offenbar abgebrochen Laut ungeschwärzten Gerichtsakten aus den USA wurde das Forschungsvorhaben "Project Mercury" aus dem Jahr 2020 nicht zu Ende geführt. In der Studie berichteten Nutzer, die eine Woche lang auf Facebook verzichteten, von "geringeren Gefühlen von Depression, Angst, Einsamkeit und weniger sozialem Vergleichsdruck". Trotz dieser Ergebnisse sei das Projekt eingestellt worden, statt die Erkenntnisse zu veröffentlichen. Ein Meta-Sprecher erklärte dagegen, die Untersuchung sei wegen methodischer Mängel beendet worden. Schwere Vorwürfe in Sammelklage Die Dokumente sind Teil einer Klage mehrerer US-Schulbezirke gegen die Unternehmen Meta, Google, TikTok und Snapchat. Die Kläger werfen Meta vor, die Sicherheit junger Nutzer zugunsten des Wachstums vernachlässigt zu haben. Schutzfunktionen seien absichtlich ineffektiv gestaltet worden, außerdem habe das Unternehmen Maßnahmen gegen Pädokriminelle blockiert. In einem Fall sei ein Konto erst nach 17 belegten Versuchen sexueller Anbahnung gesperrt worden. Zudem wird Konzernchef Mark Zuckerberg zitiert, die Sicherheit von Kindern sei nicht sein Hauptanliegen, da er seinen Fokus auf das Metaverse lege. Ein Meta-Sprecher wies auch diese Darstellung zurück und sprach von "aus dem Zusammenhang gerissenen Zitaten" und "Fehlinformationen". Die Sicherheitsmaßnahmen des Konzerns seien wirksam. Druck auch aus Europa Auch in der Europäischen Union steht Meta zunehmend unter Beobachtung. Die EU-Kommission prüft, ob Facebook und Instagram Minderjährige ausreichend vor Suchtgefahren, problematischen Inhalten und Datenschutzrisiken schützen . Grundlage ist der Digital Services Act (DSA), gegen den Meta nach Ansicht der Behörde verstoßen könnte. Kritisiert werden insbesondere Funktionen und Algorithmen, die Verhaltenssüchte fördern und sogenannte "Rabbit-Hole"-Effekte auslösen könnten – endloses Scrollen, das die psychische Gesundheit junger Nutzer belasten kann. Zudem hält die Kommission die Altersverifikationssysteme von Meta für unzureichend, um Kinder zuverlässig von ungeeigneten Inhalten fernzuhalten. Auch die Risikoanalyse des Konzerns steht in der Kritik: Die EU bezweifelt, dass Meta systemische Risiken wie Suchtgefahr und Auswirkungen auf das Wohlbefinden ausreichend bewertet und mindert. Außerdem untersucht die Kommission, ob die Empfehlungsalgorithmen genug Privatsphäre gewährleisten und die Grundrechte Minderjähriger achten. Das formelle Verfahren kann zu Auflagen oder Geldbußen von bis zu sechs Prozent des weltweiten Jahresumsatzes führen. Gerichtstermin im Januar Wie schwer die Vorwürfe wiegen und welche Konsequenzen sich daraus ergeben könnten, soll eine Anhörung vor dem Bezirksgericht Nordkalifornien am 26. Januar 2026 klären.
Aus der Quelle lesen