1. Home -
  2. Społeczeństwo -
  3. Zdaniem szefa Instagrama 16 godzin scrollowania rolek to problemik, a nie jakieś tam uzależnienie

Zdaniem szefa Instagrama 16 godzin scrollowania rolek to problemik, a nie jakieś tam uzależnienie

W Los Angeles rozpoczął się proces, który może zmienić sposób, w jaki platformy społecznościowe traktują młodych użytkowników. Adam Mosseri, szef Instagrama, jako pierwszy z wysoko postawionych menedżerów technologicznych stanął przed sądem w sprawie o przyczynianie się do kryzysu zdrowia psychicznego wśród nastolatków.

Semantyczna żonglerka przed ławą przysięgłych

Sprawa dotyczy młodej kobiety, której najdłuższa dzienna sesja na Instagramie wyniosła 16 godzin. Mosseri, zapytany o tę liczbę, przyznał że to „problematyczne użycie". Słowa „uzależnienie" jednak konsekwentnie unikał, tłumacząc że ile czasu na platformie jest „za dużo" to sprawa indywidualna.

Porównanie, którego użył, z pewnością jeszcze wróci: przyznał się do mówienia, że jest „uzależniony" od serialu na Netflixie, gdy oglądał go do późna – ale to przecież nie to samo co kliniczne uzależnienie. Problem w tym, że badania NASK pokazują, że platformy społecznościowe działają jak precyzyjnie skalibrowane maszyny do zarządzania uwagą, a algorytmy są niewidzialnymi reżyserami codziennych doświadczeń młodzieży.

Wewnętrzne dane Meta mówią same za siebie

Podczas przesłuchania ujawniono wyniki wewnętrznej ankiety Meta przeprowadzonej wśród 269 tysięcy użytkowników Instagrama. Wynik? 60 proc. doświadczyło lub było świadkami nękania w ciągu zaledwie tygodnia. Powódka w tej sprawie zgłosiła platformie ponad 300 przypadków bullyingu. Mosseri przyznał, że nie miał o tym pojęcia.

To nie jest przypadek odosobniony. Cyberprzemoc w Polsce przybiera na sile – doświadcza jej już 20 proc. nastolatków, znacznie więcej niż wynosi średnia międzynarodowa. Młodzi ludzie spędzają online nawet do sześciu godzin dziennie, a uzależnienie od mediów społecznościowych dotyka już ośmiolatków.

Filtry upiększające i wewnętrzne ostrzeżenia

Ciekawy wątek procesu dotyczy filtrów zmieniających wygląd twarzy. W 2019 roku Nick Clegg, wówczas szef ds. globalnych w Meta (wcześniej brytyjski wicepremier), ostrzegał w wewnętrznych mailach, że firma zostanie „słusznie oskarżona o przedkładanie wzrostu nad odpowiedzialność".

Mosseri twierdził początkowo, że takie filtry zostały zakazane. Pod presją pytań przyznał jednak, że zakaz został „zmodyfikowany" – czyli de facto złagodzony. To wpisuje się w szerszy wzorzec: platformy od lat stosują metody maksymalizujące czas użytkowania kosztem dobrostanu użytkowników.

Rodziny ofiar pod sądem

Przed gmachem sądu w Los Angeles pojawiły się rodziny, które straciły dzieci. Mariano Janin przyleciał z Londynu z fotografią 14-letniej córki Mii, która odebrała sobie życie w 2021 roku. „Mają technologię, mają pieniądze – powinni chronić dzieci" – powiedział.

Historia Mii nie jest odosobniona. Media społecznościowe wielokrotnie były łączone z tragediami wśród młodych ludzi – od nastolatki, która popełniła samobójstwo po sondzie na Instagramie, po dzieci ginące w wyniku niebezpiecznych wyzwań promowanych przez algorytmy.

Co dalej?

Proces potrwa sześć tygodni. Na liście świadków są Mark Zuckerberg i szef YouTube'a Neal Mohan. TikTok i Snapchat woleli się ugodzić przed rozprawą – co samo w sobie jest wymowne.

W Polsce coraz głośniej mówi się o wprowadzeniu zakazu social mediów dla dzieci poniżej 15. roku życia. Niezależnie od wyniku amerykańskiego procesu, jedno jest pewne: pytanie o odpowiedzialność platform za zdrowie psychiczne młodych użytkowników przestało być teoretyczne. A odpowiedź „to sprawa indywidualna" może już nie wystarczyć.

Obserwuj nas w Google Discover
Google Discover
Podobają Ci się nasze treści?
Google Discover
Dołącz do dyskusji
Najnowsze
Warte Uwagi