Dzieci w mediach społecznościowych mimo limitów wieku. Samo zaostrzenie przepisów może nie zadziałać

Dzieci w mediach społecznościowych są dziś obecne na masową skalę, mimo że regulaminy większości platform przewidują dostęp dopiero od 13. roku życia. Skala zjawiska pokazuje prostą rzecz: same przepisy nie wystarczą, jeśli nie idzie za nimi realna weryfikacja wieku i wsparcie dla rodziców oraz szkół.

Z raportu „Internet dzieci 2025” przygotowanego przez Gemius/PBI wynika, że z mediów społecznościowych i komunikatorów korzysta w Polsce ponad 1,4 mln dzieci w wieku 7–12 lat, choć formalnie powinny dołączyć dopiero później. To mocny sygnał, że już dziś obowiązujące zasady są w praktyce obchodzone — czasem świadomie, czasem „dla świętego spokoju”.

Granica 13 lat to formalność, nie gotowość

Minimalny wiek 13 lat jest powiązany z przepisami dotyczącymi ochrony danych osobowych (RODO). Problem w tym, że metryka w regulaminie nie sprawdza, czy dziecko ma narzędzia, by radzić sobie z presją porównań, komentarzami, ryzykownymi kontaktami czy niechcianymi treściami.

Na ten aspekt zwraca uwagę Agata Łuczyńska, prezeska Fundacji Szkoła z Klasą. Wskazuje, że podniesienie wieku może być uzasadnione z perspektywy bezpieczeństwa, ale sposób wprowadzania ograniczeń nie zawsze wspiera główny cel. Innymi słowy: dobra intencja to za mało, jeśli system nie działa w praktyce.

Młodzi mają po kilka, a nawet kilkanaście kont

Badanie „Nastolatki 3.0” NASK (wrzesień 2025) pokazuje, jak wygląda to od środka: co czwarty nastolatek ma od pięciu do ośmiu kont na platformach społecznościowych, a ponad jedna trzecia — więcej niż osiem. To nie są pojedyncze profile „do kontaktu z klasą”, tylko stała obecność w wielu aplikacjach naraz.

Coraz młodsze dzieci sięgają też po platformy kojarzone z intensywnym strumieniem treści. Według danych z raportu „Internet dzieci 2025” kilkaset tysięcy uczniów w wieku 7–9 lat regularnie korzysta z TikToka, Messengera i WhatsAppa, a około 500 tys. dzieci 7–12 lat spędza na TikToku średnio ponad godzinę dziennie.

Australia, Francja i polskie plany: kierunek podobny, realia różne

Australia jako pierwszy kraj na świecie zdecydowała się na zakaz korzystania z platform społecznościowych dla osób poniżej 16. roku życia. Podobne rozwiązania ma wdrożyć Francja od nowego roku szkolnego. W Polsce Ministerstwo Edukacji Narodowej przygotowuje projekt ustawy, który ograniczałby dostęp do mediów społecznościowych dla dzieci poniżej 15. roku życia.

Eksperci zwracają jednak uwagę na tempo i przygotowanie. Australia pracowała nad rozwiązaniami długo, także od strony instytucjonalnej i egzekucyjnej. W polskich realiach — jeśli zabraknie narzędzi weryfikacji i jasnych procedur — nowe limity mogą skończyć się tak, jak obecne: na papierze.

Kto ma weryfikować wiek? Teoretycznie platformy, praktycznie… rodzice

W teorii odpowiedzialność spoczywa na platformach, które powinny weryfikować wiek użytkowników. W praktyce weryfikacja bywa symboliczna, a do tego dochodzi czynnik najtrudniejszy do uregulowania: dorośli często pomagają dzieciom założyć konto albo udostępniają własne.

To właśnie tutaj pojawia się realny zgrzyt. Z jednej strony rodzice chcą chronić dzieci. Z drugiej — boją się wykluczenia: brak komunikatora oznacza czasem brak informacji o klasie, zadaniach, zmianach organizacyjnych. Bywa, że „bez WhatsAppa” dziecko wypada z obiegu. I wtedy decyzja o wcześniejszym dostępie do aplikacji przestaje być wyborem, a staje się reakcją na presję otoczenia.

Szkoły też są w środku problemu

W wielu miejscach komunikacja klasowa przeniosła się do komunikatorów, bo są szybkie, wygodne i powszechne. Tyle że wygoda ma konsekwencje. Jeśli szkoła lub klasa opiera codzienny kontakt o aplikacje społecznościowe, to trudniej później konsekwentnie bronić zasady „poczekaj do odpowiedniego wieku”.

Dlatego coraz częściej pada pytanie nie tylko o zakazy, ale o alternatywy: bezpieczne kanały komunikacji dla szkół, które nie wymagają zakładania prywatnych kont na komercyjnych platformach.

Prawo to jedno, higiena cyfrowa i edukacja — drugie

Wniosek, który powtarza się w rozmowach ekspertów, jest dość prosty: bez systemowej edukacji cyfrowej ograniczenia będą omijane. Chodzi o kompetencje dzieci, ale też rodziców i nauczycieli — o rozmowę, ustalanie zasad, reagowanie na niepokojące sygnały, a także o codzienne nawyki dorosłych.

Fundacja Dajemy Dzieciom Siłę w programie Domowe Zasady Ekranowe rekomenduje, aby dzieci nie korzystały z mediów społecznościowych przed ukończeniem 15 lat. Eksperci podkreślają, że granica 13 lat ma charakter formalny i nie jest równoznaczna z dojrzałością emocjonalną.

Co jest stawką? Zdrowie psychiczne i bezpieczeństwo

Intensywne korzystanie z platform społecznościowych przez dzieci bywa łączone z podwyższonym ryzykiem lęku, obniżonej samooceny, zaburzeń snu, spadków koncentracji i większej podatności na uzależnienie. Do tego dochodzi ekspozycja na treści, na które dziecko zwyczajnie nie jest gotowe.

Raport „Dobre i złe wiadomości – życie online i offline a zdrowie psychiczne polskich nastolatków” Fundacji Dbam o Mój Zasięg wskazuje, że treści związane z samookaleczeniem lub samobójstwem pojawiają się w mediach społecznościowych ponad połowie uczniów trzecich klas szkół ponadpodstawowych oraz niemal 40 proc. uczniów siódmej klasy szkoły podstawowej. To liczby, obok których trudno przejść obojętnie.

Europejczycy oczekują działań, ale potrzebują też skuteczności

Badania Eurobarometru dotyczące bezpieczeństwa dzieci w środowisku cyfrowym pokazują silne oczekiwanie na działania władz publicznych. Większość respondentów wskazuje na potrzebę przeciwdziałania negatywnemu wpływowi mediów społecznościowych na zdrowie psychiczne dzieci, ochrony przed cyberprzemocą oraz wprowadzenia skutecznych mechanizmów ograniczających dostęp do treści nieodpowiednich dla wieku.

Podobne sygnały płyną z Komisji Europejskiej w kontekście wdrażania Aktu o usługach cyfrowych (DSA): ryzyko kontaktu małoletnich z nieodpowiednimi treściami i konieczność wzmacniania zabezpieczeń to dziś temat na poziomie całej Unii.

Co może zadziałać lepiej niż sam zakaz?

Jeśli celem jest realna ochrona dzieci, same limity wieku nie wystarczą. Potrzebne są równolegle:

  • skuteczniejsze mechanizmy weryfikacji wieku po stronie platform,
  • jasne standardy i narzędzia dla szkół (także alternatywy komunikacyjne),
  • edukacja cyfrowa jako stały element procesu nauczania,
  • wsparcie dla rodziców w budowaniu domowych zasad ekranowych,
  • realne możliwości egzekwowania ustaleń — nie tylko w teorii.

W tym temacie nie ma jednego, prostego „przycisku”, który rozwiąże problem. Ale jest dobra wiadomość: im wcześniej zacznie się mądrą edukację i wprowadzi spójne zasady w domu oraz w szkole, tym mniej będzie sytuacji, w których dziecko zostaje z internetem samo.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Informacje

Zdobądź najświeższe informacje!

Wyślemy najświeższe informacje prosto na Twojego maila