Australijski zakaz mediów społecznościowych dla dzieci: analiza regulacji i ich wpływu na unijne ramy prawne

Australia wprowadziła pierwsze na świecie prawo zakazujące korzystania z mediów społecznościowych osobom poniżej 16. roku życia, przenosząc odpowiedzialność z rodziców na platformy, które od grudnia 2025 r. muszą skutecznie weryfikować wiek użytkowników pod groźbą wysokich kar. Decyzja wynika z obaw o zdrowie psychiczne dzieci i młodzieży oraz szkodliwy wpływ algorytmów i treści w social mediach. Nowe regulacje stawiają Australię w roli globalnego eksperymentu i punktu odniesienia dla innych państw, także w UE, gdzie już dziś obowiązują DSA, RODO i nadchodzący AI Act. Trend jest jasny: ochrona dzieci online staje się priorytetem, a platformy cyfrowe będą ponosić coraz większą odpowiedzialność regulacyjną.

Australijski zakaz mediów społecznościowych dla dzieci: analiza regulacji i ich wpływu na unijne ramy prawne

Australia wprowadziła bezprecedensowe ograniczenie, czyli zakaz korzystania z mediów społecznościowych dla osób poniżej 16 roku życia. Od 10 grudnia 2025 r. dziesięć największych platform (m.in. TikTok, Snapchat, Instagram, Facebook) musi blokować dostęp nieletnim albo ryzykować kary finansowe. To pierwsze takie prawo na świecie, bacznie obserwowane przez regulatorów w innych krajach. W przeciwieństwie do typowego podejścia nakładającego odpowiedzialność na rodziców, Australia postawiła na twarde rozwiązanie, platformy internetowe są zobowiązane do weryfikacji wieku użytkowników i uniemożliwienia osobom poniżej 16 lat posiadania kont. Odpowiedzialność za niedopilnowanie nowych wymogów mają ponosić operatorzy usług. 

Dlaczego Australia zdecydowała się na tak radykalny krok? U podstaw leżą względy ochrony dzieci i młodzieży. Rząd powołał się na badania wskazujące na negatywny wpływ nadmiernego korzystania z social mediów na psychikę nastolatków, od dezinformacji i cyberprzemocy po zaburzenia obrazu ciała i inne problemy zdrowia psychicznego. Wprowadzony zakaz ma opóźnić moment wejścia młodych osób w świat mediów społecznościowych do ukończenia 16 lat, chroniąc ich tym samym przed szkodliwymi treściami i mechanizmami uzależniającymi, takimi jak agresywne algorytmy rekomendacyjne czy nieskończone scrollowanie. Nowe przepisy są elementem szerszej strategii Australii w zakresie Online Safety, w ramach której wzmacnia się nadzór nad platformami internetowymi.

Jakie rozwiązania prawne zastosowano?

Głównym mechanizmem jest ustanowienie ustawowego minimalnego wieku 16 lat dla użytkowników serwisów społecznościowych. Zgodnie z nowelizacją Online Safety Act, platformy społecznościowe muszą podjąć ,,wszelkie rozsądne kroki, aby uniemożliwić dzieciom tworzenie i utrzymywanie kont. Niewywiązanie się z tego obowiązku grozi sankcjami, sądy mogą nakładać kary finansowe do 150 000 jednostek karnych, co przekłada się na maksymalnie 49,5 mln AUD (ok. 33 mln USD) grzywny. Została określona lista serwisów objętych restrykcjami przewidująca wyłączenie pewnych kategorii usług (np. gry online czy komunikatory bez komponentu społecznościowego) z obowiązku blokowania nieletnich. 

Australia stała się tym samym regulacyjnym eksperymentem, którego wyniki będą analizowane globalnie. Sam premier Anthony Albanese określił nowe prawo jako jedno z największych zmian społeczno-kulturowych w kraju, mające potencjał rezonować na świecie. Już teraz regulatorzy z innych państw przyglądają się australijskiemu modelowi, traktując go jako próbę znalezienia skutecznej recepty na problemy, z którymi zmagają się również ich społeczeństwa. 

Weryfikacja wieku użytkowników

Regulacje wymuszające weryfikację wieku użytkowników niosą za sobą szereg wyzwań biznesowych, prawnych i technologicznych. Kwestie te również nieodzownie wiążą się ze skutecznością, prawem do prywatności i ochroną danych osobowych. 

Nałożenie na platformy obowiązku sprawdzania wieku użytkowników oznacza w praktyce konieczność wdrożenia dodatkowych procedur i technologii podczas logowania lub rejestracji. To duże wyzwanie UX (User Experience), ponieważ każdy dodatkowy krok czy utrudnienie może zniechęcić część odbiorców. W przypadku Australii firmy deklarowały zastosowanie kombinacji metod analizy behawioralnej i algorytmów AI do inferencji wieku, estymacji wieku na podstawie selfie (biometria twarzy) oraz w razie potrzeby weryfikacji dokumentu tożsamości. Każda z tych metod ma jednak swoje wady i zagrożenia. 

Analiza zachowania użytkownika lub jego aktywności może być nieprecyzyjna i rodzi ryzyko błędnej klasyfikacji dorosłego jako dziecko lub odwrotnie. Estymacja wieku ze zdjęcia budzi obawy o dokładność i uprzedzenia algorytmu, australijskie testy 60 różnych narzędzi rozpoznawania twarzy wykazały, że choć wiele metod działa całkiem dobrze, to największe problemy pojawiają się właśnie w grupie 16-17 lat oraz przy zróżnicowaniu płci i rasy (algorytmy gorzej oceniały wiek dziewcząt oraz osób o innym typie urody niż kaukaski). Innymi słowy, ryzyko błędu rzędu 1-2 lat w ocenie algorytmu jest znaczne, co może skutkować przepuszczeniem 15latka wyglądającego dojrzale lub zablokowaniem 17latki wyglądającej młodziej niż jest w rzeczywistości. Z kolei weryfikacja przez dokument to najdalej idąca metoda wiążąca się z licznymi zagrożeniami w szczególności związanymi z danymi osobowymi, a jednocześnie najbardziej uciążliwa, ponieważ zmusza użytkownika do podania wielu danych osobowych i często wymaga czasu na ręczną lub półautomatyczną weryfikację, co wydłuża proces rejestracji. Dla młodszych użytkowników bywa to zaporowe, ponieważ większość 13-15 latków nie ma własnego dowodu czy prawa jazdy. 

Jednocześnie błędna identyfikacja pełnoletniego użytkownika jako dziecka oznacza dla firmy ryzyko utraty klienta (jeśli zirytowany koniecznością udowadniania pełnoletności po prostu zrezygnuje z usługi) oraz potencjalne skargi. Dlatego mechanizmy weryfikacji muszą przewidywać odwołania i wsparcie, np. możliwość kontaktu z supportem, gdy użytkownik sądzi, że omyłkowo go zablokowano. Podsumowując, obowiązek weryfikacji wieku to balansowanie między skutecznością, a użytecznością. To nowe pole innowacji ale i potencjalnych błędów, które mogą kosztować utratę użytkowników lub nawet kary, jeśli mechanizmy okażą się nieskuteczne. 

Dlaczego to ważne 

Globalny trend jest wyraźny, bezpieczeństwo dzieci online staje się priorytetem, co oznacza kolejne przepisy sektorowe na horyzoncie (także poza wąsko pojętymi mediami społecznościowymi). Warto jednak podkreślić, że pewne ramy prawne obowiązują już dziś zarówno na poziomie unijnym, jak i krajowym.

Jednym z obowiązujących już aktów prawnych jest unijny DSA, czyli Akt o Usługach Cyfrowych, który nakłada szereg konkretnych obowiązków na platformy internetowe, zwłaszcza w zakresie moderacji treści, przejrzystości algorytmów i ochrony użytkowników. Między innymi, DSA zmierza do wzmocnienia ochrony nieletnich w internecie. Choć nie nakazuje wprost blokowania dostępu osobom poniżej określonego wieku, to zakazuje prezentowania nieletnim reklam spersonalizowanych opartych na profilowaniu ich danych. Zatem, jeśli platforma wie (lub może z rozsądną pewnością stwierdzić), że dany użytkownik jest niepełnoletni, nie wolno jej wyświetlać mu targetowanych reklam. Ponadto DSA wymaga od największych platform (tzw. VLOP, czyli bardzo dużych platform o zasięgu ponad 45 mln użytkowników w UE) analizy ryzyka dla nieletnich, co oznacza, że platformy muszą corocznie dokonać oceny, jak ich usługa wpływa na małoletnich i co robią, by zminimalizować szkodliwe oddziaływanie. Wśród środków minimalizacji ryzyka wymienia się dostosowanie procesu rejestracji i mechanizmów weryfikacji wieku czy mocniejsze domyślne ustawienia prywatności dla nieletnich. DSA wprowadza też możliwość audytu niezależnego czy nacisk na przejrzystość algorytmów rekomendacyjnych, zwłaszcza w kontekście ochrony użytkowników małoletnich. Wszystko to oznacza, że europejskie firmy internetowe już teraz muszą zwracać uwagę na wiek swoich użytkowników. 

Oprócz DSA, już od 2018 roku obowiązuje RODO, czyli ogólne rozporządzenie o ochronie danych osobowych, które przyznaje dzieciom szczególną ochronę ze względu na ich większą podatność na ryzyka związane z przetwarzaniem danych. Wynika to z faktu, że dzieci są grupą szczególnie wrażliwą, ustawodawca unijny podkreśla ich mniejszą świadomość ryzyka i konsekwencji związanych z przetwarzaniem danych oraz potrzebę dodatkowych zabezpieczeń w ich przypadku. Ochrona danych dziecka w tym przypadku nie opiera się na jednym przepisie, lecz na szeregu regulacji RODO (m.in. art. 6, 8, 12–14, 22, 25). Jednym z centralnych przepisów chroniących dane małoletnich jest art. 8 RODO, który ustanawia warunki wyrażenia zgody przez dziecko w przypadku usług społeczeństwa informacyjnego (czyli typowo usług online) oferowanych bezpośrednio dziecku. Przepis ten stanowi, że jeżeli podstawą przetwarzania danych dziecka jest zgoda i usługa jest kierowana bezpośrednio do dziecka, to przetwarzanie jest legalne wyłącznie wtedy, gdy dziecko ukończyło 16 lat. W przeciwnym razie (gdy dziecko ma mniej niż 16 lat) przetwarzanie jest zgodne z prawem tylko pod warunkiem, że zgodę w imieniu dziecka wyraziła lub zatwierdziła osoba sprawująca władzę rodzicielską lub opiekę. Państwom członkowskim pozostawiono możliwość obniżenia tego wieku granicznego, ale maksymalnie do 13 lat. 

Zatem dane osobowe dzieci podlegają w RODO szczególnej ochronie prawnej i wymagają wzmożonej uwagi. W praktyce firmy technologiczne obsługujące młodych użytkowników powinny wdrażać wyższe standardy bezpieczeństwa, transparentności i minimalizacji danych. Należy zawsze używać prostego języka w komunikacji, uzyskiwać i weryfikować zgody rodzicielskie, unikać profilowania marketingowego dzieci oraz dokumentować ryzyka.

Istotnym elementem tej regulacyjnej układanki jest również AI Act, któremu poświęciłam uwagę w poprzednich artykułach. Warto podkreślić, że w przypadku zastosowania algorytmów sztucznej inteligencji, np. do automatycznego dopuszczania lub blokowania użytkowników w procesie weryfikacji wieku, może to wiązać się z obowiązkami przewidzianymi przez AI Act. Zatem weryfikacja wieku z zastosowaniem AI sprawi, że stosowanie algorytmów do weryfikacji użytkowników będzie obwarowane dodatkowymi wymogami wynikającymi z AI Act. Firmy mogą oczywiście wybrać drogę mniej wyrafinowaną technologicznie, czyli tradycyjne metody, jak dokumenty, kody od rodzica itp., ale to z kolei bywa mniej przyjazne użytkownikowi.

Możemy spodziewać się postępującej specjalizacji dostawców rozwiązań AI w zakresie weryfikacji wieku zwłaszcza tych, którzy dostosują swoje systemy do wymogów AI Act, odciążając tym samym platformy cyfrowe z części obowiązków regulacyjnych. 

Należy jednak wyraźnie zaznaczyć, że kwestia ochrony dzieci online już teraz staje się w Polsce i całej UE tematem o rosnącym znaczeniu. Świadczą o tym liczne inicjatywy, w tym trwające prace legislacyjne nad ustawą o ochronie małoletnich przed dostępem do treści szkodliwych w internecie czy liczne kampanie edukacyjne. Coraz częściej pojawiają się także głosy sugerujące, że Polska powinna rozważyć rozwiązania podobne do australijskich, zakładające zaostrzenie dostępu do platform społecznościowych w trosce o dobro młodzieży.

Podsumowując, kierunek zmian jest klarowny, platformy cyfrowe, niezależnie od skali, będą coraz bardziej odpowiedzialne za ochronę młodszych użytkowników. Coraz wyraźniej widać też przesunięcie akcentu z anonimowego, niekontrolowanego dostępu do usług, na pierwszeństwo bezpieczeństwa dzieci.

Do tematu warto podejść strategicznie i z wyprzedzeniem, to podejście pozwoli nie tylko ograniczyć ryzyko regulacyjne, lecz także budować przewagę konkurencyjną poprzez rozwijanie produktów postrzeganych jako bezpieczne, etyczne i godne zaufania zarówno przez użytkowników, jak i regulatorów. Przykład Australii, która zdecydowała się na radykalny krok w postaci zakazu korzystania z mediów społecznościowych przez dzieci poniżej 16 roku życia, pokazuje wyraźnie, że troska o dobro małoletnich staje się jednym z kluczowych priorytetów legislacyjnych. Firmy technologiczne niezależnie od własnych opinii czy modelu biznesowego, będą musiały dostosować się do nowej rzeczywistości regulacyjnej.

Źródła: materiały oficjalne australijskiego eSafety Commissioner dostępne na stronie internetowej www.esafety.gov.au oraz doniesienia agencji Reuters dostępne na stronie internetowej www.reuters.com

Sprawdź profil eksperta