
TikTok i Meta naruszają swoje obowiązki w zakresie przejrzystości wynikające z aktu o usługach cyfrowych – wstępnie ocenia Komisja Europejska.
Ze wstępnych ustaleń Komisji wynika, że Facebook, Instagram i TikTok mogły wprowadzić uciążliwe procedury i narzędzia umożliwiające naukowcom ubieganie się o dostęp do danych publicznych. Często pozostawia im to częściowe lub niewiarygodne dane, co wpływa na ich zdolność do prowadzenia badań, takich jak to, czy użytkownicy, w tym małoletni, są narażeni na nielegalne lub szkodliwe treści.
Umożliwienie naukowcom dostępu do danych platform jest zasadniczym obowiązkiem przejrzystości wynikającym z aktu o usługach cyfrowych, ponieważ zapewnia publiczną kontrolę potencjalnego wpływu platform na nasze zdrowie fizyczne i psychiczne.
Mechanizmy powiadamiania i działania
Jeśli chodzi o Meta, wydaje się, że ani Facebook, ani Instagram nie zapewniają przyjaznego dla użytkownika i łatwo dostępnego mechanizmu „Notice and Action” umożliwiającego użytkownikom oznaczanie nielegalnych treści, takich jak materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych i treści o charakterze terrorystycznym. Mechanizmy, które obecnie stosuje Meta, wydają się nakładać na użytkowników kilka niepotrzebnych kroków i dodatkowych wymagań. Ponadto wydaje się, że zarówno Facebook, jak i Instagram wykorzystują tak zwane „ciemne wzory” lub oszukańcze projekty interfejsów, jeśli chodzi o mechanizmy „Zawiadomienia i działania”.
Takie praktyki mogą być mylące i zniechęcające. Mechanizmy Meta do oznaczania i usuwania nielegalnych treści mogą być zatem nieskuteczne. Zgodnie z aktem o usługach cyfrowych mechanizmy zgłaszania i działania mają kluczowe znaczenie dla umożliwienia użytkownikom z UE i zaufanym podmiotom sygnalizującym informowania platform internetowych, że niektóre treści nie są zgodne z przepisami unijnymi lub krajowymi. Platformy internetowe nie korzystają ze zwolnienia z odpowiedzialności przewidzianego w akcie o usługach cyfrowych w przypadkach, gdy nie podjęły szybkich działań po otrzymaniu informacji o obecności nielegalnych treści w swoich usługach.
Odwołania dotyczące moderowania treści
Akt o usługach cyfrowych daje również użytkownikom w UE prawo do kwestionowania decyzji o moderowaniu treści, gdy platformy usuwają ich treści lub zawieszają konta. Na tym etapie wydaje się, że mechanizmy odwoławcze od decyzji zarówno Facebooka, jak i Instagrama nie pozwalają użytkownikom na przedstawienie wyjaśnień lub dowodów potwierdzających na poparcie ich odwołań. Utrudnia to użytkownikom w UE dalsze wyjaśnianie, dlaczego nie zgadzają się z decyzją Meta w sprawie treści, co ogranicza skuteczność mechanizmu odwoławczego.
Opinie Komisji dotyczące narzędzia sprawozdawczego Meta, zwodniczych interfejsów i mechanizmu składania skarg opierają się na szczegółowym dochodzeniu, w tym współpracy z Coimisiún na Meán, irlandzkim koordynatorem ds. usług cyfrowych.
Są to wstępne ustalenia, które nie przesądzają o wyniku dochodzenia.
Kolejne kroki
Facebook, Instagram i TikTok mają teraz możliwość zbadania dokumentów zawartych w aktach dochodzenia Komisji i udzielenia pisemnej odpowiedzi na wstępne ustalenia Komisji. Platformy mogą podjąć środki w celu zaradzenia naruszeniom. Równolegle prowadzone będą konsultacje z Europejską Radą ds. Usług Cyfrowych.
Jeżeli opinie Komisji zostaną ostatecznie potwierdzone, Komisja może wydać decyzję stwierdzającą nieprzestrzeganie przepisów, co może skutkować nałożeniem grzywny w wysokości do 6 % całkowitego rocznego światowego obrotu dostawcy. Komisja może również nakładać okresowe kary pieniężne, aby zmusić platformę do przestrzegania przepisów.
29 października 2025 r., wraz z wejściem w życie aktu delegowanego w sprawie dostępu do danych, pojawią się nowe możliwości dla naukowców. Akt ten zapewni dostęp do danych niepublicznych pochodzących z bardzo dużych platform internetowych i wyszukiwarek, co ma na celu zwiększenie ich rozliczalności i identyfikację potencjalnych zagrożeń wynikających z ich działalności.
źródło: KE



