Zostań członkiem

Otrzymuj najlepsze oferty i aktualizacje dotyczące Magazynu LBQ.

― Reklama ―

spot_img

Anonimowość w sieci – mit, który warto obalić

W erze wszechobecnego Internetu wielu użytkowników ulega złudzeniu, że są anonimowi w sieci. To poczucie bycia niewidzialnym często skłania do działań, które w realnym...
Strona głównaRozmaitościPlatformy społecznościowe pod większą kontrolą w UE. Dobiegają końca prace nad nowymi...

Platformy społecznościowe pod większą kontrolą w UE. Dobiegają końca prace nad nowymi regulacjami w tym zakresie

Digital Services Act, czyli kodeks usług cyfrowych, to jedna z najważniejszych regulacji dotyczących rynku usług cyfrowych, nad którą pracuje w tej chwili Unia Europejska. Nowe przepisy, które mają ukrócić dominację cyfrowych gigantów, zwiększyć ochronę użytkowników platform społecznościowych i zapewnić transparentność ich działania, mają szansę zostać przyjęte już pod koniec tego roku. – Główną motywacją do wprowadzenia tych regulacji jest poczucie Komisji Europejskiej, że sposób, w jaki obecnie funkcjonują duże platformy internetowe, jest po prostu szkodliwy dla obywateli i należy coś z tym zrobić – mówi Dorota Głowacka, prawniczka z Fundacji Panoptykon.

 

 

Digital Services Act to – obok aktu o rynkach cyfrowych (Digital Markets Act) i rozporządzenia o sztucznej inteligencji (Artificial Intelligence Act) – jedna z najważniejszych regulacji w obszarze nowych technologii, nad którymi pracuje UE.

– Od ubiegłego roku w instytucjach unijnych trwają prace nad aktem o usługach cyfrowych – Digital Services Act, który ma wprowadzić nowe regulacje dla funkcjonowania platform internetowych. Najprawdopodobniej na początku tego roku – jest duża szansa, że jeszcze w tym miesiącu – nad swoim stanowiskiem w tej sprawie będzie głosował Parlament Europejski. Zakładamy, że cały ten rok to będą dalsze negocjacje pomiędzy Parlamentem Europejskim, Komisją Europejską i Radą UE. Prawdopodobnie pod koniec tego roku lub na początku przyszłego te przepisy zostaną ostatecznie przyjęte – mówi agencji Newseria Biznes Dorota Głowacka.

Jesienią 2020 roku Komisja Europejska ogłosiła konsultacje społeczne, których celem było podsumowanie wszystkich problemów związanych z rosnącą pozycją cyfrowych gigantów. Chodzi głównie o tzw. GAFAM, czyli wielką piątkę – Google, Amazon, Facebook, Apple i Microsoft. W konsultacjach wzięło udział w sumie ok. 3 tys. podmiotów, a ich efektem był opublikowany w połowie grudnia 2020 roku projekt Digital Services Act (kodeks usług cyfrowych).

Nowa regulacja ma przede wszystkim w większym stopniu chronić konsumentów przed dominacją cyberkorporacji i odpowiedzieć na główne problemy społeczno-ekonomiczne związane z działaniem globalnych platform internetowych – od mikrotargetowania, przez dezinformację, po utrudnianie konkurencji.

– Głównym powodem, dla którego w ogóle podjęto prace nad nowymi przepisami w tym zakresie, jest działalność międzynarodowych, globalnych firm internetowych, które mają dominującą pozycję na rynku mediów społecznościowych. To przede wszystkim ich będą dotyczyć te przepisy, choć nie tylko. Projekt Digital Services Act różnicuje bowiem poziom obowiązków w zależności od wielkości podmiotu, którego ma dotyczyć. Te największe platformy, powyżej 45 mln użytkowników, będą miały znacznie dalej idące obowiązki niż mniejsze, krajowe platformy e-commerce – wyjaśnia prawniczka z Fundacji Panoptykon.

Projekt Digital Services Act od samego początku budzi ogromne zainteresowanie nie tylko cyfrowych gigantów spod znaku GAFAM, ale też m.in. organizacji działających na rynku cyfrowym, stowarzyszeń walczących z mową nienawiści, mniejszych dostawców usług internetowych i wydawców prasowych. O skali tego zainteresowania świadczy to, że w trakcie prac nad kształtem nowej regulacji do Komisji Rynku Wewnętrznego i Ochrony Konsumentów w PE (IMCO) wpłynęło aż 2,2 tys. poprawek i uwag, które w sumie zmieściły się na ponad 1,3 tys. stron.

Projekt przedstawiony finalnie przez Komisję Europejską obejmuje różne aspekty funkcjonowania cyfrowych gigantów. Te najważniejsze dotyczą m.in. algorytmów, które odpowiadają za personalizowanie i rekomendowanie treści na Facebooku, YouTubie i innych platformach. W tej chwili odpowiada za to sztuczna inteligencja, „karmiona” danymi użytkowników (wiek, płeć, zamieszkanie, zainteresowania, cechy osobowościowe, preferencje etc.). Jej zadaniem jest zmaksymalizowanie czasu spędzanego przez nich na danej platformie, aby obejrzeli jak najwięcej reklam, a przy tym wygenerowali jeszcze więcej danych, które będą dalej napędzać algorytmy reklamowe.

– Przepisy, które rzeczywiście mogą najwięcej zmienić z punktu widzenia użytkowników, dotyczą właśnie systemów rekomendacyjnych i systemów reklamowych platform. Projekt Komisji wprowadza różne dodatkowe obowiązki dotyczące transparentności, czyli obowiązku wyjaśnienia przez platformę logiki działania swoich systemów i pewnych indywidualnych decyzji, czyli np. dlaczego widzę daną reklamę – mówi Dorota Głowacka.

W ocenie wielu ekspertów propozycje zawarte w Digital Services Act, które dotyczą działania algorytmów na platformach, są nadal zbyt ograniczone i nie zapewnią wystarczającej ochrony użytkownikom. Dlatego we wrześniu 2020 roku 50 organizacji społecznych z całej Europy – w tym też Fundacja Panoptykon – w liście otwartym do europosłów zaapelowało o to, żeby zawrzeć w DSA mechanizmy, które pozwolą poddać algorytmy na platformach większej kontroli. Jak podkreśliły, nie będzie już ku temu lepszej okazji niż trwające właśnie prace nad nowymi przepisami.

– Chcielibyśmy, żeby prawo nakładało na platformy ograniczenia w zakresie eksploatacji danych. Dzięki temu niemożliwe byłyby te najbardziej inwazyjne praktyki, zakładające przykładowo, że do wyświetlenia rozmaitych treści platformy wykorzystują takie dane, które mogą zdradzać nasze cechy wrażliwe, słabości etc. – wyjaśnia ekspertka Fundacji Panoptykon.

W kontekście Digital Services Act duże zainteresowanie budzą nie tylko algorytmy, ale i nowe zasady moderacji treści na platformach takich jak Facebook czy Twitter, które dzisiaj działają tylko według własnych, wewnętrznych regulaminów i blokują niektóre treści wedle własnego uznania. Nowa regulacja ma ukrócić tę arbitralność i stworzyć możliwość odwołania się od takiej decyzji.

– To jest próba wzmocnienia użytkowników, którzy zostali zablokowani przez platformy – tłumaczy Dorota Głowacka. – Dzisiaj prawo tego nie reguluje. Natomiast akt o usługach cyfrowych przewiduje, że tacy użytkownicy będą musieli, po pierwsze, zostać odpowiednio poinformowani o tym, że zostali zablokowani i dlaczego. Będą też mieli prawo odwołać się od tej decyzji, platforma ma obowiązek stworzyć im dostęp do takiego systemu. Ponadto projekt przewiduje utworzenie niezależnych organów, które będą rozpoznawały odwołania tych użytkowników, którzy nie będą zadowoleni z ostatecznej decyzji platformy. Czyli krótko mówiąc: to są rozwiązania, które rzeczywiście mogą przyczynić się do tego, że decyzje moderacyjne platform będą zapadały w sposób bardziej przejrzysty.

Prawniczka Fundacji Panoptykon wskazuje, że DSA przewiduje także stworzenie instytucjonalnego systemu nadzoru nad cyfrowymi gigantami, czyli w praktyce powołanie nowych organów, które będą rozliczać platformy z tego, czy i jak przestrzegają postanowień aktu.

– To będą instytucje działające zarówno na poziomie krajowym, jak i międzynarodowym. W pewnym zakresie nadzór nad działalnością platform ma też sprawować sama Komisja. Oprócz tego przewidziano system sankcji za niewypełnianie zobowiązań, które będą wynikały z aktu o usługach cyfrowych. I oczywiście najbardziej dotkliwą formą będą sankcje finansowe, sięgające nawet 6 proc. obrotów – mówi Dorota Głowacka. – Digital Services Act wprowadza również udogodnienia, które pozwolą badaczom, dziennikarzom i organizacjom takim jak nasza ubiegać się o dostęp do danych. To jeden z takich mechanizmów, które docelowo po prostu ułatwią rozliczanie platform z tego, w jaki sposób funkcjonują.