W kierunku większej odpowiedzialności platform internetowych, COM(2017) 555 final

Podobne dokumenty
Ograniczenia w wykorzystywaniu baz danych związane ze zautomatyzowanym przetwarzaniem danych oraz wykorzystaniem chmury obliczeniowej w świetle RODO

POROZUMIENIE PREAMBUŁA

Stanowisko Fundacji Panoptykon 1 w sprawie projektu ustawy Ordynacji Podatkowej 2

PARLAMENT EUROPEJSKI Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych. dla Komisji Przemysłu, Badań Naukowych i Energii

WEWNĘTRZNY DOKUMENT ROBOCZY KOMISJI STRESZCZENIE OCENY SKUTKÓW DOTYCZĄCEJ TRANSGRANICZNEGO DOSTĘPU INTERNETOWEGO DO UTWORÓW OSIEROCONYCH

PL Zjednoczona w różnorodności PL A8-0245/166. Poprawka 166 Jean-Marie Cavada w imieniu grupy ALDE

Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych. dla Komisji Rynku Wewnętrznego i Ochrony Konsumentów

Warszawa, 15 kwietnia 2016 r. Pan Michał Czerniawski Departament Społeczeństwa Informacyjnego Ministerstwo Cyfryzacji

PL Zjednoczona w różnorodności PL A8-0195/1. Poprawka. Thomas Händel w imieniu Komisji Zatrudnienia i Spraw Socjalnych

uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 249 ust. 1, a także mając na uwadze, co następuje:

PROJEKT SPRAWOZDANIA

Polityka prywatności strony www Wrocławski Internet

Wniosek DECYZJA RADY

Zasada niezbędności i proporcjonalności przetwarzania danych osobowych w przypadku organów ścigania. Jędrzej Niklas Fundacja Panoptykon

Założenia projektu ustawy o zmianie niektórych ustaw, w związku z pozyskiwaniem i wykorzystywaniem danych telekomunikacyjnych. Warszawa, maj 2012 r.

INFORMACJA NA TEMAT OCHRONY DANYCH OSOBOWYCH TRYBUNAŁ SPRAWIEDLIWOŚCI UNII EUROPEJSKIEJ

SPRAWOZDANIE KOMISJI DLA PARLAMENTU EUROPEJSKIEGO I RADY. Europejski program bezpieczeństwa lotniczego

KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO, RADY I EUROPEJSKIEGO KOMITETU EKONOMICZNO-SPOŁECZNEGO

Dziennik Urzędowy Unii Europejskiej ZALECENIA

Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych

FUNDACJA NOWOCZESNA POLSKA

Wyrok Trybunału Konstytucyjnego z 10 lipca 2014 r. w sprawie obwodów łowieckich.

Digital Rights Management (DRM) - zarządzanie prawami autorskimi w środowisku cyfrowym. Mikołaj Sowiński Sołtysiński Kawecki & Szlęzak

uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 249 ust. 1, a także mając na uwadze, co następuje:

Trybunał Sprawiedliwości orzekł, że dyrektywa w sprawie zatrzymywania danych jest nieważna

Agencja Praw Podstawowych Unii Europejskiej. Joanna Skonieczna

1) przetwarzanie danych osobowych zgodnie z podstawowymi zasadami określonymi w

REGULAMIN KONTROLI ZARZĄDCZEJ W ZESPOLE SZKÓŁ Nr 3 W PŁOŃSKU

PL Zjednoczona w różnorodności PL. Poprawka 170 Isabella Adinolfi w imieniu grupy EFDD

Sprawdzenie systemu ochrony danych

REGULAMIN STRONY 1 Właścicielem strony jest firma 3English Anna Bartman [właściciel] z siedzibą we Wrocławiu, , przy ul.

Spis treści. Wykaz ważniejszych skrótów Wstęp... 19

Zarządzenie Nr 17/2010 Burmistrza Krapkowic z dnia 22 kwietna 2010 roku

KOMUNIKAT KOMISJI DO PARLAMENTU EUROPEJSKIEGO. na podstawie art. 294 ust. 6 Traktatu o funkcjonowaniu Unii Europejskiej. dotyczący

ZAŁĄCZNIK SPROSTOWANIE

Karta audytu wewnętrznego

PL Zjednoczona w różnorodności PL. Poprawka 137 Axel Voss w imieniu grupy PPE

12169/16 nj/md/mk 1 DGG3A

Konsultacje publiczne w sprawie działań na rzecz dalszej poprawy skuteczności zwalczania nielegalnych treści w internecie

Ochrona danych osobowych

Rola ETS w ochronie praw i wolności jednostki

Warszawa, 6 kwietnia 2012 r.

Rada Unii Europejskiej Bruksela, 22 października 2015 r. (OR. en)

Prawne aspekty Big data w sektorze bankowym 22 maja 2017

KARTA AUDYTU WEWNĘTRZNEGO

ZAŁĄCZNIK KOMUNIKATU KOMISJI DO PARLAMENTU EUROPEJSKIEGO I RADY. Nowe ramy UE na rzecz umocnienia praworządności

REGULAMIN KORZYSTANIA ZE STRONY INTERNETOWEJ

RADA UNII EUROPEJSKIEJ. Bruksela, 16 października 2008 r. (22.10) (OR. fr) 14348/08 AUDIO 72 CULT 116 RECH 310 PI 71

ECDL RODO Sylabus - wersja 1.0

Zmiany w prawie unijnym: rozporządzenie o unijnych znakach towarowych. 10/03/2016 Spotkanie konsultacyjno-informacyjne

Warszawa, 12 października 2017 r. Szanowny Pan Zbigniew Minda Dyrektor Departamentu Rozwoju Rynku Finansowego Ministerstwo Finansów

Zarządzenie Nr 33/2011 zmieniające zarządzenie nr 23/2010 z dnia

Uwagi Fundacji Panoptykon 1 w sprawie projektu ustawy o przetwarzaniu danych dotyczących przelotu pasażera 2

publicznych (Dz. U. z 2009r. Nr 157, poz. 1240) wprowadza się w Szkole

9481/19 dh/aga/mk 1 JAI.1

Karta audytu Uniwersytetu Śląskiego w Katowicach

PL Zjednoczona w różnorodności PL A8-0368/1. Poprawka

PL Zjednoczona w różnorodności PL B8-1092/1. Poprawka. Sophia in t Veld, Cecilia Wikström, Angelika Mlinar w imieniu grupy ALDE

Szkolenie podstawowe z rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 dla wolontariuszy świadczących pomoc na rzecz podopiecznych

Rola biura rachunkowego w nowym modelu ochrony danych osobowych

ROZPORZĄDZENIE DELEGOWANE KOMISJI (UE) / z dnia r.

(Tekst mający znaczenie dla EOG)

Rada Unii Europejskiej CYKL POLITYKI UNIJNEJ DOTYCZĄCEJ POWAŻNEJ I ZORGANIZOWANEJ PRZESTĘPCZOŚCI MIĘDZYNARODOWEJ

MINISTERSTWA O POWSZECHNEJ LUSTRACJI MAJĄTKOWEJ zawartej w projekcie ustawy o jawności życia publicznego

PL Zjednoczona w różnorodności PL A8-0026/1. Poprawka. Louis Aliot w imieniu grupy ENF

Uwagi Fundacji Panoptykon 1 do Kodeksu dobrych praktyk w sprawie przetwarzania danych osobowych dla celów badań naukowych przez biobanki w Polsce 2

Uwagi Fundacji Panoptykon 1 w sprawie projektu ustawy o zmianie ustawy o nadzorze nad rynkiem finansowym oraz niektórych innych ustaw 2

STANOWISKO BUREAU (IAB POLSKA) W/S INICJATYWY DIGITAL SINGLE MARKET.

PODSTAWY PRZETWARZANIA DANYCH KANDYDATÓW DO PRACY W NOWYM PROJEKCIE KODEKSU PRACY. r.pr. Patrycja Kozik

Regulamin Kontroli Zarządczej

Radca Prawny Anna Matusiak-Wekiera. Kancelaria Radcy Prawnego Anna Matusiak-Wekiera

Kontrola zarządcza w jednostkach samorządu terytorialnego z perspektywy Ministerstwa Finansów

Przepisy zamówień publicznych w okresie przejściowym. Wpisany przez MM Sob, 23 kwi 2016

Regulamin pojedynczej transakcji płatniczej PayU

Ryzyko nadmiernego przetwarzania danych osobowych

15648/17 dh/mo/mf 1 DGD 1C

SPRAWOZDANIE PODSUMOWUJĄCE W SPRAWIE NARUSZANIA PRAW WŁASNOŚCI INTELEKTUALNEJ ZA 2018 R. Streszczenie

REGULAMIN STRONY INTERNETOWEJ P.P.U.H. i T. MEKTAL Obowiązujące od dnia Wstęp Postanowienia ogólne...

Ujawnienie danych studentów nielegalnie udostępniających filmy w sieci

Obszar III maja 2011 r.

Dziennik Urzędowy Unii Europejskiej L 112 I. Legislacja. Akty o charakterze nieustawodawczym. Rocznik kwietnia 2019.

PL Zjednoczona w różnorodności PL. Poprawka 194 Julia Reda w imieniu grupy Verts/ALE

Wniosek DECYZJA RADY. w sprawie podpisania, w imieniu Unii Europejskiej, Konwencji Rady Europy o zapobieganiu terroryzmowi (CETS No.

Regulamin Forum projektu Więzi odnowa

KOMUNIKAT KOMISJI DO RADY. sporządzony na podstawie art. 395 dyrektywy Rady 2006/112/WE

Ochrona danych osobowych w organizacjach pozarządowych (od 25 maja 2018)

ROZPORZĄDZENIE WYKONAWCZE KOMISJI (UE) NR

Sprawozdanie Gabriel Mato, Danuta Maria Hübner Statut Europejskiego Systemu Banków Centralnych i Europejskiego Banku Centralnego

życia prywatnego i rodzinnego, swojego mieszkania i swojej korespondencji.

POLITYKA ZAKUPU SPRZĘTÓW I USŁUG ZRÓWNOWAŻONY ŁAŃCUCH DOSTAW

PROJEKT SPRAWOZDANIA

OTWARTE KONSULTACJE PUBLICZNE

DECYZJA EUROPEJSKIEGO BANKU CENTRALNEGO (UE)

Monitorowanie systemów IT

Zarządzenie nr 8/2010/2011 Dyrektora Szkoły Podstawowej w Czekanowie z dnia 13 grudnia 2010 r. w sprawie wprowadzenia Regulaminu Kontroli Zarządczej

Technologia Infromacyjna i Prawo w służbie ochrony danych - #RODO2018

Ministerstwo Kultury i Dziedzictwa Narodowego Departament Własności Intelektualnej i Mediów ul. Krakowskie Przedmieście 15 / Warszawa

Dane osobowe w hotelarstwie Czy RODO to rewolucja? Gdańsk 21 listopada

I. Postanowienia ogólne

3. Warunkiem skorzystania z Usług jest zapoznanie się i akceptacja treści niniejszego Regulaminu.

Transkrypt:

Warszawa, 28 listopada 2017 r. Uwagi Fundacji Panoptykon 1 w sprawie Komunikatu Komisji Europejskiej Zwalczanie nielegalnych treści w Internecie. W kierunku większej odpowiedzialności platform internetowych 2 Komunikat jest odpowiedzią Komisji na problem roli platform internetowych w zwalczaniu nielegalnych treści w Internecie. Uważamy, że komunikat zawiera wartościowe uporządkowanie założeń polityki Unii Europejskiej dotyczących walki z nielegalnymi treściami oraz instrumentów prawnych, jakie już obowiązują. W pełni zgadzamy się z przedstawionymi propozycjami usprawnienia mechanizmów usuwania nielegalnych treści z Internetu (na wniosek uprawnionych organów lub samych użytkowników) oraz współpracy między platformami internetowymi i uprawnionymi organami, jak również zapewnienia, że prawa osób publikujących treści w Internecie są respektowane. W naszej opinii, opartej o polskie doświadczenia ostatnich ośmiu lat, implementacja procedury notice-andtakedown do tej pory zmierzała przede wszystkim do zapewnienia ochrony praw podmiotów zgłaszających nielegalne treści (zwłaszcza właścicieli praw autorskich), a nie do zapewnienia równego dostępu do środków prawnych w przypadku sporu o legalność treści. W szczególności zgadzamy się z następującymi obserwacjami i propozycjami zawartymi w komunikacie Komisji: zapotrzebowanie na szybkie i skuteczne usuwanie nielegalnych treści, zapobieganie przestępstwom i ich ściganie musi być połączone z ochroną prawa do wolności słowa w Internecie, która posiada równorzędną wartość; platformy internetowe powinny mieć możliwość podejmowania szybkich decyzji w sprawie działań dotyczących nielegalnych treści (również w przypadku gdy nie są one zobowiązane do podjęcia takich działań na podstawie orzeczenia sądu lub decyzji administracyjnej); osoby które umieściły w Internecie daną treść, powinny mieć możliwość zakwestionowania decyzji o usunięciu za pośrednictwem zgłoszenia sprzeciwu. Dotyczy to również sytuacji, gdy usunięcie treści nastąpiło automatycznie; platformy internetowe powinny udostępniać proste procedury dokonywania zgłoszeń sprzeciwu przez Internet. W przypadku otrzymania zgłoszenia sprzeciwu platformy internetowe powinny przedstawić swoją odpowiedź, a w przypadku negatywnej decyzji podać jej przyczyny. Jeżeli jest to możliwe w zainteresowanym państwie członkowskim, platformy zachęca się do dopuszczenia skorzystania z usług 1 Stanowisko przygotowane przez Katarzynę Szymielewicz i Karolinę Iwańską. 2 Komunikat Komisji Europejskiej z 28 września 2017 r. Zwalczanie nielegalnych treści w Internecie. W kierunku większej odpowiedzialności platform internetowych, COM(2017) 555 final Fundacja Panoptykon ul. Orzechowska 4 lok. 4 02-068 Warszawa e: fundacja@panoptykon.org t: +48 660 074 026 w: panoptykon.org

organów pozasądowego rozstrzygania sporów w celu rozwiązywania sporów dotyczących zgłoszeń sprzeciwu; platformy internetowe powinny zgłaszać organom ścigania wszystkie przypadki, w których zostały one powiadomione o popełnieniu przestępstwa lub weszły w posiadanie dowodów na popełnienie takich przestępstw, tak aby zasygnalizować i zapewnić właściwym organom możliwość przeprowadzenia dochodzenia w sprawie osób tworzących takie treści; platformy internetowe powinny publikować sprawozdania z przejrzystości zawierające wystarczająco szczegółowe informacje dotyczące liczby i rodzaju otrzymanych zgłoszeń oraz podjętych działań, a także czas przetwarzania i źródło zgłoszenia. Sprawozdania te powinny także zawierać informacje dotyczące zgłoszeń sprzeciwu (ang. counter notice) i ewentualnych odpowiedzi na nie udzielonych przez platformę; Komisja Europejska i organy krajowe powinny upowszechnić dobre praktyki i promować ściślejszą współpracę między platformami a właściwymi organami. Szczególnie ważna w tym kontekście wydaje się współpraca organów ścigania z małymi, mniej odpornymi przedsiębiorstwami, które mogą stać się preferowaną platformą dla przestępców i innych osób prowadzących działalność niezgodną z prawem. Nasze poważne zastrzeżenia budzą natomiast te propozycje, które nakładają na firmy nie prawny obowiązek, ale polityczną presję, by podejmowały własne działania zmierzające do wychwytywania nielegalnych treści, a nawet zapobiegania ich publikacji w sieci. W szczególności sprzeciwiamy się następującym postulatom KE: Platformy internetowe powinny wprowadzić środki, które zniechęcą użytkowników do wielokrotnego zamieszczania nielegalnych treści o tym samym charakterze i skutecznie zahamują rozpowszechnianie takich nielegalnych treści ; Narzędzia technologiczne można wykorzystywać z większym stopniem wiarygodności w celu tworzenia odcisków cyfrowych i filtrowania treści (zasada take down and stay down usuń i zapamiętaj, że tę treść należy usuwać), którą wcześniej już zidentyfikowano i oceniono jako nielegalną. Komisja zdecydowanie zachęca do dalszego stosowania i rozwoju automatycznych technologii w celu zapobiegania ponownemu pojawianiu się w Internecie raz już usuniętych nielegalnych treści ; Biorąc pod uwagę kluczową rolę odgrywaną przez platformy internetowe, ich zdolności oraz powiązane z tym obowiązki, powinny one przyjąć skuteczne aktywne środki w celu wykrywania i usuwania nielegalnych treści w Internecie, a nie ograniczać się do reagowania na otrzymywane zgłoszenia. Poniżej przedstawiamy szczegółowe uwagi dotyczące wybranych kwestii. 1. Podejmowanie przez platformy aktywnych działań zwalczających nielegalne treści Dopuszczalną przez prawo możliwość podejmowania przez platformy aktywnych działań mających na celu usuwanie nielegalnych treści należy odróżnić od prawnego obowiązku (czy też presji politycznej) aktywnego jej monitorowania i usuwania. Nakładając na platformy takie obowiązki, Komisja sprowadza je do pozycji wydawców prasy, którzy mają bezpośredni wpływ na zamieszczane treści oraz czyni z nich internetową policję i cenzorów. Wywieranie na firmach 2

internetowych presji aktywnego zwalczania nielegalnych treści powoduje przypisanie im roli, do wykonywania której nie mają ani narzędzi, ani kompetencji. Firmy nie są w żaden sposób przygotowane do oceny legalności treści, nie jest również jasne, w jaki sposób możliwe byłoby zagwarantowanie rzetelności i sprawiedliwość procesu usuwania treści. Zauważamy wiele niebezpieczeństw w prywatyzacji egzekwowania prawa, która polega na zastępowaniu obiektywnych mechanizmów walki z naruszeniami przez uprawnione organy samodzielnymi, arbitralnymi działaniami podejmowanymi przez podmioty prywatne. O ile samo usunięcie treści jest proste, o tyle wiele trudności sprawia wprowadzenie takiego mechanizmu, który jednocześnie zagwarantuje poszanowanie wolności słowa i właściwej identyfikacji treści dozwolonych. Dostrzegamy bardzo wysokie ryzyko arbitralności polityk i praktyk stosowanych przez firmy w odpowiedzi na polityczną presję zachęcającą firmy do aktywnego włączania się w usuwanie nielegalnych treści. Można wymienić wiele przykładów działań podejmowanych przez platformy internetowe, motywowanych taką właśnie logiką, ale opartych o arbitralny, pełen nieprecyzyjnych klauzul regulamin. Przykładowo, administratorzy Facebooka nie usunęli materiałów przedstawiających wykorzystywanie seksualne dzieci, pomimo zgłoszenia ich przez użytkowników. Kiedy jednak użytkownik ujawnił swoją tożsamość jako dziennikarz brytyjskiej gazety The Times, nielegalne materiały zostały usunięte 3. Usuwane bywają też treści w pełni legalne, wykorzystujące np. utwory chronione prawem autorskim w granicach dozwolonego użytku. Ani Komisja Europejska, ani żaden krajowy organ nie jest w stanie skutecznie kontrolować, jak sugerowane narzędzia są stosowane przez firmy oraz czy rzeczywiście służą jedynie eliminowaniu treści nielegalnych i nie wykraczają poza ten cel. To ryzyko mogłoby zostać ograniczone poprzez przyjęcie precyzyjnych reguł na poziomie prawnym: co konkretnie i w stosunku do jakich treści (jak je definiować i rozpoznać) firmy powinny robić oraz jakie gwarancje w związku z tym działaniem powinny stworzyć, dla swoich użytkowników. Konieczne jest zapewnienie, że działania przeciwko nielegalnym treściom nie będą w sposób nieuzasadniony ograniczały praw podstawowych, zwłaszcza wolności wypowiedzi. Stworzenie takich reguł jest jednak niezwykle trudne, z uwagi na to, że większość sytuacji naruszenia prawa jest wysoce ocenna, a firmy nie posiadają kompetencji do dokonania właściwej weryfikacji. Podsumowując, uważamy, że Komisja powinna zweryfikować swoje propozycje poprzez rzetelną odpowiedź na następujące pytania: W jaki sposób Komisja zapewni, że proponowane środki są niezbędne, proporcjonalne i przewidywalne? Czy nie istnieją mniej restrykcyjne alternatywy (np. ulepszenie procedury notice and takedown) dla osiągnięcia tego samego celu? Jakie konkretnie działania platform są oczekiwane? Jakie ryzyka dla obywateli, platform i organów państwa tworzą zaproponowane rozwiązania? Jakie konkretne działania mogą podjąć instytucje unijne, państwowe i prywatne, aby zapobiec tym ryzykom lub je zmniejszyć? Jakie mechanizmy odwoławcze i nadzorcze powinny zostać wprowadzone i w jakich językach powinny być dostępne? 3 https://techcrunch.com/2017/04/13/facebook-under-fire-for-spreading-illegal-content/ 3

Jak zapewnić przejrzystość działań podejmowanych przez platformy? 2. Automatyczne monitorowanie i filtrowanie treści Technologie rozpoznawania treści oparte są na algorytmach, które filtrują treść przesyłaną przez użytkowników i porównują ją z materiałami dostarczonymi przez właścicieli praw. W praktyce zapobieżenie udostępnieniu nielegalnej treści jest możliwe tylko jeśli istnieje mechanizm, który sprawdzi treść jeszcze przed udostępnieniem jej innym użytkownikom. Chęć wprowadzenia efektywnego mechanizmu filtrującego byłaby w praktyce równoważna z wprowadzeniem obowiązku generalnego monitorowania zamieszczanych treści. System filtrujący, aby wyłapać treści zgłoszone przez właścicieli praw albo treści oznaczone jako nielegalne, będzie musiał analizować całość przesyłanych komunikatów, co samo w sobie oznacza generalne monitorowanie treści. Naruszenie prywatności wynikające z monitorowania treści W wyroku Trybunału Sprawiedliwości UE w sprawie Scarlet v. SABAM 4, Trybunał wyjaśnił, w jaki sposób automatyczne filtrowanie treści doprowadzi ponadto do naruszenia prywatności użytkowników: wprowadzenie systemu filtrującego oznacza konieczność systematycznej analizy wszystkich treści, a także gromadzenie i identyfikację adresów IP użytkowników, którzy przesyłają nielegalne treści 5. Adresy IP są z kolei danymi osobowymi i podlegają ochronie prawnej. Brak proporcjonalności automatycznego filtrowania treści Zgodnie z dotychczasowym orzecznictwem Trybunału Sprawiedliwości, powszechny obowiązek monitorowania treści narusza prawa podstawowe, w tym prawo do prywatności oraz ochrony danych 6. Środek ten nie jest proporcjonalny do celu, jaki ma osiągnąć oraz, w przypadku treści chronionych prawem autorskim, nie zapewnia użytkownikom możliwości korzystania z przewidzianych prawem wyjątków i ograniczeń monopolu autorskiego (np. parodii czy cytatu), a także pełnego korzystania z wolności wypowiedzi np. w przypadku komentarzy o charakterze politycznym z wykorzystaniem nośnych kulturowo odniesień czy cytatów. Algorytmy stosowane przez automatyczne systemy filtrujące nie są w stanie zidentyfikować ocennych, zależnych od kontekstu przypadków dozwolonego wykorzystania chronionych treści. 3. Poszukiwanie spójnego podejścia do nielegalnych treści w Internecie W przypadku zwalczania nielegalnych treści w Internecie mamy do czynienia z różnymi zjawiskami, które wymagają zupełnie różnych rozwiązań. Komisja wadliwie zakłada, że możliwe jest wypracowanie uniwersalnego mechanizmu, który zapobiegnie pojawianiu się w Internecie wszystkich nielegalnych treści. Treści te obejmują diametralnie różne kategorie: od komunikatów nawołujących do przemocy, poprzez materiały pedofilskie, aż do treści naruszających prawa autorskie czy inne prawa własności intelektualnej. Problemy związane z nielegalnymi treściami niekiedy dotyczą kwestii społecznych (np. w przypadku poważnych przestępstw popełnianych online, takich jak tworzenie i zamieszczanie materiałów pedofilskich), a niekiedy ekonomicznych (w przypadku naruszenia praw autorskich). Problemy 4 Wyrok Trybunału Sprawiedliwości Unii Europejskiej z 24 listopada 2011 r. Scarlet Extended SA przeciwko Société belge des auteurs, compositeurs et éditeurs SCRL (SABAM), C-70/10. 5 Por. pkt 51 wyroku. 6 Por. pkt 50 wyroku. 4

te fundamentalnie się od siebie różnią wagą, stopniem społecznej szkodliwości oraz przyczynami leżącymi u ich podstaw. Podejście Komisji do problemu zwalczania nielegalnej treści do tej pory było w przeważającej części nakierowane na usuwanie jak największej ilości nielegalnych komunikatów. Mało uwagi poświęcono problemom znajdującym się u źródeł nielegalnych zachowań i wypracowaniu propozycji ich rozwiązania. W przypadku treści pedofilskich koncentrowanie się na kwestii samej ich dostępności w Internecie jest błędem, ponieważ dostępność tych treści jest tylko wierzchołkiem góry lodowej trzeba walczyć przede wszystkim z samymi źródłami przemocy. Jaskrawym przykładem niewłaściwego podejścia Komisji do zwalczania nielegalnych zachowań w Internecie jest choćby fakt, że Jednostka Europolu ds. zgłaszania podejrzanych treści w Internecie nie prowadzi jakichkolwiek statystyk obejmujących informacje o tym, ile zgłoszeń przekazanych do państw członkowskich doprowadziło do wszczęcia odpowiednich postępowań. W naszej opinii wskazuje to na systemowy problem z podejściem Komisji, która skupia się na proponowaniu nieproporcjonalnych i nieskutecznych mechanizmów usuwania nielegalnych treści, a nie zwalczaniu samych źródeł powstania naruszeń prawa. To wadliwe podejście wynika naszym zdaniem z silnego lobbingu branży kreatywnej, której interesem jest ochrona praw autorskich (branży filmowej, muzycznej, wydawców pracy, branży audiowizualnej). W przypadku naruszeń praw autorskich dostępność w Internecie nielegalnej treści stanowi sedno problemu. Jeśli treść ta zostanie usunięta, problem naruszenia znika. Lobbing podmiotów z branży kreatywnej powoduje jednak, że dyskusja na temat zwalczania nielegalnych treści także w przypadkach, gdy to nie dostępność tych treści jest kwintesencją problemu jest zdominowana przez propozycje wprowadzania mechanizmów rozpoznawania, filtrowania i usuwania treści, w tyle pozostawiając skomplikowaną materię zwalczania problemów u źródeł. Uważamy, że przerzucanie odpowiedzialności na platformy internetowe i wywoływania na nich presji podejmowania aktywnych działań nie jest właściwym rozwiązaniem. Komisja powinna wziąć pod uwagę specyfikę każdego problemu i zaproponować przemyślane, adekwatne rozwiązania. 5