Parlament Europejski chce kontrolować Internet, aby walczyć z mową nienawiści oraz „fake news”, które mają być usuwane

Europosłowie proponują usuwanie nieprawdziwych wiadomości z sieci i nakładanie kar finansowych na platformy publikujące takie treści. Nie wiadomo, kto miałby stwierdzać, które informacje będą usuwane.

Podczas sesji plenarnej Parlamentu Europejskiego w Strasburgu europosłowie debatowali nad możliwymi działaniami w celu usunięcia nienawistnych lub nieprawdziwych informacji z sieci, zwłaszcza z mediów społecznościowych.

– „Fake news” oraz nielegalne treści powinny być usuwane z sieci. UE powinna też wspierać firmy, które zajmują się sprawdzaniem wiarygodności publikowanych materiałów. Ponadto powinniśmy przyjąć rozwiązania prawne, które pozwolą drastycznie ograniczyć rozprzestrzenianie niesprawdzonych informacji, a  także edukować obywateli, przede wszystkim dzieci i młodzież, jak rozpoznawać „fake news” – przekonywała podczas debaty słoweńska poseł do Parlamentu Europejskiego, Tanja Fajon.

Europosłowie chcą także nakładania kar na serwisy internetowe, które nie będą usuwać ze swoich stron tego typu treści lub będą robiły to zbyt opieszale. Jednocześnie parlamentarzyści ostrzegali przed ryzykiem nadmiernego cenzurowania mediów lub ograniczenia wolności słowa.

Wypowiedzi nawołujące do przemocy, do aktów terrorystycznych lub nienawiści wobec grupy osób lub członka takiej grupy, ze względu na płeć, pochodzenie rasowe, kolor skóry, pochodzenie etniczne lub społeczne, język, religię, przekonania, opinie, niepełnosprawność, wiek lub orientację seksualną to nie jest wolność słowa, to są treści nielegalne i Komisja będzie kontynuowała swoje działania, żeby tego typu wypowiedzi zniknęły z sieci – mówił podczas debaty komisarz UE ds. jednolitego rynku cyfrowego, Andrus Ansip.

Jeszcze w maju 2016 roku Komisja Europejska podjęła się współpracy z firmami internetowymi, aby walczyć z szerzącą się mową nienawiści w sieci. Serwisy, jak m.in. Facebook, Twitter czy YouTube, zgodziły się przyjąć tzw. kodeks postępowania, obejmujący szereg zobowiązań, w tym bezzwłoczne reagowanie na nienawistne treści. Zgodnie z umową, firmy miały m.in. zapewnić przegląd większości zgłoszeń o usunięcie nielegalnego nawoływania do nienawiści w czasie krótszym niż 24 godziny i jeśli okazałoby się to konieczne, usuwać lub blokować takie treści. Jak dotąd, założenia umowy udało się zrealizować częściowo; na razie z sieci znika około 28 proc. zgłoszonych wpisów nawołujących do nienawiści.

W marcu Facebook wprowadził pierwszy filtr dotyczący „fake news”. Serwis zaczął publikować ostrzeżenia dotyczące artykułów, których prawdziwość została zakwestionowana przez współpracujące z portalem serwisy informacyjne. Wątpliwe treści oznaczane są wykrzyknikiem na czerwonym tle.

Ponadto największe firmy technologiczne, w tym Facebook i Mozilla, we współpracy z europejskimi i amerykańskimi uczelniami wyższymi zapoczątkowały inicjatywę „The News Integrity Initiative”, w ramach której na całym świecie będą realizowane m.in. projekty dotyczące rzetelnego dziennikarstwa oraz wiarygodności publikowanych treści.

Niektóre państwa członkowskie UE próbują radzić sobie z „fake news” na własną rękę. Na przykład Szwecja w 2018 roku chce zacząć uczyć w szkołach, jak rozróżniać fałszywe informacje od prawdziwych. Podobne plany mają także Czechy.

ŁAJ/PAP

Komentarze