EEC 2020

Michał Wroczyński, prezes i współtwórca Samurai Labs

Konta, które zajmowały się skrajnymi narracjami, typu antyszczepionkowcy czy foliarze, nagle zamieniły się w konta propagandowe, prokremlowskie. Od początku tworzone były z myślą, by zebrać skrajną publiczność, która jest emocjonalnie zaangażowana i wierzy we wszystko, co tam jest podawane - wyjaśnia Michał Wroczyński, prezes i współtwórca Samurai Labs.

  • - W przypadku dezinformacji mamy do czynienia z typowymi mechanizmami, schematami - wskazuje Michał Wroczyński i radzi - Jeżeli nie jesteśmy pewni źródła danej informacji, powinniśmy się wstrzymać z jej powielaniem.
  • Social media stają się potężną bronią dezinformacyjną, a większość ich użytkowników nie ma odporności i nie umie się bronić. Zdaniem Wroczyńskiego potrzebne są mechanizmy, które wykrywają dezinformację. Internet, który znamy, wymaga jakościowej zmiany.
  • O narastających cyberzagrożeniach, ale także o znaczeniu i metodach dezinformacji oraz strategiach obronnych będziemy dyskutować w ramach XIV Europejskiego Kongresu Gospodarczego. To ostatnie godziny, by zarejestrować swój udział w wydarzeniu.

Wojna w Ukrainie przyniosła także wielką liczbę dezinformacji. Jak ją rozpoznać? Na co powinniśmy być szczególnie wyczuleni? 

Michał Wroczyński, prezes i współtwórca Samurai Labs: – Z punktu widzenia technicznego są to konta botowe. Istnieją różne technologie, aby wykryć, czy za kontem stoi człowiek, czy bot. Trzeba dojść do źródła informacji, to pozwoli nam zweryfikować jej prawdziwość. Dlatego, jeżeli nie jesteśmy pewni źródła danej informacji, powinniśmy się wstrzymać z jej powielaniem.

Jakie mamy narzędzia, by walczyć ze źródłami dezinformacji? 

– Na pewno powinniśmy je zgłaszać administratorom danego portalu. W tym momencie na dużych platformach nie ma skutecznych narzędzi, które automatycznie wykryją dezinformacje. Duże portale nie mówią, czy to jest fake, czy nie. Informują, kto finansuje albo kto stoi za danym kontem. Mamy sporo organizacji fact-checkingowych, które wtórnie służą danymi na temat prawdziwości konkretnych informacji. Niektóre portale oznaczają wtedy wiadomość, że może być nieprawdziwa. 

Wyobraźmy sobie, że social media to są tuby do przesyłania informacji – one nie wiedzą, co tam jest napisane.

W przypadku dezinformacji mamy do czynienia z typowymi mechanizmami, schematami. 

– Zgadza się. Na przykład wiadomość jest podana od kogoś, kto jest dobrze poinformowany. Drugim elementem jest podanie chociaż ziarenka prawdy, z którą możemy się zgodzić, zanim poda się wielką nieprawdę.

Kolejną zasadą działania takich kont jest, że ich użytkownik nigdy nie przyzna się do kłamstwa, będzie w nie brnął, bo część widowni jest z tego zadowolona. W końcu w momencie, kiedy ktoś próbuje prowadzić kontrdialog, atakowany jest personalnie, najlepiej przez kilku trolli z kilku kont.

Czy Big Techy nie powinny wdrażać mechanizmów, które wykrywają fake newsy?

– Takie mechanizmy muszą zacząć istnieć. Social media, które miały służyć dzieleniu się informacjami, stają się potężną bronią. Społeczeństwa są kompletnie nieodporne na to, jak wykorzystuje się social media i wszelkie aplikacje.

W momencie, kiedy wiadomo, że dany tekst jest dezinformacją, z punktu widzenia platformy można go wyłączyć. Do tej pory platformy mówiły, że nie odpowiadają za treści, które u nich się znajdują, chociaż na tym zarabiają. Myślę, że te czasy przechodzą do lamusa.

Proszę pamiętać, że przez jakiś czas moderatorzy Facebooka pracowali w Rosji i obsługiwali m.in. Ukrainę. Wiele fake newsów było wówczas ignorowanych. To wszystko wymaga jakościowej zmiany internetu, który znamy.

Mediom społecznościowym nie bardzo zależy na eliminowaniu trolli, bo generują oni ruch.

– Przede wszystkim generują zaangażowanie. Wszystko co skrajne, wywołuje zaangażowanie, konwersję. 

Jak rozwiązania Samurai Labs mogą pomóc wykrywaniu czy w walce z dezinformacją?

– W 2012 roku zaczęliśmy tworzyć software do wykrywania mowy nienawiści. Sprawdzamy możliwość wykorzystania sztucznej inteligencji do wykrywania przemocy czy intencji samobójczych. Badamy, w jaki sposób możemy wykrywać dezinformacje. Sztuczna inteligencja to jedyne narzędzie, które będzie w stanie przeciwdziałać dezinformacji w dużej skali.

Inną metodą jest analiza używanego języka. Bardzo wiele dezinformacji zawiera błędy gramatyczne albo językowe, które wynikają z błędnego tłumaczenia. W takich przypadkach z dużym prawdopodobieństwem możemy myśleć, że pisał to obcokrajowiec.

W skali makro największą siłę mają platformy, ponieważ one nie robią jedynie analizy samych wiadomości, ale widzą cały graf, sieć powiązań pomiędzy kontami. To pozwala na znalezienie kont dezinformacyjnych.

Wszyscy mogliśmy się przekonać, jak przez długi czas hodowane konta, które zajmowały się skrajnymi narracjami, typu antyszczepionkowcy czy foliarze, nagle zamieniły się w konta propagandowe, prokremlowskie. To były uśpione konta, od początku tworzone z myślą, by zebrać skrajną publiczność, która jest emocjonalnie zaangażowana i wierzy we wszystko, co tam jest podawane.

Jeżeli te konta nie będą zablokowane, posłużą kolejnym dezinformacjom.

– Fake newsy są jak bakterie, wirusy. Cały czas będą pojawiać się nowe mutacje, dlatego społeczny system odpornościowy cały czas powinien się uczyć, uodparniać. W programach antywirusowych cały czas mamy aktualizację bazy danych wirusów. Tak dynamicznie powinien działać system odpornościowy.

Wróćmy na koniec do mowy o nienawiści. Jaka jest skala tego zjawiska?

– Według rządowych statystyk, co dziesiąte dziecko pada ofiarą przemocy w internecie. Może ona przybierać różne formy i nie jest mniej groźna niż przemoc w realnym świecie. 

Dostępne dzisiaj systemy ochrony działają w oparciu o drugą falę sztucznej inteligencji, która uczy się z oznaczonych danych (uczenie maszynowe – machine learning). Wskazuje się systemowi, co jest cybernękaniem, a co nie jest, dostarczając mu ogromnej liczby przykładów. Tak działają praktycznie wszystkie firmy zajmujące się tym problemem, włączając w to gigantów, takich jak Google czy Microsoft. W efekcie, na 100 alarmów podnoszonych przez taki system, około 50 jest fałszywych.

W przypadku Samurai Labs zaledwie 4-5 proc. zgłoszeń to fałszywe alarmy.

Ostatnio Naukowcy z Centrum Badań nad Uprzedzeniami, które działa na Wydziale Psychologii UW, badając zjawisko internetowego hejtu, postanowili wykorzystać doświadczenia ekspertów z Samurai Labs w tworzeniu automatycznych technologii wczesnego reagowania na agresję w sieci. Stworzyli epidemiczny model mowy nienawiści, który powstał na podstawie wielu badań eksperymentalnych i sondażowych.

Badacze sprawdzili aktywność hejterów miesiąc po kontakcie z botem i miesiąc przed kontaktem z nim. Porównali także konta hejterskie z innymi kontami, które nie natrafiły na bota. Na tej podstawie zauważyli, że niezależnie od tego, czy bot komunikował normy, czy też odwoływał się do empatii – jego oddziaływania skutecznie obniżały nienawistną aktywność w sieci.

EEC

Szanowny Użytkowniku!

Oglądasz archiwalną wersję strony Europejskiego Kongresu Gospodarczego.

Co możesz zrobić:

Przejdź do strony bieżącej edycji lub Kontynuuj przeglądanie