Naukowcy z Centrum Badań nad Uprzedzeniami, które działa na Wydziale Psychologii UW, badają zjawisko internetowego hejtu. Stworzyli epidemiczny model mowy nienawiści, który powstał na podstawie wielu badań eksperymentalnych i sondażowych. Pozwala on zrozumieć, jak ludzie „zarażają się” hejtem.

Prof. Michał Bilewicz z Wydziału Psychologii UW kierował pracami ekspertów, którzy zbadali zastosowanie mechanizmów sztucznej inteligencji do zwalczania mowy nienawiści i agresji w sieci. W czasopiśmie „Aggressive Behavior” ukazała się publikacja opisująca te badania. Epidemiczny model mowy nienawiści powstał w ramach projektu Sonata Bis Narodowego Centrum Nauki.

 

Pogarda zamiast empatii

─ Z modelu wynika, że kontakt z mową nienawiści odmienia ludzi na trzy sposoby. Po pierwsze, zmieniają się ich emocje. Zamiast empatii wobec obcych zaczyna dominować pogarda. Tracimy zatem zdolność do współodczuwania. Po drugie, zmieniają się zachowania ─ z czasem sami zaczynamy używać takiego języka. Tracimy poczucie, że zawiera on jakąkolwiek agresję. Po trzecie, zmieniają się nasze przekonania dotyczące norm. Skoro widzimy w otoczeniu tak dużo hejtu, to zaczynamy traktować taki sposób zwracania się do innych jako normę. W efekcie hejt zaczyna dominować w naszych interakcjach i kolejni ludzie „zarażają się” nim – mówi prof. Michał Bilewicz.

 

Naukowcy zaczęli zastanawiać się, czy można ten proces odwrócić. ─ Podjęliśmy współpracę z organizacjami pozarządowymi, zajmującymi się uchodźcami, np. z inicjatywą Chlebem i Solą czy Fundacją Ocalenie, z którymi wspólnie stworzyliśmy warsztaty i kampanie w internecie, próbujące przywrócić ludziom zdolność do odczuwania empatii, co w efekcie powinno powstrzymać epidemię mowy nienawiści ─ wyjaśnia prof. Bilewicz.

 

Walczący bot

Psycholodzy z UW rozpoczęli również współpracę ze start-up’em technologicznym Samurai Labs, zajmującym się tworzeniem mechanizmów ograniczających agresję i zachowania problemowe w grach komputerowych, w których zdarza się, że uczestnicy, komunikując się ze sobą, krzywdzą się słowami. Naukowcy postanowili wykorzystać doświadczenia ekspertów z Samurai Labs w tworzeniu automatycznych technologii wczesnego reagowania na agresję w sieci.

 

─ Wspólnie wypracowaliśmy psychologiczny model oddziaływania na hejterów. Przetestowaliśmy go w społeczności reddita, medium społecznościowym, w którym ludzie dyskutują na interesujące ich tematy. Na jednym z kanałów reddita, znanym z seksistowskich odzywek i mowy nienawiści wobec kobiet, pojawił się nowy użytkownik. Ten użytkownik w rzeczywistości był botem, czyli kontem opartym na mechanizmach sztucznej inteligencji. Gdy tylko bot „namierzył” hejtera, to w sposób bardzo grzeczny i pełen empatii komunikował swoją dezaprobatę dla nienawistnej wypowiedzi ─ wyjaśnia naukowiec.

 

Jak podkreśla prof. Bilewicz, bot stosował kilka możliwych oddziaływań ─ niektóre z nich odwoływały się do norm, wskazując na to, jaki jest właściwy sposób komunikowania się w mediach społecznościowych. Inne zaś odwoływały się do empatii, próbując uświadomić uczucia, jakie mogą odczuwać ofiary hejtu.

 

Badacze sprawdzili aktywność hejterów miesiąc po kontakcie z botem i miesiąc przed kontaktem z nim. Porównali także hejterskie konta do innych tego typu kont, które nie natrafiły na bota. Na tej podstawie zauważyli, że niezależnie od tego, czy bot komunikował normy, czy też odwoływał się do empatii ─ jego oddziaływania skutecznie obniżały nienawistną aktywność w sieci.

 

Z eksperymentu wynika, że osoby używające mowy nienawiści rzadko trafiają na kogoś, kto w grzeczny i empatyczny sposób wyrazi wobec nich dezaprobatę. ─ Zwykle, gdy w codziennym życiu trafiamy na hejtera, to ignorujemy go albo konfrontujemy się ─ sami używając agresywnego języka. Okazuje się jednak, że spokojne wyrażenie dezaprobaty może skłonić autora nienawistnych wypowiedzi do refleksji. Wyniki badań sugerują, że warto grzecznie zwracać uwagę, gdy tylko spotkamy się z hejtem w sieci ─ podsumowuje prof. Michał Bilewicz.