Skip to main content

Activision buduje SI do zwalczania trolli - dzięki danym zebranym od graczy

Firma współpracuje z profesorami Caltech.

Firma stojąca za Call of Duty wykorzystuje dane zebrane od graczy swoich najpopularniejszych produkcji, by stworzyć sztuczną inteligencję, która będzie zapobiegać trollingowi w grach multiplayer.

Activision podjęło w tym celu współpracę z Caltech, czyli Kalifornijskim Instytutem Technologii. Profesorowie i naukowcy biorą udział w dwuletnim projekcie, w trakcie którego nauczą SI wykrywania, zapobiegania i reagowania na toksyczne zachowania, a podstawą będą dane zebrane od grających w Warzone 2 i tryby sieciowe Modern Warfare 2. Zadaniem twórców Call of Duty będzie natomiast implementacja sztucznej inteligencji w swoich grach.

Niezależnie od tego, czy jest to trolling, rasizm, seksizm, doxing, czy po prostu szeroko pojęte nękanie, internet ma duży problem ze złym zachowaniem” - wyjaśnia oświadczenie Caltech. „W miarę rozwijania globalnej sieci, szkodliwe zachowania stawały się coraz bardziej ekstremalne i stało się jasne, że moderatorzy potrzebują lepszych narzędzi do swojej dyspozycji”.

Współpraca z Activision daje naukowcom nie tylko dostęp do danych na temat tego, jak ludzie wchodzą w interakcje w grach online, ale także do specjalistycznej wiedzy deweloperów” - czytamy w dalszej części oświadczenia. - „Projekt przyczyni się do stworzenia sztucznej inteligencji, która wykrywa nadużycia w internecie i pomoże zespołom moderacji firmy Activision w ich zwalczaniu”.

Projektem zajmą się profesor informatyki Anima Anandkumar, która wcześniej wyszkoliła sztuczną inteligencję do latania dronami i badania koronawirusów oraz Michael Alvares - profesor nauk politycznych i obliczeniowych nauk społecznych, który wykorzystał narzędzia uczenia maszynowego do badania trendów politycznych w mediach społecznościowych. Wspierać ich będzie zespół inżynierów z Activision.

Dla badaczy kluczowym zagadnieniem jest zrozumienie tego, jak gracze wchodzą między sobą w interakcje, jakiego języka używają i jakie mają uprzedzenia, co pomoże nauczyć SI rozpoznawać trolling i inne nieodpowiednie zachowania. Na razie nie jest jasne, jakie uprawnienia będzie miał algorytm. Najprawdopodobniej posłuży jedynie jako narzędzie sygnalizujące problem moderatorom, choć niewykluczone też, że maszyna dostanie pewną autonomię.

Zobacz także