Activision buduje SI do zwalczania trolli - dzięki danym zebranym od graczy
Firma współpracuje z profesorami Caltech.
Firma stojąca za Call of Duty wykorzystuje dane zebrane od graczy swoich najpopularniejszych produkcji, by stworzyć sztuczną inteligencję, która będzie zapobiegać trollingowi w grach multiplayer.
Activision podjęło w tym celu współpracę z Caltech, czyli Kalifornijskim Instytutem Technologii. Profesorowie i naukowcy biorą udział w dwuletnim projekcie, w trakcie którego nauczą SI wykrywania, zapobiegania i reagowania na toksyczne zachowania, a podstawą będą dane zebrane od grających w Warzone 2 i tryby sieciowe Modern Warfare 2. Zadaniem twórców Call of Duty będzie natomiast implementacja sztucznej inteligencji w swoich grach.
„Niezależnie od tego, czy jest to trolling, rasizm, seksizm, doxing, czy po prostu szeroko pojęte nękanie, internet ma duży problem ze złym zachowaniem” - wyjaśnia oświadczenie Caltech. „W miarę rozwijania globalnej sieci, szkodliwe zachowania stawały się coraz bardziej ekstremalne i stało się jasne, że moderatorzy potrzebują lepszych narzędzi do swojej dyspozycji”.
„Współpraca z Activision daje naukowcom nie tylko dostęp do danych na temat tego, jak ludzie wchodzą w interakcje w grach online, ale także do specjalistycznej wiedzy deweloperów” - czytamy w dalszej części oświadczenia. - „Projekt przyczyni się do stworzenia sztucznej inteligencji, która wykrywa nadużycia w internecie i pomoże zespołom moderacji firmy Activision w ich zwalczaniu”.
Projektem zajmą się profesor informatyki Anima Anandkumar, która wcześniej wyszkoliła sztuczną inteligencję do latania dronami i badania koronawirusów oraz Michael Alvares - profesor nauk politycznych i obliczeniowych nauk społecznych, który wykorzystał narzędzia uczenia maszynowego do badania trendów politycznych w mediach społecznościowych. Wspierać ich będzie zespół inżynierów z Activision.
Dla badaczy kluczowym zagadnieniem jest zrozumienie tego, jak gracze wchodzą między sobą w interakcje, jakiego języka używają i jakie mają uprzedzenia, co pomoże nauczyć SI rozpoznawać trolling i inne nieodpowiednie zachowania. Na razie nie jest jasne, jakie uprawnienia będzie miał algorytm. Najprawdopodobniej posłuży jedynie jako narzędzie sygnalizujące problem moderatorom, choć niewykluczone też, że maszyna dostanie pewną autonomię.