Ubisoft і Riot Games об'єднають зусилля боротьби з негативною поведінкою в іграх. На першому етапі компанії зберуть знеособлені дані, щоб створити штучний інтелект, який зможе визначати та видаляти токсичні повідомлення.
Виконавчий директор відділу досліджень та розробок Ubisoft La Forge Ів Жак'є (Yves Jacquier)
Проект назвали «Нульова шкода в комунікаціях» (Zero Harm in Comms). Фахівці обох студій працюють над ним близько півроку. Перші результати хочуть надати індустрії у 2023 році.
Наприкінці вересня проти токсичності висловилася Respawn Entertainment. Розробники розповіли про погрози на свою адресу з боку гравців.