Ложка хейту. Онлайн-насильство щодо журналісток у коментарях YouTube -
Колектив авторів: Юлія Дукач та Наталія Романишин (аналіз даних та текст), Надя Кельм (дизайн), Олег Гебура (верстка).
Юлія Дукач, к.соц.н., викладачка курсу “Основи роботи з аналізу та візуалізації даних” для студентів напряму “Дослідження пам’яті та публічна історія”.
Ми дослідили, наскільки часто українські журналістки стикаються з різними проявами онлайн насильства в коментарях до їхніх відео в YouTube. Та довели, що алгоритми модерації платформи для української мови залишаються недосконалими та часто не помічають навіть ті види та прояви онлайн насильства, які порушують політики платформи.
Ми виявили, що близько 9% проаналізованих коментарів містили ознаки щонайменше одного виду онлайн насильства. Найчастіше зустрічались мова ненависті, погрози фізичним насильством та мізогінія.
Результати дослідження представили у форматі дата проєкту, який наповнили інфографіками, приємним дизайном та навіть спливаючими прикладами онлайн цькування. Все – щоб зробити не надто “цікаву” тему гендерного онлайн насильства проти журналісток, привабливішою для ширшої аудиторії.
Наше дослідження в першу чергу має підсвітити ту кількість онлайн насильства, з якою стикаються українські журналістки щодня та пояснити ширшій аудиторії на дуже конкретних даних і прикладах чому це – не про свободу слова, а навпаки про наступ на неї. Ми також хочемо донести, що немає такій опції як “просто не читати коментарі”, адже публічні форми та вияви онлайн насильства часто перетворюються на особистий тиск і погрози (аспект, який з очевидних причин не продемонстрували на даних, але акцентували в тексті, посилаючись на результати опитувань в Україні та за кордоном).
Крім цього, ми протестували можливість GPT-4o виявляти та класифікувати онлайн насильство в коментарях.
Ми проаналізували 285 000 коментарів до 2300 відео, де щонайменше одна жінка виступає в ролі ведучої або інтервʼюерки. Різні типи онлайн насильства виявляли за допомогою GPT-4o, для якого створили деталізований промпт, що містив опис кожного з десяти видів онлайн-насильства разом із характерними прикладами українською та російською мовами.
Ми від самого початку очікували, що GPT-4o погано розрізнятиме, коли цькування спрямоване проти журналісток, а коли, наприклад, проти запрошених експерток. Проте часом велика мовна модель реагувала на мову ненависті, яка не містила посилання на стать і не мала гендерно зумовленого характеру. Або виокремлювала коментарі, у яких мова ненависті була спрямована не проти журналісток чи гостей ефіру, а, наприклад, проти головних персонажів антикорупційних розслідувань чи російської армії та окупантів.
Окремим викликом стала підготовка англійської версії. Ось ви, наприклад, думали колись як можна перекласти “журнашлюх”, “журнашлюшок” та “журнашльондр” англійською щоб слова не дублювались на інфографіці? От і ми в якийсь момент зрозуміли, що краще просто додати нотатку щодо нюансів перекладу на початку тексту :)
Ми підготували цей матеріал на замовлення від ГО “Жінки в медіа” у межах проекту в партнерстві з ЮНЕСКО та за підтримки Японії. Цей матеріал став частиною більшого грантового проєкту, що включає проведення досліджень та підготовку матеріалів на тему гендерного онлайн насильствіа у сфері медіа.
Теоретичне підґрунтя для дослідження ми отримали від експерток ГО “Жінки в медіа”, які проводять подібні дослідження в форматі опитування впродовж останніх років. Наприклад, саме ці 10 видів онлайн насильства вони закладали в опитування щодо насильства проти журналісток цієї осені (результати мають бути опубліковані незабаром).
Також ми попередньо тестувати гіпотези щодо поширеності онлайн насильства проти журналісток у публічному онлайн просторі на різних платформах – для цього розпитували про подібний негативний досвід (та як на нього реагували різні платформи) членкинь фб-спільноти “Жінки в медіа”. Саме завдяки їхнім відповідям ми зрозуміли, що якісна модерація коментарів в YouTube – це скоріше стереотип. І пішли доводити це на даних.