Система ИИ Facebook не распознала трансляцию теракта в Новой Зеландии

До блокировки видео, содержащее сцены убийств, успело набрать 4 тыс. просмотров

Фото: flickr.com/Geoff Trotter

Система искусственного интеллекта (ИИ) Facebook, предназначенная для распознавания нежелательного контента, не смогла вовремя идентифицировать 17-минутную видеотрансляцию нападения на мечети города Крайстчерч в Новой Зеландии, сообщает Techcrunch. В то время, как преступник начал стрельбу и вел онлайн-трансляцию с нашлемной камеры GoPro, видео набрало 200 просмотров. Впоследствии пользователи Facebook посмотрели видео 4 тыс. раз до того, как оно было удалено из социальной сети.

Согласно заявлениям компании, никто из пользователей, наблюдавших расстрел в реальном времени, не пожаловались на характер контента, что могло бы ускорить удаление видео из сети.

Представители Facebook сказали, что в первые сутки после появления трансляции, из соцсети было удалено 1,5 млн записей расстрела. Из них 1,2 млн были идентифицированы и заблокированы на этапе загрузки пользователями. Это говорит о том, что система ИИ не смогла распознать 300 тыс. видео, содержавшего сцены насилия.

Помимо социальной сети, запись также распространялась в WhatsApp и Instagram, которыми владеет Facebook. Видео было доступно и в YouTube и Twitter.

По данным Techcrunch, видео продолжало распространяться в социальной сети на протяжении 12 часов после атаки на мечети. Ряд мировых лидеров призывали Facebook немедленно предпринять действия и прекратить распространение нежелательного контента. Премьер-министр Новой Зеландии Джасинда Ардерн подчеркнула, что запись ни в коем случае не должна распространяться и находиться в открытом доступе. Она отметила, что правительство страны ведет переговоры с Facebook, но, по ее мнению, компания не предпринимает должных действий.

В своем выступлении перед парламентом Ардерн отметила: «Мы не можем сидеть сложа руки и соглашаться с тем, что эти платформы существуют, а все там опликованное не является ответственностью этих компаний. Они являются издателями, а не просто почтальонами».

Согласно заявлениям Facebook, системы ИИ не смогли вовремя распознать видео атаки из-за того, что их обучают на больших объемах похожего контента. Так как подобные нападения случаются редко, технология оказалась не в состоянии распознать нежелательное видео. В качестве другой причины вице-президент Facebook по регулированию в отношении продуктов Гай Розен назвал сходство видео нападения и визуально похожего контента вроде видеоигр, которые пользователи также транслируют в прямом эфире. По его словам, системам ИИ все еще трудно распознать разницу.

25 марта стало известно, что французский совет по делам мусульманского вероисповедания подал в суд на Facebook и YouTube из-за того, что на их платформах транслировали видео с массовым убийством в Новой Зеландии. Организация обвинила соцсети в том, что им понадобилось слишком много времени для блокировки записи, которую могли видеть несовершеннолетние. Законодательство Франции предусматривает наказание в виде трех лет лишения свободы и штрафа €75 тыс.