Еврокомиссия призвала маркировать созданный искусственным интеллектом контент

Европейские чиновники требуют от технологических компаний минимизировать потенциальный ущерб от дезинформации, которую производят и распространяют при помощи инструментов искусственного интеллекта (ИИ). Власти Евросоюза уже обсуждают закон о регулировании ИИ, однако он вряд ли вступит в силу раньше 2026 года.

У новых технологий искусственного интеллекта есть темные стороны, несущие новые риски и негативные последствия для общества, заявила вице-президент Европейской комиссии Вера Юрова.

«Новые технологии ставят новые задачи в борьбе с дезинформацией», — цитирует Bloomberg Веру Юрову.

По ее словам, часть крупных IT-компаний поддержали добровольный свод правил ЕС по борьбе с дезинформацией, который в том числе обязывает онлайн-платформы «четко маркировать» любые сервисы, способные распространять созданные ИИ-фейки. Добровольные правила ЕС среди прочих одобрили Microsoft и TikTok.

Вера Юрова отметила, что подписавшие стороны, которые интегрируют генеративный ИИ в свои сервисы, такие как чат Bing для Microsoft и Bard для Google, теперь также должны «предусмотреть необходимые меры безопасности, чтобы эти сервисы не могли использоваться злоумышленниками для создания дезинформации».

Евросоюз уже разрабатывает юридически обязывающие правила для использования генеративного (способного создавать оригинальный контент) ИИ. Соответствующий закон вынесут на голосование пленарного заседания Европарламента в середине июня. Но даже если институты ЕС согласятся с окончательным вариантом к концу этого года, нормативы вряд ли вступят в силу раньше 2026 года.

Одновременно с Еврокомиссией в Госдуме РФ заявили о начале работы над концепцией закона о маркировке контента от нейросетей, включая дипфейки.

«Мы приступили к разработке концепции законопроекта о маркировке генеративного контента. Изучаем законодательный опыт других стран, консультируемся с экспертами, работаем над формулировками базовых дефиниций. Цель законопроекта — снизить риски использования продуктов, созданных при помощи технологий искусственного интеллекта. В частности, так называемых дипфейков», — заявил ТАСС зампредседателя Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.

Ранее Plus-one.ru рассказывал об открытом письме общественной организации Центр безопасности ИИ об угрозах бесконтрольного развития искусственного интеллекта. Обращение поддержали более 100 крупнейших экспертов в сфере ИИ, включая специалистов из Microsoft, Google и OpenAI.

Подписывайтесь на наш канал в Telegram

Автор

Артём Новиков