ВОЗ призвала с осторожностью относиться к ИИ ради безопасности людей

Всемирная организация здравоохранения (ВОЗ) призывает проявлять осторожность при использовании инструментов большой языковой модели (LLM), созданных искусственным интеллектом (ИИ). Это необходимо для защиты и продвижения благополучия, безопасности и автономии человека, а также сохранения общественного здоровья, утверждают в ВОЗ.

К LLM относятся некоторые из наиболее быстро развивающихся платформ, таких как ChatGPT, Bard и другие решения, имитирующие человеческое общение и позволяющие генерировать контент на основе собственных алгоритмов.

«Их стремительное публичное распространение и растущее экспериментальное использование в целях, связанных со здоровьем, вызывает значительный интерес в связи с потенциалом поддержки потребностей людей в области здравоохранения», — отметили в ВОЗ.

Вместе с тем во Всемирной организации здравоохранения обеспокоены тем, что инструменты на основе больших лингвистических моделей для медицинских целей могут не отвечать таким ключевым ценностям как прозрачность, инклюзивность, общественный и экспертный надзор.

В ВОЗ перечислили проблемы, требующие особого внимания. Среди них объективность данных, используемых для обучения ИИ, проверка ответов LLM на вопросы о здоровье на достоверность, обеспечение конфиденциальности информации и борьба с фейками, сгенерированными ИИ.

«ВОЗ предлагает рассмотреть эти опасения и получить четкие доказательства пользы ИИ-технологий перед их широким использованием в повседневном здравоохранении и медицине частными лицами, поставщиками медицинских услуг, администраторами системы здравоохранения и чиновниками», — добавили в ВОЗ.

Ранее Plus-one.ru рассказывал о призыве президента США к IT-корпорациям Google и Microsoft сделать ИИ-разработки более прозрачными и безопасными на фоне продолжающейся дискуссии о перспективах и угрозах, исходящих от искусственного интеллекта. В то же время глава компании Apple Тим Кук высказался в поддержку ИИ, назвав потенциал технологии огромным.

Подписывайтесь на наш канал в Telegram

Автор

Артём Новиков