Искусственный интеллект не применим в сфере филантропии

По мнению британского эксперта, технология может усугубить неоколониальные тенденции

Используя искусственный интеллект (ИИ), гуманитарные организации могут усугубить неоколониальные тенденции (изначально термин, обозначающий вмешательство развитых стран в дела развивающихся — прим. «+1»), считает преподаватель творческих и социальных вычислений в Голдсмитском колледже при Лондонском университете Дэн МакКилан. Такое мнение эксперт выразил в материале, опубликованном на портале The Conversation.

Как пишет специалист, искусственный интеллект используется для анализа эхокардиограмм (метод исследования изменений сердца), чтобы предугадывать заболевание сердца; на рабочих местах, чтобы понять, собирается ли уйти сотрудник, для анализа социальных медиа, чтобы выявить первые признаки депрессии или суицидальных настроений. «Единственная сфера, которой пока не коснулся ИИ, — гуманитарная. Но там его тоже будут применять. Почему? Потому что ИИ позволит ответить на центральные вопросы: кого мы должны спасать и как быть эффективным при масштабной работе?», — размышляет МакКилан.

Как считает эксперт, машинное обучение и ИИ помогают понять масштаб той или иной задачи и дают обоснованные прогнозы. В то же время технология может усугубить существующие проблемы и создаст новые. Во-первых, машинное обучение может усилить дискриминацию, так как при анализе зачастую использует данные из социальных сетей, пользователи которых зачастую предвзяты. Во-вторых, алгоритм принимает решение на основе корреляций (статистическая взаимосвязь двух или более случайных величин), а не исходя из реально существующих причин. Работа ИИ непрозрачна и сопровождается алгоритмическими искажениями.

«Все данные могут быть обработаны при помощи алгоритмов машинного обучения. Все, что может быть сведено к числам и проанализировано, может быть использовано для создания модели. Уравнения не знают или не думают о том, подставляют ли в них цифры от продаж Amazon или жертв землетрясения», — констатирует МакКилан.

Специалист обратил внимание, что нейтральность и универсальность алгоритмов утверждает превосходство абстрактных знаний. «Модели, создаваемые машинным обучением, сложно соотносить с человеческими умозаключениями. Почему ИИ назвал этого человека как неподходящего для условно-досрочного освобождения? Что показывает конкретная модель? Мы не можем сказать: непрозрачность в корне самого метода. Технология не дополняет действия человека, а искажает их», — заметил эксперт.

По мнению МакКилана, машинное обучение и ИИ пока не пригодны для использования в гуманитарной сфере, так как посредством алгоритмического искажения будут усиливать «и без того глубоко неоколониальные и неолиберальные тенденции гуманитарных учреждений».