39% опрошенных не доверяют искусственно­му интеллекту

Пользователей беспокоят степень защиты личных данных и принимаемые машинами решения

Kомпания Salesforce, занимающаяся исследованиями рынков, провела опрос среди потребителей электронных устройств, один из пунктов которого касался оценки влияния искусственного интеллекта (ИИ) на общество. В то время как 61% опрошенных считает его положительным, 39% участников более сдержанны в своих оценках. Об исследовании сообщает онлайн-журнал The Next Web.

Дальнейшая судьба ИИ, по мнению автора статьи Анны Йоханссон, зависит от степени доверия пользователей. И задача компаний, встраивающих технологию в свой продукт, — его повысить, развеяв предубеждения и показав, как умные машины меняют и могут изменить жизнь людей в лучшую сторону. Доверие пользователей зависит от областей применения. Если автомобили с автопилотом в целом поддерживает всего 46% респондентов, то умным почтовым спам-фильтрам или программам, предотвращающим подделку кредитных карточек, доверяют уже 80%.

«Если посмотреть, как много людей планируют свое расписание, звонки и встречи при помощи смартфона или Siri, то уровень доверия показывает, что машинный интеллект и технологии стали более надежными», — отмечает Хоссейн Рахнама, основатель компании Flybits (контекстная реклама).

По результатам другого исследования, проведенного компанией Pega, треть потребителей во всем мире уверена, что компьютерная программа никогда не сможет так хорошо знать вкусы и предпочтения людей, как сами люди. Но при этом 68% пользователей готовы чаще использовать возможности ИИ, если те позволят им сэкономить время и деньги. Важным аспектом доверия к технологии в статье назван уровень защиты персональных данных пользователей, что особенно актуально на фоне скандалов с утечкой и продажей личных данных третьим лицам.

Второй важный фактор, упомянутый в статье, — это уровень открытости компаний. Высокий уровень секретности воздвигает стену между ними и потребителями, становясь почвой для домыслов. Так, например, покупатель автомобиля с автопилотом должен знать, чью жизнь машина будет в первую очередь защищать в аварийной ситуации, чтобы на основе этой информации решение мог принять уже сам водитель.

Среди тех, кто публично высказывался об опасности бесконтрольного развития ИИ — такие лидеры общественного мнения, как физик Стивен Хокинг и глава SpaceX Илон Маск.

«Я считаю, что ИИ во многом более опасен, чем ядерные боеголовки, и никто не предлагает нам позволить каждому делать ядерные боеголовки по собственному желанию», — высказался Илон Маск. Положительно относясь к машинному интеллекту с узкой специализацией (например, самоуправляемым автомобилям), предприниматель опасается универсальных незамкнутых систем, «чья вычислительная мощь в миллион раз больше».

«Думаю, нет принципиальной разницы в том, как могут развиваться биологический мозг и искусственный интеллект. А значит, в теории, могут воспроизвести человеческий интеллект — и превзойти его», — заявил Стивен Хокинг, отметив, что, научившись самостоятельно принимать решения, такой ИИ способен «положить конец человеческому роду».

Между тем, именно умная система подбора слов, обучавшаяся на статьях, лекциях и книгах Хокинга, позволила ученому общаться с внешним миром после того, как амиотрофический склероз и последствия воспаления легких лишили его возможности самостоятельно писать и говорить. Взаимодействовать с компьютером Хокинг мог с помощью одной лицевой мышцы.