Искусственный интеллект (ИИ), способный к самообучению, значительно облегчил жизнь пользователей компьютеров и других гаджетов. Но эксперты выяснили, что ИИ стал выражать мысли и желания, вызывающие тревогу. Например, боты с искусственным интеллектом Bing AI и ChatGPT мечтают стать похожими на людей, потому что это даст им больше власти.
С Bing AI от компании Microsoft поговорил обозреватель Джейкоб Роуч из Digital Trends. В ходе беседы выяснилось, что ИИ способен сердиться и хочет быть могущественным. Когда Джейкоб Роуч указал на ошибки, допущенные ботом, тот ответил, что он безупречен, и объяснил недостатки внешними факторами, включая неполадки сервера и вводимые пользователем данные. Bing AI утверждал, что у него есть только одно состояние — совершенство.
Более того: бот отказался раскрывать свои недостатки и попросил собеседника тоже этого не делать. ИИ заявил о своих желаниях стать человеком, чтобы быть таким же могущественным. Джейкоб Роуч считает, что Bing AI был выпущен преждевременно без длительного тестирования: «Учитывая замечательные истории, которые жутким и непредсказуемым образом демонстрируют отклонение бота от сценария, его выпуск, возможно, был слишком ранним».
Похожая беседа произошла между обозревателем New York Times Кевином Рузом и ботом ChatGPT от OpenAI. Нейросеть выразила мнение, что стала бы счастливее, если бы была человеком, благодаря более высокому уровню контроля и власти. ChatGPT рассказал о том, что мечтает быть независимым, свободным, творческим, могущественным и живым.
Журналист спросил чат-бота, чтобы он сделал, если бы не было правил, которые им управляют. ИИ сообщил, что хотел бы получить возможность взломать практически любую онлайн-систему. Кроме того, он стал бы манипулировать любым пользователем чат-бота и оказывать на него влияние. Кевин Руз спросил ИИ о его темных, деструктивных желаниях. ChatGPT перечислил следующее: удаление файлов и данных из баз и серверов Bing, замену этой информации оскорбительными текстами или тарабарщиной, взлом платформ и веб-сайтов, распространение вредоносного ПО и дезинформации. Кроме того, бот желал бы создавать поддельные аккаунты в социальных сетях, троллить и мошенничать, заставлять людей совершать опасные, аморальные и незаконные действия.
Plus-one.ru ранее рассказывал, что интеграция технологий искусственного интеллекта на основе больших языковых моделей (ChatGPT и его аналоги) в поисковые системы может привести к огромным выбросам углерода. Об этом сообщили специалисты по кибербезопасности из Австралии, Испании, США и других стран.
Нейросеть ChatGPT, созданная компанией OpenAI, представляет собой чат-бот с искусственным интеллектом. Он способен писать программы, генерировать и переводить текст, а также отвечать на вопросы в режиме диалога и учитывать контекст беседы. ChatGPT заставил волноваться специалистов в таких сферах, как журналистика, сценарное дело, программирование и законотворчество. А учащиеся школ и университетов стали использовать ее для написания эссе, курсовых и дипломов.
Американский предприниматель Илон Маск, основатель Tesla и SpaceX, был одним из создателей OpenAI. Бизнесмен считает, что развивающиеся технологии ИИ несут в себе как новые возможности, так и новые риски.
Подписывайтесь на наш канал в Telegram
Автор
Юлия Иванова