Поддельные спутниковые снимки могут представлять угрозу общественной безопасности

Ученые считают, что люди должны повышать уровень грамотности в отношении геоданных

Американские ученые из Вашингтонского университета и Университета штата Орегон провели исследование, подтверждающее существование проблемы распространения поддельных геоизображений. Они создали собственные фальшивые спутниковые снимки при помощи технологий искусственного интеллекта (ИИ). Авторы эксперимента предупреждают, что по мере развития технологических инструментов фальсификация пространственных данных будет становиться все более распространенной. Люди, по мнению ученых, должны знать об этом явлении и связанных с ним рисках.

Для подделки геоизображений американские ученые использовали технологию deepfake, или дипфейк (от англ. deep learning — «глубокое обучение» и fake — «поддельный»). Это способ генерации фото-, аудио- и видеоматериалов при помощи ИИ. Чаще всего технология используется для создания медиаконтента с изображением определенного человека, обычно той или иной знаменитости. Однако ее можно применять и в географических информационных системах (ГИС). От них зависит существование многих отраслей экономики, начиная с метеорологии и сельского хозяйства и заканчивая транспортом. Как отмечает издание The Verge, поддельные геоизображения могут представлять угрозу, в том числе для национальной безопасности, так как оппоненты с их помощью могут дезинформировать друг друга.

В 2019 году аналитик Национального агентства геопространственной разведки США Тодд Майерс уже предупреждал, что дипфейки могут превратиться в геополитическое оружие. Эксперт привел в пример ситуацию, при которой злоумышленник размещает на спутниковом изображении несуществующий в реальности мост. «Вы тренируете свои войска, чтобы идти определенным маршрутом к мосту, но его там нет. Тогда вас ждет большой сюрприз», — объяснял специалист.

В своем эксперименте американские ученые использовали «круговую» генеративно-состязательную нейросеть Cycle-Consistent Adversarial Networks (CycleGAN). Это инструмент на основе неконтролируемого машинного обучения (англ. Unsupervised Machine Learning). Он позволяет переносить элементы с одного изображения на другое — например, заменить яблоко на фото на апельсин. Ученые взяли спутниковые изображения города Такомы (штат Вашингтон) и нанесли на них элементы со снимков Сиэтла (штат Вашингтон, похож на Такому по топографии и землепользованию) и Пекина (Китай, не похож). Получившееся изображение, по их словам, было максимально реалистичным. Затем они изучили 26 различных характеристик сгенерированного снимка, чтобы понять, насколько он отличается от подлинников. В частности, они обнаружили разницу в цвете крыш: если на реальных изображениях он был однородным, то на фальшивом — пятнистым. Ненастоящий «снимок» также был более тусклым, но при этом имел более четкие контуры.

Специалисты подчеркивают, что цель работы состоит не в том, чтобы поощрять людей проводить подобные эксперименты самостоятельно. Наоборот, они хотели доказать, что спутниковые снимки не всегда являются надежным источником информации и что их подделка может нанести вред людям. «Поскольку большинство спутниковых изображений создается профессионалами или правительствами, общественность обычно предпочитает верить, что они подлинные», — говорит один из авторов исследования Бо Чжао. Работа опубликована в журнале Cartography and Geographic Information Science.

В будущем ученые надеются научиться проверять изображения на достоверность, чтобы обнаруживать подделки. Они отмечают, что их работа может служить своего рода предупреждением о том, что в будущем дипфейки могут получить широкое распространение в геоинформатике — науке, изучающей различные аспекты применения ГИС. В связи с этим, по их мнению, важно повышать уровень грамотности в отношении геоданных, а также понимать, какое воздействие фальсификация может оказывать на общество.

Подписывайтесь на канал +1 в Яндекс.Дзен.

Автор

Евгения Чернышёва