Роль ИИ в выявлении дипфейков

Роль ИИ в выявлении дипфейков

Хотя во многих случаях дипфейки проявляются в виде безобидных мемов или умных маркетинговых кампаний, технологии дипфейков представляют собой растущий культурный, политический, экономический, социальный и деловой риск, способный причинить вред.

Последствия дипфейков вызывают тревогу: от распространения дезинформации и нанесения репутационного ущерба политическим и общественным деятелям до корпоративного шпионажа и кибератак. Растут специализированные сообщества и сайты, посвященные дипфейкам, которые даже позволяют потребителям заказывать пользовательские дипфейки.

Дипфейки — это изображения, видео и аудио, которые убедительно реальны, но на самом деле являются сфабрикованными искусственным интеллектом. Технологии глубокого обучения, машинного обучения (МО) и искусственного интеллекта (ИИ) используются для создания поддельного контента, например, для наложения лица знаменитости на тело другого человека, чтобы они говорили или участвовали в вымышленных вещах с целью обмана зрителей.

Технологии дипфейков становятся все более изощренными и позволяют преступникам изменять контекст рассказываемого повествования, что может умалить достоверность информации, которую нам предоставляют в Интернете. Поскольку дипфейки удваиваются примерно каждые шесть месяцев, вопрос о том, как идентифицировать дипфейки, становится все более важным.

Как создается дипфейк?

Видео дипфейков часто создаются с использованием вариационного автокодировщика (VAE) и алгоритма распознавания лиц. Изображения кодируются в низкоразмерные представления, которые затем декодируются обратно в изображения обученными VAE.

На практике это будет выглядеть примерно так, как этот гипотетический пример:

  • Человек хочет сделать дипфейк видео известного артиста для рекламы Суперкубка.
  • Человек использует автокодировщик, обученный на изображениях лица артиста, и другой, обученный на разных изображениях лица.
  • Учебные наборы для каждого автокодировщика можно выбрать, развернув алгоритм распознавания лиц на видео, которое фиксирует различные позы и условия освещения.
  • После обучения два отдельных кодировщика объединяются, чтобы изобразить реалистичное видео лица артиста на теле другого человека.

Прогресс отрасли для обнаружения дипфейков

По словам специалистов, определение манипулируемых медиа — это техническая задача, требующая межотраслевого сотрудничества. В последние годы распространяются инициативы, основанные на исследованиях, которые направлены на автоматическое обнаружение различных проявлений дипфейков, которые людям часто очень трудно идентифицировать.

Конкурс DeepFake Detection Challenge (DFDC), созданный AWS, Microsoft, Facebook, Партнерством по искусственному интеллекту и учеными, был проведен на Kaggle и предложил приз в размере 1 миллиона долларов исследователям со всего мира, которые могли разработать инновационные технологии, помогающие обнаруживать Deepfake и манипулируемые СМИ. Он собрал более 2000 участников и сгенерировал более 35 000 моделей обнаружения дипфейков.

Detect Fakes — это исследовательская инициатива Массачусетского технологического института. Целью которой является определение методов противодействия дезинформации, создаваемой искусственным интеллектом, и представлены видеоролики, которые побуждают участников практиковаться, если они могут отличить DeepFake от реального видео.

Исследователи из Калифорнийского университета в Беркли и Стэнфорде разработали основанный на искусственном интеллекте подход к обнаружению технологии синхронизации губ, которая способна идентифицировать 80 процентов подделок, понимая несоответствие между формой рта людей и звуками, которые они издают, когда говорят.

Microsoft выпустила коммерческий инструмент обнаружения дипфейков, который анализирует видеокадры и генерирует оценку достоверности программного обеспечения, указывающую, является ли кадр реальным или созданным ИИ. Примечательно, что доступ к нему получили различные компании, наблюдавшие за выборами в США в 2020 году.

Исследовательские группы из Intel и лаборатории Graphics and Image Computing в Бингемтонском университете разработали инструмент, который использует биологические сигналы и данные для выявления и классификации дипфейков с точностью 96 процентов. Инструмент основан на идее, что, хотя видео лица можно синтезировать, тонкие физиологические сигналы, такие как колебания частоты сердечных сокращений и кровотока, которые проявляются в изменении цвета пикселей, не могут быть легко воспроизведены.

Хотя появляются инновации для потенциальной идентификации дипфейков, большинство из них остаются на стадии исследований или разработок, и некоторые власти даже предупреждают, что может не быть долгосрочного технически обоснованного решения для дипфейков.