ГлавнаяОбществоМаркировка дипфейков открывает путь к прозрачному медиапространству

Маркировка дипфейков открывает путь к прозрачному медиапространству

Маркировка дипфейков открывает путь к прозрачному медиапространству-0
Источник: naked-science.ru

Генеративные нейросети создают тексты, изображения и видео, которые всё сложнее отличить от подлинных материалов. Производство синтетического контента стало высокодоходной отраслью: аналитики оценивают годовой оборот даже низкокачественных ИИ-роликов в 117 миллионов долларов. Лидер направления — индийский видеоканал — получил за год свыше четырёх миллионов. Стремительное развитие рынка искусственных медиа несёт риски для общества: от компрометации публичных лиц до эрозии доверия к видеодоказательствам в правовой системе.

В ответ на вызов законодатели внедряют стратегии открытости. Например, европейские нормативы обязывают маркировать нейросетевой контент. Логика основана на гипотезе: предупреждённый человек проигнорирует подделку. Однако исследования феномена ложной информации демонстрируют противоположные результаты.

Для чистоты эксперимента учёные разработали оригинальные дипфейки, исключив фактор узнаваемости. Создали два сценария: чиновник, признающийся во взяточничестве, и веган-блогер, рассказывающий о мясной диете.

В исследовании участвовали 600 добровольцев из США и Великобритании. Участники просматривали разные материалы: подлинные записи с актёрами, нейросетевые подделки с заменой лиц или полностью сгенерированные ролики. Части зрителей показывали общие предупреждения о существовании дипфейков, другим — конкретные маркеры: «Видео идентифицировано как дипфейк». После просмотра респонденты оценивали достоверность контента и виновность персонажей.

Результаты показали: знание о подделке не нейтрализует её воздействия. Участники с конкретными предупреждениями точнее определяли фейки, но сохраняли уверенность в виновности героев. Даже осознавая искусственное происхождение, зрители использовали увиденное для моральных оценок.

Общие уведомления вызвали неожиданный эффект: они не улучшили распознавание подделок, но снизили доверие ко всему видеоконтенту. Зрители сомневались даже в аутентичных записях, что подтверждает риск подрыва доверия к видео как источнику информации.

Маркировка и прозрачность не стали надёжной защитой от дезинформации. Визуальные образы формируют мнение вопреки рациональному знанию о генерации. Обществу предстоит найти более эффективные решения, поскольку простые метки не устраняют последствия реалистичных подделок.

Источник: naked-science.ru

Познавательное