2021-12-10 16:14 |
«Блокнот» рассказывает о современных технологиях и предупреждает, что использовать их могут мошенники.
В современном мире никого не удивишь фотографией, обработанной с помощью фотошопа, — политики таким образом убирают дорогие часы, а звезды — лишние килограммы. А вот видео с цифровым двойником — новый тренд, «Блокнот» рассказывает, кто и зачем использует подобные технологии.
Дипфейк — это технология, позволяющая с помощью машинного обучения моделировать поведение и внешность человека на видеозаписи. Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»).
Фейковые видео могут быть вполне легальными. Лондонский стартап Synthesia занимается созданием видеоаватаров реальных людей. В основном — для корпоративных видеороликов, а также для общения с клиентами и внутреннего обучения. Например, британская компания Ernst & Young (EY) уже использует видеоаватары для общения сотрудников с клиентами вместо личных встреч.
Дипфейк — это технология, позволяющая с помощью машинного обучения моделировать поведение и внешность человека на видеозаписи. Фото: pixabay.com
Видео создаются на основе записи человека, где он запечатлен с разных ракурсов — алгоритмы учатся на данных о мимике и голосе человека, чтобы затем их скопировать. Цифровая копия может воспроизвести текст любого объема, а также на разных языках — это помогает в общении с иностранными партнерами. В Ernst & Young делают копии только тех сотрудников, которые дали на это согласие.
А что закон?
Эксперты уверены, что через 10-15 лет сгенерированные нейросетями видео станут повседневными. Правда, есть опасность, что такие ролики будут использовать мошенники. В фантастических фильмах уже показано такое — в блокбастере Федора Бондарчука «Вторжение» дипфейки использовали инопланетяне, чтобы натравить землян на главную героиню картины.
В большинстве
стран мира не существует четкого
регулирования дипфейков, хотя об их
опасности говорят повсеместно.
В Китае с 2020 года запрещено публиковать дипфейки без специальных пометок, это считается уголовным преступлением. Похожий закон принят в штате Калифорния — он запрещает публиковать аудио, видео и изображения, которые могут повлиять на восприятие слов или действий политиков.
В ряде стран за дипфейк без пометки могут наказать. Фото: pixabay.com
В России есть закон о фейках, теоретически он может быть распространен и на фейковые видео, но только в том случае, если информация, распространяемая с его помощью, угрожает жизни, здоровью, безопасности, общественному порядку, а также работе важных объектов (например, транспорта, больниц и банков).
В Японии наказывают за дипфейки — в октябре 2021 года там возбудили уголовное дело за создание дипфейк-порно. Мужчина с помощью технологий заменял размытые гениталии (такое требование есть в японском законодательстве) на неразмытые, а получившиеся видео продавал. Японец заработал почти $100 тыс., но теперь у него проблемы с законом.
Дипфейки уже ближе, чем кажется
Дипфейки активно используют во всем мире во время презентаций, а также в индустрии развлечений. Например, компания Nvidia во время одной из презентаций использовала технологии подмены образа генерального директора Дженсена Хуанга. Его заменили на 14 секунд и зрители так и не узнали бы об этом, если бы компания сама не рассказала.
В TikTok стали популярными ролики с цифровой копией Тома Круза, созданной искусственным интеллектом. Их разработал бельгийский специалист по визуальным эффектам Кристофер Уме, который основал собственную студию дипфейк-технологий Metaphysic. Студия создает различные визуальные эффекты для крупных заказчиков.
В августе этого года в рунете стал вирусным ролик о выборах с министром иностранных дел РФ Сергеем Лавровым, главврачом больницы №40 в Еоммунарке Денисом Проценко и министром обороны РФ Сергеем Шойгу. В действительности в съемках ролика они не участвовали, использовались их цифровые копии.
В 2020 году в Великобритании жителей страны с новым годом поздравляли сразу две королевы. Настоящая произнесла речь на BBC, а фейковая — на канале Channel 4. Руководство канала заявило, что их акция призвана проинформировать людей о том, как далеко вперед продвинулись современные технологии, и как широки стали их возможности для дезинформации.
Американская компания RepresentUS выпустила в 2020 году два ролика с цифровыми копиями двух мировых лидеров - президента РФ Владимира Путина и главы КНДР Ким Чен Ына. В роликах политические деятели критикуют демократический строй США и заявляют, что они не будут вмешиваться в президентские выборы. Правда, голос фейкового Путина не похож на настоящий.
В 2018 году в интернете появилось поддельное видео с Бараком Обамой, который критиковал действующего на тот момент президента США Дональда Трампа. Роль Обамы в действительности исполнил комик и режиссер Джордан Пил.
Как выявить дипфейк
Но кроме развлечений, такие видео могут быть использованы мошенниками — например, для шантажа или введения в заблуждение.
«Пока технология не идеальна. Искусственный интеллект не умеет создавать 3D-модели лиц, а лишь работает с двухмерными изображениями — пытается их повернуть, изменить размер или исказить и так далее, — отметил Павел Коростелев, эксперт компании «Код безопасности». — Стоит обращать внимание на различные артефакты изображения: мерцания, слишком гладкую кожу, явное искажение границ. Microsoft представила для этого инструмент Video Authenticator».
В «Лаборатории Касперского» также советуют обращать внимание на характерные признаки подделки: неровные движения, перемены в освещении соседних кадров, различия в оттенках кожи. Если человек на видео моргает странно или не моргает вообще, то велика вероятность того, что это фейк. Также признаками дипфейка являются плохая синхронизация движения губ с речью и цифровые артефакты в изображении — например, излишняя пикселизация.
Ранее «Блокнот»
рассказывал о том, что
власти определились с фейками о
коронавирусе, за которые будут карать
россиян. Среди них — искажение
статистики, ложь о смертях после прививки,
а также теории заговора и чипизация
населения с помощью вакцин. За
распространение такой информации
физическим лицам и СМИ будет грозить
уголовная ответственность и административные
штрафы. Мониторингом соцсетей и
мессенджеров сейчас занимается
Росздравнадзор — посты антипрививочников
ищут в популярных соцсетях.
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на bloknot.ru