Дипфейк: различия между версиями

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
[отпатрулированная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
Спасено источников — 2, отмечено мёртвыми — 0. Сообщить об ошибке. См. FAQ.) #IABot (v2.0.9.5
Пример использования дипфейков
Метки: через визуальный редактор с мобильного устройства из мобильной версии
(не показано 14 промежуточных версий 10 участников)
Строка 12: Строка 12:
| archivedate=2018-06-15
| archivedate=2018-06-15
| archiveurl=https://web.archive.org/web/20180615160819/http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html
| archiveurl=https://web.archive.org/web/20180615160819/http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html
}}</ref> — [[методика]] [[синтез]]а [[Цифровое изображение|изображения]], основанная на [[Искусственный интеллект|искусственном интеллекте]].
}}</ref> — [[методика]] [[синтез]]а [[Цифровое изображение|изображения]] или голоса, основанная на [[Искусственный интеллект|искусственном интеллекте]].


== Технология ==
'''Мето́дика си́нтеза изображе́ния''' используется для соединения и наложения существующих изображений и [[Видеоклип|видео]] на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют [[генеративно-состязательные нейросети]] (GAN). Одна часть [[алгоритм]]а учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом<ref>{{Статья|автор=Евгения Созанкова|заглавие=Дипфейки: как нейросети копируют реальность|ссылка=https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/|язык=|издание=screenlifer.com|тип=|год=2019|месяц=|число=|том=|номер=|страницы=|issn=|archivedate=2019-09-02|archiveurl=https://web.archive.org/web/20190902203348/https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/}}</ref>.


=== Синтез изображения ===
== История ==
'''Мето́дика си́нтеза изображе́ния''' используется для соединения и наложения существующих изображений и [[видео]] на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют [[генеративно-состязательные нейросети]] (GAN). Одна часть [[алгоритм]]а учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом<ref>{{Статья|автор=Евгения Созанкова|заглавие=Дипфейки: как нейросети копируют реальность|ссылка=https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/|язык=|издание=screenlifer.com|тип=|год=2019|месяц=|число=|том=|номер=|страницы=|issn=|archivedate=2019-09-02|archiveurl=https://web.archive.org/web/20190902203348/https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/}}</ref>.
Дипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых [[Порнография|порнографических видео]] со знаменитостями или для порно-мести<ref name="HighSnobiety2018">{{Cite news

Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени<ref name="Thi2016">{{cite web
| last = Thies
| first = Justus
| title = Face2Face: Real-time Face Capture and Reenactment of RGB Videos
| work =
| publisher = Proc. Computer Vision and Pattern Recognition (CVPR), IEEE
| url = http://www.niessnerlab.org/projects/thies2016face.html
| doi =
| accessdate = 2018-02-24
| archive-date = 2018-02-26
| archive-url = https://web.archive.org/web/20180226103024/http://niessnerlab.org/projects/thies2016face.html
| deadlink = no
}}</ref>. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — [[Microsoft Video Authenticator]], программное обеспечение, которое позволяет определить вмешательство в видео<ref>{{Cite web|lang=en-US|url=https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|title=New Steps to Combat Disinformation|website=Microsoft On the Issues|date=2020-09-01|accessdate=2020-12-26|archive-date=2020-12-24|archive-url=https://web.archive.org/web/20201224190016/https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|deadlink=no}}</ref>. Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как [[YouTube]] или [[Vimeo]]. Популярной программой является FakeApp<ref>{{Cite news|url=http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let|title=FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!|date=2018-01-25|work=Reason.com|access-date=2018-03-24|language=en|accessdate=2019-04-25|archivedate=2018-03-22|archiveurl=https://web.archive.org/web/20180322101607/http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let}}</ref>, использующая [[TensorFlow]]<ref>{{Cite news|url=https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping|title=I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it|work=The Verge|access-date=2018-03-24|accessdate=2019-04-25|archivedate=2018-03-24|archiveurl=https://web.archive.org/web/20180324223908/https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping}}</ref>.

=== Голосовые дипфейки ===
Используя модифицированный алгоритм [[синтез речи|преобразования текста в речь]] и обработку компьютером аудиозаписей речи того или иного человека, возможно «подделать» голос этого человека. Так создаются голосовые дипфейки. С помощью этой технологии возможно адаптировать голоса актёров при локализации фильмов, создавать естественную речь для людей, утративших возможность говорить, начитывать аудиокниги для детей голосами родителей, подстраивать речь под определённый акцент, создавать реалистичные видеоаватары — личности для [[голосовой ассистент|голосовых ассистентов]]. Впрочем, эта технология может также использоваться и злоумышленниками для обмана, дискредитации или дезинформации<ref>[https://go.zvuk.com/v-trende/ne-obmanut-lish-stanislavskogo-chto-takoe-dipfeik-audio-i-zachem-nam-ono.htm Не обмануть лишь Станиславского: Что такое дипфейк-аудио и зачем нам оно] {{Wayback|url=https://go.zvuk.com/v-trende/ne-obmanut-lish-stanislavskogo-chto-takoe-dipfeik-audio-i-zachem-nam-ono.htm |date=20230901123825 }}.</ref><ref>[https://www.kaspersky.ru/blog/audio-deepfake-technology/35694/ Не верь ушам своим: Голосовые дипфейки] {{Wayback|url=https://www.kaspersky.ru/blog/audio-deepfake-technology/35694/ |date=20230901123825 }}.</ref><ref>[https://www.audiomania.ru/content/art-7395.html Кто занимается дипфейк-аудио и зачем это нужно] {{Wayback|url=https://www.audiomania.ru/content/art-7395.html |date=20230901123826 }}.</ref><ref>[https://www.techinsider.ru/technologies/1557391-vot-kak-raspoznat-dipfeykovyy-golos-uchenye-nashli-prostoy-sposob/ Дипфейки вокруг нас: Как учёные нашли способ распознать поддельный голос] {{Wayback|url=https://www.techinsider.ru/technologies/1557391-vot-kak-raspoznat-dipfeykovyy-golos-uchenye-nashli-prostoy-sposob/ |date=20230901123826 }}.</ref>.

== Применение ==

=== Фальсификация ===
Дипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания [[Фальшивая порнография|фальшивых]] [[Порнография|порнографических видео]] со знаменитостями или для порно-мести<ref name="HighSnobiety2018">{{Cite news
| url=https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/
| url=https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/
| title=What Are Deepfakes & Why the Future of Porn is Terrifying
| title=What Are Deepfakes & Why the Future of Porn is Terrifying
Строка 27: Строка 49:
| archivedate=2021-07-14
| archivedate=2021-07-14
| archiveurl=https://web.archive.org/web/20210714032914/https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/
| archiveurl=https://web.archive.org/web/20210714032914/https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/
}}</ref>. Среди всех видео с применением данной технологии [[Фальшивая порнография|порно-дипфейки]] составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц<ref>{{Cite web|lang=ru-RU|url=https://te-st.ru/2020/12/25/2020-deepfake-era/|title=2020: эпоха дипфейков|website={{iw|Теплица социальных технологий||d|Q19886237}}|date=2020-12-25|accessdate=2020-12-26|archive-date=2020-12-25|archive-url=https://web.archive.org/web/20201225083105/https://te-st.ru/2020/12/25/2020-deepfake-era/|deadlink=no}}</ref>. Дипфейк-порнография появилась в Интернете в 2017 году, в частности на [[Reddit]]<ref>{{Cite news|url=https://variety.com/2018/digital/news/deepfakes-porn-adult-industry-1202705749/|title=Porn Producers Offer to Help Hollywood Take Down Deepfake Videos|last=Roettgers|first=Janko|date=2018-02-21|work=Variety|access-date=2018-02-28|language=en|accessdate=2019-04-25|archivedate=2019-06-10|archiveurl=https://web.archive.org/web/20190610220204/https://variety.com/2018/digital/news/deepfakes-porn-adult-industry-1202705749/}}</ref>, и была запрещена многими сайтами, включая сам Reddit, [[Твиттер|Twitter]] и [[Pornhub]]<ref name=":28">{{Cite web|url=https://thenextweb.com/insider/2018/02/07/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn/|title=Twitter, Pornhub and other platforms ban AI-generated celebrity porn|last=Ghoshal|first=Abhimanyu|date=2018-02-07|website=The Next Web|language=en-us|access-date=2019-11-09|archive-date=2019-12-20|archive-url=https://web.archive.org/web/20191220061859/https://thenextweb.com/insider/2018/02/07/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn/|deadlink=no}}{{ref-en}}</ref><ref name="TheRegister2018">{{Cite news
}}</ref>. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц<ref>{{Cite web|lang=ru-RU|url=https://te-st.ru/2020/12/25/2020-deepfake-era/|title=2020: эпоха дипфейков|website={{iw|Теплица социальных технологий||d|Q19886237}}|date=2020-12-25|accessdate=2020-12-26|archive-date=2020-12-25|archive-url=https://web.archive.org/web/20201225083105/https://te-st.ru/2020/12/25/2020-deepfake-era/|deadlink=no}}</ref>. Дипфейк-порнография появилась в Интернете в 2017 году, в частности на [[Reddit]]<ref>{{Cite news|url=https://variety.com/2018/digital/news/deepfakes-porn-adult-industry-1202705749/|title=Porn Producers Offer to Help Hollywood Take Down Deepfake Videos|last=Roettgers|first=Janko|date=2018-02-21|work=Variety|access-date=2018-02-28|language=en|accessdate=2019-04-25|archivedate=2019-06-10|archiveurl=https://web.archive.org/web/20190610220204/https://variety.com/2018/digital/news/deepfakes-porn-adult-industry-1202705749/}}</ref>, и была запрещена многими сайтами, включая сам Reddit, [[Твиттер|Twitter]] и [[Pornhub]]<ref name=":28">{{Cite web|url=https://thenextweb.com/insider/2018/02/07/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn/|title=Twitter, Pornhub and other platforms ban AI-generated celebrity porn|last=Ghoshal|first=Abhimanyu|date=2018-02-07|website=The Next Web|language=en-us|access-date=2019-11-09|archive-date=2019-12-20|archive-url=https://web.archive.org/web/20191220061859/https://thenextweb.com/insider/2018/02/07/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn/|deadlink=no}}{{ref-en}}</ref><ref name="TheRegister2018">{{Cite news
| url=https://www.theregister.co.uk/2018/02/09/deepfake_ai/
| url=https://www.theregister.co.uk/2018/02/09/deepfake_ai/
| title=It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet
| title=It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet
Строка 57: Строка 79:
}}</ref>. Технология дипфейк также может быть использована для создания поддельных новостей и вредоносных обманов<ref>{{Cite web|url=https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|title=Experts fear face swapping tech could start an international showdown|website=The Outline|language=en|access-date=2018-02-28|archive-date=2020-01-16|archive-url=https://web.archive.org/web/20200116140157/https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|deadlink=no}}</ref><ref>{{Cite news|url=https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html|title=Here Come the Fake Videos, Too|last=Roose|first=Kevin|date=2018-03-04|work=The New York Times|access-date=2018-03-24|language=en|issn=0362-4331|accessdate=2019-04-25|archivedate=2019-06-18|archiveurl=https://web.archive.org/web/20190618203019/https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html}}</ref>.
}}</ref>. Технология дипфейк также может быть использована для создания поддельных новостей и вредоносных обманов<ref>{{Cite web|url=https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|title=Experts fear face swapping tech could start an international showdown|website=The Outline|language=en|access-date=2018-02-28|archive-date=2020-01-16|archive-url=https://web.archive.org/web/20200116140157/https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|deadlink=no}}</ref><ref>{{Cite news|url=https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html|title=Here Come the Fake Videos, Too|last=Roose|first=Kevin|date=2018-03-04|work=The New York Times|access-date=2018-03-24|language=en|issn=0362-4331|accessdate=2019-04-25|archivedate=2019-06-18|archiveurl=https://web.archive.org/web/20190618203019/https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html}}</ref>.


В 2020 году британский телеканал [[Channel 4]] выпустил ложное рождественское поздравление от лица королевы [[Елизавета II|Елизаветы II]]<ref>{{Cite web |url=https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |title=Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II {{!}} «Рамблер» |access-date=2022-07-30 |archive-date=2022-04-27 |archive-url=https://web.archive.org/web/20220427012407/https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |deadlink=no }}</ref>. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала<ref>{{Cite web |url=https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |title=«Чудовищное видео»: «Елизавета II» доказала опасность дипфейков {{!}} «Газета.ru» |access-date=2022-07-30 |archive-date=2022-07-30 |archive-url=https://web.archive.org/web/20220730173049/https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |deadlink=no }}</ref><ref>[https://smotrim.ru/article/2503798 Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»]</ref>.
Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как [[YouTube]] или [[Vimeo]]. Популярной программой является FakeApp<ref>{{Cite news|url=http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let|title=FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!|date=2018-01-25|work=Reason.com|access-date=2018-03-24|language=en|accessdate=2019-04-25|archivedate=2018-03-22|archiveurl=https://web.archive.org/web/20180322101607/http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let}}</ref>, использующая [[TensorFlow]]<ref>{{Cite news|url=https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping|title=I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it|work=The Verge|access-date=2018-03-24|accessdate=2019-04-25|archivedate=2018-03-24|archiveurl=https://web.archive.org/web/20180324223908/https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping}}</ref>.


Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе [[Вторжение России на Украину (2022)|российского вторжения на Украину]] для создания ложного видео с заявлением о капитуляции [[Зеленский, Владимир Александрович|Владимира Зеленского]]<ref>{{Cite web|lang=uk|url=https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|title=Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського|website=www.ukrinform.ua|access-date=2022-03-03|archive-date=2022-03-02|archive-url=https://web.archive.org/web/20220302192149/https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|deadlink=no}}</ref>.
Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени<ref name="Thi2016">{{cite web
| last = Thies
| first = Justus
| title = Face2Face: Real-time Face Capture and Reenactment of RGB Videos
| work =
| publisher = Proc. Computer Vision and Pattern Recognition (CVPR), IEEE
| url = http://www.niessnerlab.org/projects/thies2016face.html
| doi =
| accessdate = 2018-02-24
| archive-date = 2018-02-26
| archive-url = https://web.archive.org/web/20180226103024/http://niessnerlab.org/projects/thies2016face.html
| deadlink = no
}}</ref>
. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — [[Microsoft Video Authenticator]], программное обеспечение, которое позволяет определить вмешательство в видео<ref>{{Cite web|lang=en-US|url=https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|title=New Steps to Combat Disinformation|website=Microsoft On the Issues|date=2020-09-01|accessdate=2020-12-26|archive-date=2020-12-24|archive-url=https://web.archive.org/web/20201224190016/https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|deadlink=no}}</ref>.


А так же, с Украинской стороны было создано множество дипфейков, в частности, «зверства и убийства мирного населения со стороны Российских военных».

=== В искусстве и развлечениях ===
{{дописать раздел}}
Технология дипфейк использовалась в музейном пространстве: например, в [[Музей Сальвадора Дали (Сент-Питерсберг)|Музее Сальвадора Дали]] во [[Флорида|Флориде]] в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает [[искусственный интеллект]]». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей<ref>{{Cite web|url=https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|title=Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых|author=Жанна Карамазова|website=screenlifer.com|date=|publisher=|access-date=2019-09-02|archive-date=2019-09-02|archive-url=https://web.archive.org/web/20190902203349/https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|deadlink=no}}</ref>.
Технология дипфейк использовалась в музейном пространстве: например, в [[Музей Сальвадора Дали (Сент-Питерсберг)|Музее Сальвадора Дали]] во [[Флорида|Флориде]] в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает [[искусственный интеллект]]». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей<ref>{{Cite web|url=https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|title=Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых|author=Жанна Карамазова|website=screenlifer.com|date=|publisher=|access-date=2019-09-02|archive-date=2019-09-02|archive-url=https://web.archive.org/web/20190902203349/https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|deadlink=no}}</ref>.

В 2020 году британский телеканал [[Channel 4]] выпустил фейковое рождественское поздравление от королевы [[Елизавета II|Елизаветы II]] с использованием технологии дипфейк<ref>{{Cite web |url=https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |title=Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II {{!}} «Рамблер» |access-date=2022-07-30 |archive-date=2022-04-27 |archive-url=https://web.archive.org/web/20220427012407/https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |deadlink=no }}</ref>. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью данной технологии можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала<ref>{{Cite web |url=https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |title=«Чудовищное видео»: «Елизавета II» доказала опасность дипфейков {{!}} «Газета.ru» |access-date=2022-07-30 |archive-date=2022-07-30 |archive-url=https://web.archive.org/web/20220730173049/https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |deadlink=no }}</ref><ref>[https://smotrim.ru/article/2503798 Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»]</ref>.

Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе [[Вторжение России на Украину (2022)|российского вторжения на Украину]] для создания ложного видео с заявлением о капитуляции [[Зеленский, Владимир Александрович|Владимира Зеленского]]<ref>{{Cite web|lang=uk|url=https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|title=Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського|website=www.ukrinform.ua|access-date=2022-03-03|archive-date=2022-03-02|archive-url=https://web.archive.org/web/20220302192149/https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|deadlink=no}}</ref>.

== Применение ==
Дипфейки используется для создания фильмов, для замены лица одного актёра на другого. Используют для «оживления» умерших людей — создание видео с помощью фотографии и образца голоса.

Также используют дипфейки для видеосвязи, для сдачи экзаменов, для обмана или для шутки в видеочатах, для создания шуточных роликов с известными людьми.


== См. также ==
== См. также ==
Строка 99: Строка 103:
== Литература ==
== Литература ==
* {{публикация|книга |заглавие=DeepFakes: Creation, Detection, and Impact |ответственный=Edited by Loveleen Gaur |издательство=[[CRC Press]] |год=2022|isbn=978-1-03-213920-3 |язык=en |allpages=166}}
* {{публикация|книга |заглавие=DeepFakes: Creation, Detection, and Impact |ответственный=Edited by Loveleen Gaur |издательство=[[CRC Press]] |год=2022|isbn=978-1-03-213920-3 |язык=en |allpages=166}}

{{вс}}
{{Перевести|en|Deepfake}}


[[Категория:Искусственный интеллект]]
[[Категория:Искусственный интеллект]]

Версия от 16:33, 7 мая 2024

Дипфейк (англ. deepfake от deep learning «глубинное обучение» + fake «подделка»)[1] — методика синтеза изображения или голоса, основанная на искусственном интеллекте.

Технология

Синтез изображения

Мето́дика си́нтеза изображе́ния используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом[2].

Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени[3]. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео[4]. Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp[5], использующая TensorFlow[6].

Голосовые дипфейки

Используя модифицированный алгоритм преобразования текста в речь и обработку компьютером аудиозаписей речи того или иного человека, возможно «подделать» голос этого человека. Так создаются голосовые дипфейки. С помощью этой технологии возможно адаптировать голоса актёров при локализации фильмов, создавать естественную речь для людей, утративших возможность говорить, начитывать аудиокниги для детей голосами родителей, подстраивать речь под определённый акцент, создавать реалистичные видеоаватары — личности для голосовых ассистентов. Впрочем, эта технология может также использоваться и злоумышленниками для обмана, дискредитации или дезинформации[7][8][9][10].

Применение

Фальсификация

Дипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для порно-мести[11]. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц[12]. Дипфейк-порнография появилась в Интернете в 2017 году, в частности на Reddit[13], и была запрещена многими сайтами, включая сам Reddit, Twitter и Pornhub[14][15][16][17]. Технология дипфейк также может быть использована для создания поддельных новостей и вредоносных обманов[18][19].

В 2020 году британский телеканал Channel 4 выпустил ложное рождественское поздравление от лица королевы Елизаветы II[20]. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала[21][22].

Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе российского вторжения на Украину для создания ложного видео с заявлением о капитуляции Владимира Зеленского[23].

А так же, с Украинской стороны было создано множество дипфейков, в частности, «зверства и убийства мирного населения со стороны Российских военных».

В искусстве и развлечениях

Технология дипфейк использовалась в музейном пространстве: например, в Музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает искусственный интеллект». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей[24].

См. также

Примечания

  1. Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (англ.). Архивировано 15 июня 2018. Дата обращения: 20 февраля 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  2. Евгения Созанкова. Дипфейки: как нейросети копируют реальность // screenlifer.com. — 2019. Архивировано 2 сентября 2019 года.
  3. Thies, Justus Face2Face: Real-time Face Capture and Reenactment of RGB Videos. Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Дата обращения: 24 февраля 2018. Архивировано 26 февраля 2018 года.
  4. New Steps to Combat Disinformation (амер. англ.). Microsoft On the Issues (1 сентября 2020). Дата обращения: 26 декабря 2020. Архивировано 24 декабря 2020 года.
  5. "FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!". Reason.com (англ.). 2018-01-25. Архивировано 22 марта 2018. Дата обращения: 24 марта 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  6. "I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it". The Verge. Архивировано 24 марта 2018. Дата обращения: 24 марта 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  7. Не обмануть лишь Станиславского: Что такое дипфейк-аудио и зачем нам оно Архивная копия от 1 сентября 2023 на Wayback Machine.
  8. Не верь ушам своим: Голосовые дипфейки Архивная копия от 1 сентября 2023 на Wayback Machine.
  9. Кто занимается дипфейк-аудио и зачем это нужно Архивная копия от 1 сентября 2023 на Wayback Machine.
  10. Дипфейки вокруг нас: Как учёные нашли способ распознать поддельный голос Архивная копия от 1 сентября 2023 на Wayback Machine.
  11. "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety (англ.). 2018-02-20. Архивировано 14 июля 2021. Дата обращения: 20 февраля 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  12. 2020: эпоха дипфейков. Теплица социальных технологий[вд] (25 декабря 2020). Дата обращения: 26 декабря 2020. Архивировано 25 декабря 2020 года.
  13. Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (англ.). Архивировано 10 июня 2019. Дата обращения: 28 февраля 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  14. Ghoshal, Abhimanyu Twitter, Pornhub and other platforms ban AI-generated celebrity porn (амер. англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 20 декабря 2019 года. (англ.)
  15. "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (англ.). Архивировано 10 апреля 2019. Дата обращения: 20 февраля 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  16. Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. Архивировано 10 апреля 2019. Дата обращения: 20 февраля 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  17. "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (англ.). Архивировано 10 апреля 2019. Дата обращения: 20 февраля 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  18. Experts fear face swapping tech could start an international showdown (англ.). The Outline. Дата обращения: 28 февраля 2018. Архивировано 16 января 2020 года.
  19. Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (англ.). ISSN 0362-4331. Архивировано 18 июня 2019. Дата обращения: 24 марта 2018. {{cite news}}: Указан более чем один параметр |accessdate= and |access-date= (справка)
  20. Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II | «Рамблер». Дата обращения: 30 июля 2022. Архивировано 27 апреля 2022 года.
  21. «Чудовищное видео»: «Елизавета II» доказала опасность дипфейков | «Газета.ru». Дата обращения: 30 июля 2022. Архивировано 30 июля 2022 года.
  22. Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»
  23. Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського (укр.). www.ukrinform.ua. Дата обращения: 3 марта 2022. Архивировано 2 марта 2022 года.
  24. Жанна Карамазова. Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых. screenlifer.com. Дата обращения: 2 сентября 2019. Архивировано 2 сентября 2019 года.

Литература

  • DeepFakes: Creation, Detection, and Impact : [англ.] / Edited by Loveleen Gaur. — CRC Press, 2022. — 166 p. — ISBN 978-1-03-213920-3.