Дипфейк: различия между версиями

[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
м Добавлена Категория:Фальсификации с помощью HotCat
 
(не показано 38 промежуточных версий 21 участника)
Строка 1:
{{значения|Фейк (значения)}}
[[Файл:Deepfake Metahuman.png|мини|Дипфейк]]
'''DeepfakeДипфейк''' (''дипфейк'', [[конкатенация]] {{Lang-en|deep learningdeepfake}} от ''deep learning'' «глубинное обучение» и+ {{Lang-en2|''fake}}'' «подделка»)<ref name="FoxNews2018">{{Cite news
| url=http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html
| title=Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise
Строка 12 ⟶ 13 :
| archivedate=2018-06-15
| archiveurl=https://web.archive.org/web/20180615160819/http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html
}}</ref> — «подделка»)  — [[методика]] [[синтез]]а [[Цифровое изображение|изображения]] или голоса, основанная на [[Искусственный интеллект|искусственном интеллекте]].
 
== Технология ==
'''Методика синтеза изображения''' используется для соединения и наложения существующих изображений и [[Видеоклип|видео]] на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют [[генеративно-состязательные нейросети]] (GAN). Одна часть [[алгоритм]]а учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом<ref>{{Статья|автор=Евгения Созанкова|заглавие=Дипфейки: как нейросети копируют реальность|ссылка=https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/|язык=|издание=screenlifer.com|тип=|год=2019|месяц=|число=|том=|номер=|страницы=|issn=|archivedate=2019-09-02|archiveurl=https://web.archive.org/web/20190902203348/https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/}}</ref>.
[[File:Main-qimg-021d8d22e0438179020144bbb4821733.jpg|мини|Джо Байден и Дональд Трамп, изображение с помощью технологии deepfake]]
 
=== Синтез изображения ===
== История ==
'''МетодикаМето́дика синтезаси́нтеза изображенияизображе́ния''' используется для соединения и наложения существующих изображений и [[Видеоклип|видео]] на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют [[генеративно-состязательные нейросети]] (GAN). Одна часть [[алгоритм]]а учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом<ref>{{Статья|автор=Евгения Созанкова|заглавие=Дипфейки: как нейросети копируют реальность|ссылка=https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/|язык=|издание=screenlifer.com|тип=|год=2019|месяц=|число=|том=|номер=|страницы=|issn=|archivedate=2019-09-02|archiveurl=https://web.archive.org/web/20190902203348/https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/}}</ref>.
Deepfake используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых [[Порнография|порнографических видео]] со знаменитостями или для порно-мести<ref name="HighSnobiety2018">{{Cite news
 
Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016  году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени<ref name="Thi2016">{{cite web
| last = Thies
| first = Justus
| title = Face2Face: Real-time Face Capture and Reenactment of RGB Videos
| work =
| publisher = Proc. Computer Vision and Pattern Recognition (CVPR), IEEE
| url = http://www.niessnerlab.org/projects/thies2016face.html
| doi =
| accessdate = 2018-02-24
| archive-date = 2018-02-26
| archive-url = https://web.archive.org/web/20180226103024/http://niessnerlab.org/projects/thies2016face.html
| deadlink = no
Deepfake }}</ref>. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — [[Microsoft Video Authenticator]], программное обеспечение, которое позволяет определить вмешательство в видео<ref>{{Cite web|lang=en-US|url=https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|title=New Steps to Combat Disinformation|website=Microsoft On the Issues|date=2020-09-01|accessdate=2020-12-26|archive-date=2020-12-24|archive-url=https://web.archive.org/web/20201224190016/https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|deadlink=no}}</ref>. Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как [[YouTube]] или [[Vimeo]]. Популярной программой является FakeApp<ref>{{Cite news|url=http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let|title=FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!|date=2018-01-25|work=Reason.com|access-date=2018-03-24|language=en|accessdate=2019-04-25|archivedate=2018-03-22|archiveurl=https://web.archive.org/web/20180322101607/http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let}}</ref>, использующая [[TensorFlow]]<ref>{{Cite news|url=https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping|title=I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it|work=The Verge|access-date=2018-03-24|accessdate=2019-04-25|archivedate=2018-03-24|archiveurl=https://web.archive.org/web/20180324223908/https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping}}</ref>.
 
=== Голосовые дипфейки ===
Используя модифицированный алгоритм [[синтез речи|преобразования текста в речь]] и обработку компьютером аудиозаписей речи того или иного человека, возможно «подделать» голос этого человека. Так создаются голосовые дипфейки. С помощью этой технологии возможно адаптировать голоса актёров при локализации фильмов, создавать естественную речь для людей, утративших возможность говорить, начитывать аудиокниги для детей голосами родителей, подстраивать речь под определённый акцент, создавать реалистичные видеоаватары — личности для [[голосовой ассистент|голосовых ассистентов]]. Впрочем, эта технология может также использоваться и злоумышленниками для обмана, дискредитации или дезинформации<ref>[https://go.zvuk.com/v-trende/ne-obmanut-lish-stanislavskogo-chto-takoe-dipfeik-audio-i-zachem-nam-ono.htm Не обмануть лишь Станиславского: Что такое дипфейк-аудио и зачем нам оно] {{Wayback|url=https://go.zvuk.com/v-trende/ne-obmanut-lish-stanislavskogo-chto-takoe-dipfeik-audio-i-zachem-nam-ono.htm |date=20230901123825 }}.</ref><ref>[https://www.kaspersky.ru/blog/audio-deepfake-technology/35694/ Не верь ушам своим: Голосовые дипфейки] {{Wayback|url=https://www.kaspersky.ru/blog/audio-deepfake-technology/35694/ |date=20230901123825 }}.</ref><ref>[https://www.audiomania.ru/content/art-7395.html Кто занимается дипфейк-аудио и зачем это нужно] {{Wayback|url=https://www.audiomania.ru/content/art-7395.html |date=20230901123826 }}.</ref><ref>[https://www.techinsider.ru/technologies/1557391-vot-kak-raspoznat-dipfeykovyy-golos-uchenye-nashli-prostoy-sposob/ Дипфейки вокруг нас: Как учёные нашли способ распознать поддельный голос] {{Wayback|url=https://www.techinsider.ru/technologies/1557391-vot-kak-raspoznat-dipfeykovyy-golos-uchenye-nashli-prostoy-sposob/ |date=20230901123826 }}.</ref>.
 
== Применение ==
 
=== Фальсификация ===
DeepfakeДипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания [[Фальшивая порнография|фальшивых]] [[Порнография|порнографических видео]] со знаменитостями или для порно-мести<ref name="HighSnobiety2018">{{Cite news
| url=https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/
| title=What Are Deepfakes & Why the Future of Porn is Terrifying
Строка 27 ⟶ 51 :
| archivedate=2021-07-14
| archiveurl=https://web.archive.org/web/20210714032914/https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/
}}</ref>. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц<ref>{{Cite web|lang=ru-RU|url=https://te-st.ru/2020/12/25/2020-deepfake-era/|title=2020: эпоха дипфейков|website={{iw|Теплица социальных технологий||d|Q19886237}}|date=2020-12-25|accessdate=2020-12-26|archive-date=2020-12-25|archive-url=https://web.archive.org/web/20201225083105/https://te-st.ru/2020/12/25/2020-deepfake-era/|deadlink=no}}</ref>. DeepfakeДипфейк-порнография появилась в Интернете в 2017  году, в частности на [[Reddit]]<ref>{{Cite news|url=https://variety.com/2018/digital/news/deepfakes-porn-adult-industry-1202705749/|title=Porn Producers Offer to Help Hollywood Take Down Deepfake Videos|last=Roettgers|first=Janko|date=2018-02-21|work=Variety|access-date=2018-02-28|language=en|accessdate=2019-04-25|archivedate=2019-06-10|archiveurl=https://web.archive.org/web/20190610220204/https://variety.com/2018/digital/news/deepfakes-porn-adult-industry-1202705749/}}</ref>, и была запрещена многими сайтами, включая сам Reddit, [[Твиттер|Twitter]] и [[Pornhub]]<ref name=":28">{{Cite web|url=https://thenextweb.com/insider/2018/02/07/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn/|title=Twitter, Pornhub and other platforms ban AI-generated celebrity porn|last=Ghoshal|first=Abhimanyu|date=2018-02-07|website=The Next Web|language=en-us|access-date=2019-11-09|archive-date=2019-12-20|archive-url=https://web.archive.org/web/20191220061859/https://thenextweb.com/insider/2018/02/07/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn/|deadlink=no}}{{ref-en}}</ref><ref name="TheRegister2018">{{Cite news
| url=https://www.theregister.co.uk/2018/02/09/deepfake_ai/
| title=It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet
Строка 55 ⟶ 79 :
| archivedate=2019-04-10
| archiveurl=https://web.archive.org/web/20190410050630/https://www.pcmag.com/news/359067/pornhub-twitter-ban-deepfake-ai-modified-porn
}}</ref>. DeepfakeТехнология дипфейк также может быть использованиспользована для создания поддельных новостей и вредоносных обманов<ref>{{Cite web|url=https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|title=Experts fear face swapping tech could start an international showdown|website=The Outline|language=en|access-date=2018-02-28|archive-date=2020-01-16|archive-url=https://web.archive.org/web/20200116140157/https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|deadlink=no}}</ref><ref>{{Cite news|url=https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html|title=Here Come the Fake Videos, Too|last=Roose|first=Kevin|date=2018-03-04|work=The New York Times|access-date=2018-03-24|language=en|issn=0362-4331|accessdate=2019-04-25|archivedate=2019-06-18|archiveurl=https://web.archive.org/web/20190618203019/https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html}}</ref>.
 
В 2020  году Британскийбританский телеканал [[Channel 4]] выпустил фейковоеложное рождественское поздравление от лица королевы [[Елизавета II|Елизаветы II]] с использованием технологии Deepfake<ref>[{{Cite web |url=https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |title=Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II |{{!}} «Рамблер»] |access-date=2022-07-30 |archive-date=2022-04-27 |archive-url=https://web.archive.org/web/20220427012407/https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |deadlink=no }}</ref>. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью технологии Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала<ref>[{{Cite web |url=https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |title=«Чудовищное видео»: «Елизавета II» доказала опасность дипфейков |{{!}} «Газета.ru»] |access-date=2022-07-30 |archive-date=2022-07-30 |archive-url=https://web.archive.org/web/20220730173049/https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |deadlink=no }}</ref><ref>[https://smotrim.ru/article/2503798 Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»]</ref>.
Deepfake-ролики можно легко найти на популярных сайтах потокового видео, таких как [[YouTube]] или [[Vimeo]]. Популярной программой является FakeApp<ref>{{Cite news|url=http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let|title=FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn!|date=2018-01-25|work=Reason.com|access-date=2018-03-24|language=en|accessdate=2019-04-25|archivedate=2018-03-22|archiveurl=https://web.archive.org/web/20180322101607/http://reason.com/blog/2018/01/25/fakeapp-finally-a-program-that-will-let}}</ref>, использующая [[TensorFlow]]<ref>{{Cite news|url=https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping|title=I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it|work=The Verge|access-date=2018-03-24|accessdate=2019-04-25|archivedate=2018-03-24|archiveurl=https://web.archive.org/web/20180324223908/https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping}}</ref>.
 
=== В искусстве и развлечениях ===
Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени<ref name="Thi2016">{{cite web
{{дописать раздел}}
| last = Thies
Технология deepfakeдипфейк использовалась в музейном пространстве: например, в [[Музей Сальвадора Дали (Сент-Питерсберг)|Музее Сальвадора Дали]] во [[Флорида|Флориде]] в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает [[искусственный интеллект]]». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей<ref>{{Cite web|url=https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|title=Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых|author=Жанна Карамазова|website=screenlifer.com|date=|publisher=|access-date=2019-09-02|archive-date=2019-09-02|archive-url=https://web.archive.org/web/20190902203349/https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|deadlink=no}}</ref>.
| first = Justus
| title = Face2Face: Real-time Face Capture and Reenactment of RGB Videos
| work =
| publisher = Proc. Computer Vision and Pattern Recognition (CVPR), IEEE
| url = http://www.niessnerlab.org/projects/thies2016face.html
| doi =
| accessdate = 2018-02-24
| archive-date = 2018-02-26
| archive-url = https://web.archive.org/web/20180226103024/http://niessnerlab.org/projects/thies2016face.html
| deadlink = no
}}</ref>
. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — [[Microsoft Video Authenticator]], программное обеспечение, которое позволяет определить вмешательство в видео<ref>{{Cite web|lang=en-US|url=https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|title=New Steps to Combat Disinformation|website=Microsoft On the Issues|date=2020-09-01|accessdate=2020-12-26|archive-date=2020-12-24|archive-url=https://web.archive.org/web/20201224190016/https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/|deadlink=no}}</ref>.
 
Технология deepfake использовалась в музейном пространстве: например, в [[Музей Сальвадора Дали (Сент-Питерсберг)|Музее Сальвадора Дали]] во [[Флорида|Флориде]] в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает [[искусственный интеллект]]». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей<ref>{{Cite web|url=https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|title=Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых|author=Жанна Карамазова|website=screenlifer.com|date=|publisher=|access-date=2019-09-02|archive-date=2019-09-02|archive-url=https://web.archive.org/web/20190902203349/https://screenlifer.com/trends/dipfejki-v-iskusstve-kak-salvador-dali-voskres-iz-mertvyh/|deadlink=no}}</ref>.
 
В 2020 году Британский телеканал [[Channel 4]] выпустил фейковое рождественское поздравление от королевы [[Елизавета II|Елизаветы II]] с использованием технологии Deepfake<ref>[https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II | «Рамблер»]</ref>. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью технологии Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала<ref>[https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated «Чудовищное видео»: «Елизавета II» доказала опасность дипфейков | «Газета.ru»]</ref><ref>[https://smotrim.ru/article/2503798 Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»]</ref>.
 
Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе [[Вторжение России на Украину (2022)|российского вторжения на Украину]] для создания ложного видео с заявлением о капитуляции [[Зеленский, Владимир Александрович|Владимира Зеленского]]<ref>{{Cite web|lang=uk|url=https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|title=Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського|website=www.ukrinform.ua|access-date=2022-03-03|archive-date=2022-03-02|archive-url=https://web.archive.org/web/20220302192149/https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|deadlink=no}}</ref>.
 
== См. также ==
{{Викисловарь|дипфейк}}
* [[Видеоклон]]
* [[Генеративный дизайн]]
* [[Reface]]
* [[FaceApp]]
* [[Фотомонтаж]]
* [[Фотожаба]]
* [[Синтез речи]]
 
== Примечания ==
{{примечания}}
 
{{Викисловарь|дипфейк}}
== Литература ==
{{перевести|en|Deepfake}}
* {{публикация|книга |заглавие=DeepFakes: Creation, Detection, and Impact |ответственный=Edited by Loveleen Gaur |издательство=[[CRC Press]] |год=2022|isbn=978-1-03-213920-3 |язык=en |allpages=166}}
[[Категория:Искусственный интеллект]]
 
{{вс}}
{{перевестиПеревести|en|Deepfake}}
 
[[Категория:Применение искусственного интеллекта]]
[[Категория:Информационная безопасность]]
[[Категория:Видео]]
Строка 96 ⟶ 111 :
[[Категория:Технологии кино и видео]]
[[Категория:Фальсификации]]
[[Категория:Deepfake]]