Дипфейк: различия между версиями

[непроверенная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
отмена правки 136509042 участника 78.29.32.32 (обс.)
Метка: отмена
 
(не показано 10 промежуточных версий 8 участников)
Строка 1:
{{значения|Фейк (значения)}}
[[Файл:Deepfake Metahuman.png|мини|Дипфейк]]
'''Дипфейк''' ({{Lang-en|deepfake}} от ''deep learning'' «глубинное обучение» + ''fake'' «подделка»)<ref name="FoxNews2018">{{Cite news
| url=http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html
Строка 15 ⟶ 16 :
 
== Технология ==
[[File:Main-qimg-021d8d22e0438179020144bbb4821733.jpg|мини|Джо Байден и Дональд Трамп, изображение с помощью технологии deepfake]]
 
=== Синтез изображения ===
'''Мето́дика си́нтеза изображе́ния''' используется для соединения и наложения существующих изображений и [[Видеоклип|видео]] на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют [[генеративно-состязательные нейросети]] (GAN). Одна часть [[алгоритм]]а учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом<ref>{{Статья|автор=Евгения Созанкова|заглавие=Дипфейки: как нейросети копируют реальность|ссылка=https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/|язык=|издание=screenlifer.com|тип=|год=2019|месяц=|число=|том=|номер=|страницы=|issn=|archivedate=2019-09-02|archiveurl=https://web.archive.org/web/20190902203348/https://screenlifer.com/trends/dipfejki-kak-nejroseti-kopiruyut-realnost/}}</ref>.
 
Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени<ref name="Thi2016">{{cite web
Строка 34 ⟶ 36 :
 
=== Голосовые дипфейки ===
Используя модифицированный алгоритм [[синтез речи|преобразования текста в речь]] и обработку компьютером аудиозаписей речи того или иного человека, возможно «подделать» голос этого человека. Так создаются голосовые дипфейки. С помощью этой технологии возможно адаптировать голоса актёров при локализации фильмов, создавать естественную речь для людей, утративших возможность говорить, начитывать аудиокниги для детей голосами родителей, подстраивать речь под определённый акцент, создавать реалистичные видеоаватары — личности для [[голосовой ассистент|голосовых ассистентов]]. Впрочем, эта технология может также использоваться и злоумышленниками для обмана, дискредитации или дезинформации<ref>[https://go.zvuk.com/v-trende/ne-obmanut-lish-stanislavskogo-chto-takoe-dipfeik-audio-i-zachem-nam-ono.htm Не обмануть лишь Станиславского: Что такое дипфейк-аудио и зачем нам оно] {{Wayback|url=https://go.zvuk.com/v-trende/ne-obmanut-lish-stanislavskogo-chto-takoe-dipfeik-audio-i-zachem-nam-ono.htm |date=20230901123825 }}.</ref><ref>[https://www.kaspersky.ru/blog/audio-deepfake-technology/35694/ Не верь ушам своим: Голосовые дипфейки] {{Wayback|url=https://www.kaspersky.ru/blog/audio-deepfake-technology/35694/ |date=20230901123825 }}.</ref><ref>[https://www.audiomania.ru/content/art-7395.html Кто занимается дипфейк-аудио и зачем это нужно] {{Wayback|url=https://www.audiomania.ru/content/art-7395.html |date=20230901123826 }}.</ref><ref>[https://www.techinsider.ru/technologies/1557391-vot-kak-raspoznat-dipfeykovyy-golos-uchenye-nashli-prostoy-sposob/ Дипфейки вокруг нас: Как учёные нашли способ распознать поддельный голос] {{Wayback|url=https://www.techinsider.ru/technologies/1557391-vot-kak-raspoznat-dipfeykovyy-golos-uchenye-nashli-prostoy-sposob/ |date=20230901123826 }}.</ref>.
 
== Применение ==
Строка 80 ⟶ 82 :
 
В 2020 году британский телеканал [[Channel 4]] выпустил ложное рождественское поздравление от лица королевы [[Елизавета II|Елизаветы II]]<ref>{{Cite web |url=https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |title=Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II {{!}} «Рамблер» |access-date=2022-07-30 |archive-date=2022-04-27 |archive-url=https://web.archive.org/web/20220427012407/https://news.rambler.ru/world/45499509-britanskiy-telekanal-vypustil-rozhdestvenskoe-pozdravlenie-ot-feykovoy-elizavety-ii/ |deadlink=no }}</ref>. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала<ref>{{Cite web |url=https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |title=«Чудовищное видео»: «Елизавета II» доказала опасность дипфейков {{!}} «Газета.ru» |access-date=2022-07-30 |archive-date=2022-07-30 |archive-url=https://web.archive.org/web/20220730173049/https://www.gazeta.ru/lifestyle/style/2020/12/a_13417718.shtml?updated |deadlink=no }}</ref><ref>[https://smotrim.ru/article/2503798 Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»]</ref>.
 
Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе [[Вторжение России на Украину (2022)|российского вторжения на Украину]] для создания ложного видео с заявлением о капитуляции [[Зеленский, Владимир Александрович|Владимира Зеленского]]<ref>{{Cite web|lang=uk|url=https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|title=Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського|website=www.ukrinform.ua|access-date=2022-03-03|archive-date=2022-03-02|archive-url=https://web.archive.org/web/20220302192149/https://www.ukrinform.ua/rubric-ato/3418294-rosia-moze-posiruvati-falsivu-zaavu-pro-kapitulaciu-zelenskogo-centr-strategicnih-doslidzen.html|deadlink=no}}</ref>.
 
=== В искусстве и развлечениях ===
Строка 105:
{{Перевести|en|Deepfake}}
 
[[Категория:ИскусственныйПрименение интеллектискусственного интеллекта]]
[[Категория:Информационная безопасность]]
[[Категория:Видео]]