Технология deep fake как повод для начала войны

53

Новый мир с deep fake


Интернет сейчас есть чуть ли не в каждом утюге, становится все сложнее найти точку на карте, где сеть 4G была бы недоступна. Широкополосный интернет – это прежде всего видео в качестве HD на распространенных платформах, которые постепенно заменяют для нас новостные ленты, аналитику и просто развлекательное чтиво. Кроме того, это инструмент влияния на миллиарды людей, позволяющий создавать нужное в данный момент общественное мнение. На пике этих игр с населением может оказаться технология deep fake, которая уже доказала свою способность превратить знаменитостей, таких, как Галь Гадот, Скарлетт Йоханссон, Тейлор Свифт, Эмма Уотсон и Кэти Перри, в звезд порноиндустрии. Дипфейк – это алгоритм, позволяющий моделировать поведение и внешность человека на видеозаписи. Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»). В основе deep fake лежат пресловутые нейронные сети, работающим по генеративно-состязательному принципу (Generative Adversarial Network, GAN). Алгоритмы, заложенные в базу программы, постоянно соревнуются друг с другом в двух процессах: обучение на представленных фотографиях с целью создания реальной подмены лица на копии и исключение негодных вариантов до тех пор, пока машина сама не начнет путать оригинал и копию. В этой сложной схеме заключается основная цель работы deep fake – создание ложных фотографий и видеоконтента, в которых лицо оригинала замещается другим образом. К примеру, харизматичный президент США Дональд Трамп вполне может встать на место любого одиозного лидера XX века и нести в массы с трибуны откровенную ересь. Сейчас же в одном из сгенерированных deep fake видео бывший президент Барак Обама позволил себе нецензурные выражения в адрес Дональда Трампа.


Конечно, на первых порах реклама deep fake была исключительно вирусной – лица голливудских актрис имплантировали в незамысловатые сюжеты порнороликов со всеми вытекающими последствиями. Или, например, актер Николас Кейдж неожиданно становится главным актером в эпизодах самых знаковых фильмов современности. Некоторые эти творения представлены на видео и, честно говоря, многие из них выглядят несколько топорно.






А вот хип-хоп-исполнительница Карди Би, которая предстала на вечернем шоу Джимми Фэллона в образе актера Уилла Смита, выглядит вполне убедительно.


А вот оригинал.


Неплохо выглядят поделки на канале Ctrl Shift Face. К например, Сильвестр Сталлоне примерил главную роль в «Терминаторе».



Уже сейчас IT-аналитики заявляют, что «фейковая» технология может стать самой опасной в цифровой сфере за последние десятилетия. В дополнение к этой технологии (и на её основе) спецы из университетов Принстона, Макса Планка и Стэнфорда соорудили приложение Neural Rendering. У него задача еще более опасная – «заставить» изображение человека свои голосом произносить любой текст на любом языке. Для этого требуется всего 40-минутное видео со звуком, в ходе которого нейронная сеть научится работать с голосом и мимикой человека, трансформируя это для новых словесных выражений. Изначально идея, конечно, позиционируется как благая: основным потребителем Neural Rendering станут киностудии, желающие сократить время на съемку актерских дублей. Однако всем сразу же стало понятно, что в недалеком будущем фактически любой пользователь может у себя на ноутбуке генерировать видеофейки, от которых волосы встанут дыбом. Вторым ответвлением «фейковой» программы стало приложение DeepNude, способное достаточно реалистично «раздеть» догола на фотографии любую женщину. В первые дни работы сервиса объем свалившихся запросов был настолько велик, что разработчики в опасении судебных исков объявили о его закрытии. Но хакеры взломали ресурс, и сейчас DeepNude может воспользоваться каждый. Конечно, сервис пытаются ограничить в доступе, но все понимают, что это лишь временная мера.

Deep fake оказался неплохим инструментом в руках мошенников. Одну британскую энергетическую компанию ограбили на 220 тыс. евро, когда на связь с финансовым отделом вышел «клон» управляющего из Германии. Он смоделированным голосом попросил срочно перевести деньги на счет в Венгрии, и у бизнес-партнеров не было ни единого повода не верить абоненту. Конечно, сейчас массово и качественно подделывать видеоряд проблематично – государственные регуляторы постоянно блокируют ресурсы с fakeapp и facefake, да и мощности компьютеров пока не позволяют оперативно синтезировать видео. Приходится перепоручать эту работу удаленным платным серверам, которым для работы требуют тысячи фотографий оригинальной личности и «жертвы».

Сasus belli


Технология deep fake может в будущем оставить актеров без работы – вся индустрия вполне может перейти на «мультяшных» киногероев, многих из которых технология воскресит из мертвых. Но это скорее мечты о будущем, так как многочисленные профсоюзы и элементарная нехватка вычислительных мощностей отодвигает перспективу на несколько лет вперед. Хотя уже сейчас в фильме «Изгой один: Звёздные войны» режиссер для одного эпизода «воскресил» актера Питер Кушинга, скончавшегося в 1994 году. Ходят слухи, что в новом фильме о войне во Вьетнаме может появиться знаменитый Джеймс Дин. Нейросети помогают актерам, которые уже в годах, выглядеть в кадре на 10-20 лет моложе – к примеру, Арнольду Шварценеггеру и Джонни Деппу. В среднем в мире сейчас генерируется не менее 15-20 тыс. deepfake видео каждый месяц, большая часть которых появляется в Интернете. Российские программисты стараются идти в русле мировых трендов — компания Vera Voice в июле 2020 года предложит поклонникам творчества Владимира Высоцкого пообщаться с цифровой копией певца в Театре на Таганке.

Все идет к тому, что видео- и фотодоказательства перестанут быть действенными аргументами в судебных разбирательствах, а глобальная система видеонаблюдения окажется пустой тратой денег. Никто не будет доверять кадрам с камер видеонаблюдения. Где гарантия, что это не синтезированная пустышка? В политической пропаганде deep fake уже сейчас становится мощнейшим рычагом влияния на мнение избирателей. Калифорния в октябре 2019 году стала первым штатом, вообще запретившим выкладывать в сеть ролики с политическими кандидатами за 60 дней и менее до выборов. За нарушение данного закона АВ 730 грозит уголовная ответственность. Сейчас к этой инициативе присоединили еще несколько штатов, а января 2020 года в Китае будет запрещено публиковать синтезированные deep fake фото и видео без особой пометки. Кстати, сейчас одним из действенных приемов определения подделки на глаз является отсутствие естественного моргания у синтезированных персонажей.


Сталлоне в роли Терминатора

А теперь представьте, насколько развитие технологии deep fake (а развитие не остановить, пока будет спрос) перевернет представление о правде и лжи. Особенно когда новинку возьмут на вооружение государственные структуры. Любое синтезированное видео об очередном шпионском разоблачении при умелом использовании может стать поводом как минимум для наложения очередного пакета санкций или закрытия дипломатического представительства. И не нужно будет инсценировать химические атаки на мирных жителей, чтобы санкционировать массированный ракетный удар по суверенному государству. Акты геноцида, последствия применения оружия массового поражения, вызывающее и оскорбительное поведение первых лиц государства – весь этот deepfake букет в нужной ситуации может оправдать в глазах избирателей начало очередной военной авантюры. А когда заговорят пушки и полетят ракеты, никто особо и не будет вспоминать, с какого разоблачающего видео началась война.

Сейчас нет однозначного ответа, что делать с этим бедствием. Лучшие алгоритмы, заточенные на разоблачение deep fake, могут гарантировать лишь 97%-ную вероятность. В настоящее время каждый прогрессивный программист может принять участие в Deepfake Detection Challenge, который в сентябре 2019 года анонсировал Facebook. Призовой фонд в 10 млн. долларов достанется тому, кто сможет разработать алгоритм, позволяющий со 100%-ной гарантией распознавать фейковые видео. Насколько быстро последует ответная реакция от подпольных разработчиков deep fake, остается только гадать.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

53 комментария
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +3
    17 декабря 2019 05:29
    Мда, опастная штука.
    1. +6
      17 декабря 2019 11:30
      Честного человека купить нельзя,но его можно опорочить.
      Интересно бы посмотреть альтернативы (когда актеры отказывались) фильмам-например "Иван Васильевич меняет профессию" с Никулиным и Мироновым.
      P.S "17 мгновений весны" с гайдаевской тройкой и Крачковской(радистка Кэт) не предлагать...
      Воистину "О дивный новый мир".
      1. 0
        20 декабря 2019 23:45
        А уж как ДПС будут рады ...
        Сейчас-то опасаются видеорегистраторов, по надуманным предлогам не штрафуют.
        А вот в будущем любое обвинение против себя назовут синтезированной фальшивкой
        belay
        1. 0
          22 декабря 2019 22:56
          Я уверен появиться технология подтверждения правдивости видеозаписи.
          Некая верификация того, что видео записано в определенное время и не имеет исправлений.
          Возможно это можно будет делать через сервер, используя криптографию.
          Технология 5G, обеспечивающая огромную скорость соединения, как раз поможет реализовать подобные вещи.
  2. +1
    17 декабря 2019 06:03
    Опасна эта технология только в периоде адаптации к ней, пока не все ещё о ней знают. Когда она станет "ожидаемой шуткой" - опасность её станет равной нулю.
    1. 0
      17 декабря 2019 07:01
      Цитата: Mytholog
      опасность её станет равной нулю

      этот "ноль" может руководить страной...
      1. +3
        17 декабря 2019 09:05
        "Ноль" не может руководить по определению , а вот помножить на себя все может...
    2. +1
      17 декабря 2019 10:39
      Цитата: Mytholog
      Опасна эта технология только в периоде адаптации к ней, пока не все ещё о ней знают. Когда она станет "ожидаемой шуткой" - опасность её станет равной нулю.

      Можно предположить, что за время существования так называемой желтой прессы все уже имели возможность к ней адаптироваться или хотя бы мало-мальски приспособиться. Но тем не менее это не так, и на каждый вброс на вентилятор следует незамедлительная бурная реакция преданных читателей-потребителей, ибо глупость человеческая - бесконечна.
  3. -1
    17 декабря 2019 06:17
    Я живу в мире Уильяма Гибсона wink Наконец-то.
    1. +3
      17 декабря 2019 08:34
      Довелось недавно видеть ролик. Разные люди с разными котами на руках смотрят на экраны своих мобильников. Приложение накладывает морду кота на лицо человека. Все коты реагируют одинаково: кот в удивлении таращится на экран, переводит взгляд на хозяина, видит, что он нормальный, затем снова на экран, когнитивный диссонанс животного достигает предела, и оно в ужасе срывается с колен хозяина, шерсть вздыблена, некоторые коты шипят... А ролики с якобы известными политическими деятелями и актерами -- это уже старая тема, ими пестрит интернет. Опять же, "оживленная" принцесса Лея в новых "Звездных войнах", Обама, говорящий речь... И ведь не отличишь! И потому, что не отличишь, видимо, наступает эпоха политиков, говорящих то, что нужно закулисью, которое имеется в каждой стране. Впрочем, разве не всегда так было? Только оно было дороже, политику надо было платить. А сейчас будет дешевле, так как платить нужно будет всего лишь программисту.
      1. 0
        17 декабря 2019 08:47
        Довелось недавно видеть ролик. Разные люди с разными котами на руках смотрят на экраны своих мобильников.
        - тоже его смотрел, было смешно)
      2. 0
        18 декабря 2019 09:23
        Цитата: депрессант
        кот в удивлении таращится на экран, переводит взгляд на хозяина, видит, что он нормальный, затем снова на экран, когнитивный диссонанс животного достигает предела, и оно в ужасе срывается с колен хозяина, шерсть вздыблена, некоторые коты шипят...

        Не смотрел, но по описанию очень ярко себе представил, а если ещё и хозяин а ля обама, можно влёжку.......... laughing laughing good fellow
  4. +4
    17 декабря 2019 06:25
    Например, формат UltraHD Это 3840х2160=8294400 пикселей. Так ли сложно "раскидать" по картинке "сбойные пискели" т.н. "водяного знака" чтобы на общем качестве картинки это сказывалось для глаза минимально?
    Сделать этот знак динамическим по зашифрованному ключу. Ну и прочий блокчейн и квантовую технологию в помощь.
    1. +7
      17 декабря 2019 08:17
      Цитата: g1washntwn
      Так ли сложно "раскидать" по картинке "сбойные пискели" т.н. "водяного знака"

      Я понимаю, это чтобы защитить оригинальное видео. А как распознать фэйк, если видео не было защищено?

      Картинку то алгоритм может подделать, а вот поведенческую модель, психологический портрет, пока вряд-ли. А ведь именно по этому ключу мы безошибочно определяем Михана или Голована в любых воплощениях. Даже не видя картинки.
      1. +3
        17 декабря 2019 11:23
        Да нисколько не тяжело. Привлекут психолога, и он вам точно откорректирует ролик так, что и не заметите, что песонаж фейковый, а не реальный. Небось, и программы уже есть, анализирующие поведение и манеру говорить реального деятеля по журналистским репортажам. Про голос уже и говорить не приходится. Это 21-й век, все подделают! К примеру, когда слушала речь Путина, в которой он убеждал нас отнестись с пониманием к пенсионной реформе, не могла отделаться от ощущения, что это не Путин. Ну, не он, и все!
        1. 0
          18 декабря 2019 06:23
          Цитата: депрессант
          ..... К примеру, когда слушала речь Путина, в которой он убеждал нас отнестись с пониманием к пенсионной реформе, не могла отделаться от ощущения, что это не Путин. Ну, не он, и все!


          Это потому, что в СМИ всё обставили так, как будто это правительство решило поднять возраст, а Путину, типа, ничего не оставалось как подписать закон. И ваш могз до последнего отказывался верить в то, что он "ЗА" повышение пенсионного возраста.
        2. 0
          19 декабря 2019 07:51
          Копирайт с картинок стереть и подменить можно, но после этого даже со 100% совпадением по пикселям "взломанная" картинка перестает быть аутентичной копией. Можно смело называть ее фейковой. Так же и с модифицированными "видео-доказательствами из интернета". Нет заверенной "цифровой подписи" - не является доказательством. Над СМИ которое использовало такой "взломанный" инфо-материал взмахивает мечом товарищ Фемида и оно ныряет с головой в чан с "этим-самым".
      2. +1
        17 декабря 2019 16:57
        А как распознать фэйк, если видео не было защищено?

        Никак статья именно про это. ВСЕ - ЗАБЫЛИ О ВИДЕОДОКАЗАТЕЛЬСТВАХ ИЗ ИНТЕРНЕТА.
        Ничего страшного в этом нет, проблемы будут только в переходный период пока до народа это не дойдет.
      3. +1
        19 декабря 2019 08:09
        Неприлично отвечать вопросом на вопрос, но в нем ответ. Имеет ли юридическую силу электронный документ без ЭЦП? Нет. Также и к видеоряду нужно подходить. Любой набор пикселей без установления истинности является фейком по умолчанию.
    2. +3
      17 декабря 2019 11:59
      Цитата: g1washntwn
      Например, формат UltraHD Это 3840х2160=8294400 пикселей. Так ли сложно "раскидать" по картинке "сбойные пискели" т.н. "водяного знака" чтобы на общем качестве картинки это сказывалось для глаза минимально?
      Сделать этот знак динамическим по зашифрованному ключу. Ну и прочий блокчейн и квантовую технологию в помощь.

      Хорошо излагает, собака!
  5. Uhu
    +6
    17 декабря 2019 07:08
    Да в общем, ничего особенного. Во-первых, манипулировать информацией умели всегда. Еще со времен былин приблудных гусляров. Несут они ахинею про Иван-царевича? Сходи проверь! В тридевятое царство. А уж коллажи из фотографий и ретушь стали применять аж с самого изобретения фотографии.
    Тут просто очередной аспект. В целом, просто нужно все то же - умение работать с информацией...
    ПиСи: а про "безработных актеров" - вообще не новость - давний факт, с которого дружно весь мир ржет - сейчас в рекламе любого фильма вам 20 раз скажут про "спецэффекты". А что фильм - никакой. перепевка старого, Терминатор-28... Так еще в 80-х это оборжали в фильме "назад в будущее". Какие там по счету "челюсти" были?
    1. 0
      19 декабря 2019 08:04
      Согласен. Первые фейки начали царапать еще на стенах пещер - наскальное фэнтэзи "Как мы победили мамонта". Процесс вранья просто меняет формы, способы и скорость. Возможно, в будущем нам будут вшивать фейковые воспоминания и рефлексы уже на стадии рождения сразу в подкорку и исключительно под существующую политическую конъюнктуру, это существенно облегчит работу тамошних Госдепов и Политбюро.
  6. +8
    17 декабря 2019 07:24
    Сегодня и без deep fake представление о правде и лжи перевернуто с ног на голову. Поэтому страшное уже случилось и без компьютерных программ - фейки, обвинения без доказательств, массированные информационные атаки в СМИ, откровенные провокации... Повод для начала вооруженного конфликта может возникнуть и без этой компьютерной программы.
    1. +3
      17 декабря 2019 09:02
      Да , многое творится по простому слову , без всякого обоснования и доказательств.
  7. 0
    17 декабря 2019 08:33
    "глобальная система видеонаблюдения окажется пустой тратой денег" И это хорошо-мы же не хотим что бы за нами постоянно следили Это неприятно В подъезде домофон с камерой на доме рядом камера везде камеры и все в доступе при желании А может я к любовнице поехал?)
    1. +2
      17 декабря 2019 09:36
      Всегда можно отмазаться - любовница - это фейк.
      1. -1
        17 декабря 2019 09:41
        Так точно! Или "это был не я -это фейк" Хотя боюсь не прокатит
  8. +1
    17 декабря 2019 08:35
    Хи, так deep войти в fake, что совсем забыть о давно известной, несколько тыщ лет уж точно, информационной безопасности. Наверно наши далёкие предки тоже мучились вопросом, что любой может выбить на камне поддельные скрижали, потом столь же поддельные папирусы, далее статейки на бумаге, векселя, транзакции, ну вот добрались и до видео... А ставьте-ка вы печать и подпись заверенную свидетелями на видео (электронно-цифровую в случае цифрового видео, технология давно известна и стоит пару копеек), и подделка, у овладевших технологией защиты, уже не пройдёт.
  9. +2
    17 декабря 2019 09:00
    Призовой фонд в 10 млн. долларов достанется тому, кто сможет разработать алгоритм, позволяющий со 100%-ной гарантией распознавать фейковые видео.


    А это много или мало за такую разработку ? в этом вся проблема , решение может стоить "три копейки" или триллионы ...
    1. +1
      17 декабря 2019 10:54
      Призовой фонд в 10 млн. долларов достанется тому, кто сможет разработать алгоритм, позволяющий со 100%-ной гарантией распознавать фейковые видео.

      со времён инквизиции эти "алгоритмы" известны am
  10. +1
    17 декабря 2019 09:35
    Все чудексатее и чудесатее.
  11. +1
    17 декабря 2019 09:51
    Ну вот и "поколение П" наступило, раз уж это в массы пошло, то нарисовать высшего начальника - ничего не стоит.
  12. +1
    17 декабря 2019 10:40
    Все это уже привело к тому, что никакое видео или фото не могут больше считаться доказательством чего либо. Вот и все. У криминалистики попросту отобрана часть инструментов. Все это с одной стороны не радует, а с другой... теперь "безлюдные" системы безопасности придется снова наполнить людьми, так как за камерами останется только задача оперативного информирования, а для доказательства чего либо нужен живой свидетель - охранник, который видел лично.
  13. +1
    17 декабря 2019 10:58
    «заставить» изображение человека свои голосом произносить любой текст на любом языке.

  14. 0
    17 декабря 2019 11:41
    Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет
    Это как с историей о «Мама, я твой сын, попал в аварию, дай денег человеку на углу улицы, или меня посадят»
    Пока не знали, у мошенников получалось
    1. 0
      17 декабря 2019 14:59
      Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет

      Вы похоже вообще не понимаете о чем статья.....
      В таких случаях может лучше промолчать?
      Себе задайте вопрос кто будет определять подделку?
      1. -1
        17 декабря 2019 17:42
        Прекрасно понимаю
        А вы нет, похоже
        Как доказательство в суде они не пройдут, экспертиза выявит следы монтажа
        А эффект воздействия на публику в сми или взбросах быстро сойдёт на нет после нескольких разоблачений таких фейков
        Эффект они будут иметь, только пока в голове у большинства подсознательности заложено убеждение, что видео подделать невозможно или очень сложно
        Как только большинству станет ясно что подделка возможна, эффект от таких вбросов сойдёт на нет
        Так вам понятно?
        1. +1
          17 декабря 2019 18:28
          Как доказательство в суде они не пройдут, экспертиза выявит следы монтажа

          Вы так ничего и не поняли. laughing
          До свидания.
          1. +1
            17 декабря 2019 18:29
            Похоже, что вы
      2. +1
        17 декабря 2019 18:19
        Цитата: bk316
        Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет

        Вы похоже вообще не понимаете о чем статья.....
        В таких случаях может лучше промолчать?
        Себе задайте вопрос кто будет определять подделку?

        Подобный создавшему подделку програмный продукт, что ж ещё. Задача решается. Понятно, что дорого. Один бот производит подделку, другой ее распознает, с определенной степенью достоверности, разумеется ))). Программисты тоже хотят зарабатывать, попутного AI им в...
        1. +1
          17 декабря 2019 18:41
          Подобный создавшему подделку програмный продукт, что ж ещё. З

          Замечательно, собственно я авиору как бы об этом и намекал.
          Но он у нас упертый, ему не надо. Он свято верит в превосходство США а еще оказывается в величие экспертизы. laughing


          Алгоритмы, заложенные в базу программы, постоянно соревнуются друг с другом в двух процессах: обучение на представленных фотографиях с целью создания реальной подмены лица на копии и исключение негодных вариантов до тех пор, пока машина сама не начнет путать оригинал и копию.


          То есть если продукт тот же, то он подделку не выявит. Значит надо более "мощную" нейросеть сеть и вот тут-то и кроется фигня, нет метрики нейросетей с точки мощности в контексте решаемой задачи. Количество узлов, слоев , топология вовсе не говорит о качестве решения задачи. В результате мы получим ситуацию, когда на суде одна нейросеть говорит подделка другая не подделка. НО НЕЙРОСЕТЬ НЕ МОЖЕТ ОБЪЯСНИТЬ ПОЧЕМУ ПОДДЕЛКА. При этом любая сеть решает данную задачу с некоторой вероятностью, то есть дает ложноположительные результаты.
          Резюме: подобный программный продукт не может решить данную задачу.

          Я понимаю, что не программисту тяжело это понять, но уж объяснил как мог.
          Кстати знаете, что ни один программист не напишет слово программа с ОДНИМ М? laughing
          1. +1
            17 декабря 2019 18:54
            Цитата: bk316
            понимаю, что не программисту тяжело это понять, но

            Вспомнил анекдот про блондинку, которую спросили какова вероятность того, что она встретит динозавра на улице. Блондинка заявила: 50%!
            Или встречу, или не встречу...
            Убойно, но абсолютно корректно - вопросе недостаточно граничных условий)))) Однако.
            1. 0
              18 декабря 2019 14:09
              Цитата: Толстый
              50%! Или встречу, или не встречу...
              Убойно, но абсолютно корректно


              Блондинка перепутала вероятность и число возможных исходов. Если ответ кажется вам корректным - вы тоже.
          2. +1
            17 декабря 2019 19:14
            А я вам намекал, что вы неверно поняли, что в статье написано
            Вы в каком суде видели экспертизу программами или нейросетями?
            Экспертизу выполняет человек , если нужно- в ручном режиме
            И при экспертизе склейки и следы монтажа все равно всплывут, какими бы они нейронными сетями не делались, особенно если подменять придётся не только лицо, а полностью фигуру человека, или , тем более, создавать с нуля
            Или, как вариант, экспертиза не сможет подтвердить подлинность, что совсем не одно и то же, что распознать подделку
            Программы , о которых в статье, нужны не для экспертизы в суде, это для быстрого определения фейков, так, чтобы вы могли такой фейк быстро определить, в режиме реального времени в лучшем варианте
            А каким боком вы сюда США приплели- это вообще загадка
            hi
            1. 0
              17 декабря 2019 21:15
              Цитата: Avior
              А я вам намекал, что вы неверно поняли, что в статье написано
              Вы в каком суде видели экспертизу программами или нейросетями?
              Экспертизу выполняет человек , если нужно- в ручном режиме
              И при экспертизе склейки и следы монтажа все равно всплывут, какими бы они нейронными сетями не делались, особенно если подменять придётся не только лицо, а полностью фигуру человека, или , тем более, создавать с нуля
              Или, как вариант, экспертиза не сможет подтвердить подлинность, что совсем не одно и то же, что распознать подделку
              Программы , о которых в статье, нужны не для экспертизы в суде, это для быстрого определения фейков, так, чтобы вы могли такой фейк быстро определить, в режиме реального времени в лучшем варианте
              А каким боком вы сюда США приплели- это вообще загадка
              hi

              Программы о которых в статье речь очень подходят для создания казус белли. Стране агрессору нужен повод а не доказательства. Пример: операция " Консервы", пробирка Пауэла в ООН, или постановка "белых касок ". Собственно статья так и озаглавлена.
              1. 0
                17 декабря 2019 21:46
                Как только такие программы получат распространение, это перестанут воспринимать всерьёз
                С таким же успехом можно поддельное письмо на принтере сфабриковать
                Просто видео пока больше доверяют
                А уж что касается казус белли, так и сейчас такую имитацию сделать не проблема, динозавры по экранам бегают, никого не удивишь
                Просто с программой проще, но для озвученной вами цели это значения не имеет
              2. +2
                18 декабря 2019 14:15
                Цитата: Толстый
                Программы о которых в статье речь очень подходят для создания казус белли.


                Опыт показывает, что казус белли создается и без deep fake. А deep fake, как только явление станет известным, быстро окажется средством розыгрышей и капустников.
            2. 0
              18 декабря 2019 07:52
              Цитата: Avior
              Экспертизу выполняет человек , если нужно- в ручном режиме
              И при экспертизе склейки и следы монтажа все равно всплывут, какими бы они нейронными сетями не делались
              Очень наивно думать, что человек безошибочно сможет распознавать такое. На текущий момент фейки ещё видно, но в недалёком будущем едва человеческий глаз сможет улавливать разницу. На примере современных фильмов можно видеть, что многие нарисованные эффекты, явления и существа воспринимаются как настоящие. Настолько далеко продвинулись технологии.
              1. +1
                18 декабря 2019 08:29
                А вы считаете, что экспертиза на подлинность- это просмотр видео экспертом?
                1. -2
                  19 декабря 2019 05:20
                  Я этого не говорил. Я лишь привёл пример развития технологий в кинематографе. Суть в том, что не существует стопроцентного способа распознавания фейка.
    2. -2
      18 декабря 2019 07:48
      Цитата: Avior
      Синтезированные видео определяются при экспертизе, значит, серьезной проблемы не будет
      В статье же написано, что не существует алгоритмов, которые со стопроцентной вероятностью распознают deep fake видео. О какой экспертизе вы говорите?
      Цитата: Avior
      Пока не знали, у мошенников получалось
      И сейчас получается, если вы не в курсе. Люди до сих пор ведутся на эту разводку, особенно пенсионеры.
      1. +1
        18 декабря 2019 08:31
        Алгоритмы- речь идёт о программах, способных распознавать фейки в автоматическом режиме
        1. -2
          19 декабря 2019 05:18
          Программы и работают на основе заложенных в них алгоритмов. Ваш так называемый "автоматический режим" тоже ни что иное как тот же алгоритм, состоящий из последовательностий действий, продуманных программистами. На текущий момент не существует ни соответствующих программ, ни соответствующих алгоритмов.

«Правый сектор» (запрещена в России), «Украинская повстанческая армия» (УПА) (запрещена в России), ИГИЛ (запрещена в России), «Джабхат Фатх аш-Шам» бывшая «Джабхат ан-Нусра» (запрещена в России), «Талибан» (запрещена в России), «Аль-Каида» (запрещена в России), «Фонд борьбы с коррупцией» (запрещена в России), «Штабы Навального» (запрещена в России), Facebook (запрещена в России), Instagram (запрещена в России), Meta (запрещена в России), «Misanthropic Division» (запрещена в России), «Азов» (запрещена в России), «Братья-мусульмане» (запрещена в России), «Аум Синрике» (запрещена в России), АУЕ (запрещена в России), УНА-УНСО (запрещена в России), Меджлис крымскотатарского народа (запрещена в России), легион «Свобода России» (вооруженное формирование, признано в РФ террористическим и запрещено)

«Некоммерческие организации, незарегистрированные общественные объединения или физические лица, выполняющие функции иностранного агента», а так же СМИ, выполняющие функции иностранного агента: «Медуза»; «Голос Америки»; «Реалии»; «Настоящее время»; «Радио свободы»; Пономарев; Савицкая; Маркелов; Камалягин; Апахончич; Макаревич; Дудь; Гордон; Жданов; Медведев; Федоров; «Сова»; «Альянс врачей»; «РКК» «Центр Левады»; «Мемориал»; «Голос»; «Человек и Закон»; «Дождь»; «Медиазона»; «Deutsche Welle»; СМК «Кавказский узел»; «Insider»; «Новая газета»