інфармацыйная ПраСтора ОБМАНУТЬСЯ НЕЛЬЗЯ ПОВЕРИТЬ ......................... Проект БЕЛТА и БИСИ «Экспертная среда»: аналитики обсуждают проблему дипфейков
Участники проекта «Экспертная среда», который создается Белорусским телеграфным агентством и Белорусским институтом стратегических исследований, в начале нового года собрались на очередное заседание, чтобы обсудить одну из актуальных проблем, неожиданно вышедшую за рамки информационно-медийного пространства. Для старта сезона была избрана тема так называемых «глубоких фейков» (по-английски – DeepFakes), которая в последнее время на слуху не только у политиков, экспертов, журналистов, – с ней сталкивается множество обычных интернет-пользователей. По мнению участников дискуссии, дипфейки являются сегодня новым вызовом информационной безопасности. Как воспринимать сетевые реалии? Что может противопоставить общество нарастающей неведомой угрозе? об этом шел заинтересованный разговор в пресс-центре БЕЛТА.
Ю. ПРОКОПОВ: Сначала немного о дефинициях. Что же такое «глубокие фейки»? Процитирую одну из формулировок. Так вот, дипфейки – это технологии искусственного синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта, позволяющие создавать высокое реалистичное фото и видеоизображение людей либо производить модификацию фото, аудио- и видеоматериалов.
Обычно точкой отсчета называют 2017 год, когда в интернете начали появляться порнофильмы «с участием» известных актрис, не имеющих отношения к индустрии кино «для взрослых».
А вот, пожалуй, самый известный пример дипфейка – это ролик под названием «Вы не захотите поверить тому, что Обама скажет в этом видео», размещенный в Сети в апреле 2018 года. Здесь «Обама» произносит оскорбления в адрес Трампа. А в конце ролика появляется реальный человек и показывает, что это видео – подделка. Были потом еще видео и с участием спикера парламента Палаты представителей Конгресса США. В целом получается такой продукт, который на первый взгляд, особенно если
ролик плохого качества, от реального не отличишь.
К этой проблеме в США относятся серьезно, и летом 2019 года в комитете по разведке в американском Конгрессе даже прошли специальные слушания по вопросу дипфейка, потом был внесен на рассмотрение закон по борьбе с высокотехнологичной дезинформацией. А буквально на прошлой неделе Facebook принял решение удалять видео, в котором эксперты признают технологии глубокого фейка. Правда, это не будет распространяться на юмористический контент и развлечения.
Но давайте перенесемся уже в наши широты. Для начала разговора я хочу задать вопрос директору БИСИ. Олег Сергеевич, в октябре прошлого года Вы участвовали в конференции по информационной безопасности в Дохе, где тоже поднимался вопрос глубоких фейков. Почему мир заботит эта проблема?
О. МАКАРОВ: На самом деле данное мероприятие было посвящено фейковым новостям в целом. Пожалуй, самый интересный момент конференции – как раз то, что были показаны некие существа, они общались, какие-то делали заявле
ния – с помощью интернета мы видели их социальную жизнь. Оказалось, что это не люди, а синтезированные создания, которые никогда физически не существовали. Конечно, это наталкивает на мысль о том, что на сегодняшний день в общем-то сложно верить глазам своим. Отличить дипфейк с помощью каких-то технических средств практически невозможно. И если создатель обладает технологией более высокого порядка, то так называемый разоблачитель, не обладающий такой технологией, не имеет шанса определить, было это синтезировано или это правда. И здесь я хотел бы поднять юридический вопрос. Мы на сегодняшний день часто видим, как общество настороженно воспринимает новации о привлечении к ответственности лиц, которые распространяют новости. Сами же распространители говорят, мол, мы ничего не имели в виду, просто сообщили ту или иную новость.
Сегодня, как ни странно, верификация новости, верификация какого-то события осуществляется через так сказать «распространимость». Это значит, каждый человек, распространяющий ту или иную новость, увеличивает некую ауру правды, связанную с ней. И увеличивает в геометрической прогрессии рассмотрение этого события или явления как реально существующего.
Ю. ПРОКОПОВ: В вопросе дипфейков много плоскостей, которые требуют детального обсуждения. Здесь есть и технологический, и правовой аспект, и аспект массового сознания. Давайте, может быть, начнем с технологического. Виктор Борисович, как Вы думаете, обычный человек имеет сегодня возможность отличить ложь от правды или без технического решения это сделать невозможно?
В. НАУМОВ: Боюсь, что нет. Если только по стечению обстоятельств не сложилось так, что человек имеет свое устоявшееся представление о каком-то факте, о событиях. Знаете, так бывает в обычной жизни, что кто-то кого-то оговаривает,
но люди, доброжелательно относящиеся и знающие того или иного человека, говорят: нет, этого не может быть. Однако в информационном потоке, тотально разного содержания, который льется сегодня на нас, конечно, невозможно быть осведомленным в сколь-нибудь значимой части всех этих процессов. И дальше срабатывает эффект того, что мы живем лайками. Вот сколько, так сказать, пальцев вверх поставишь, столько у тебя больше условного доверия возникает. Это на самом деле печальное развитие культуры потребления, когда упаковка создает эффект качества. В информационном пространстве своеобразной упаковкой являются репосты, лайки, комменты. Этот эффект массового перераспространения искажает адекватность восприятия, и дальше, когда все очень быстро происходит, аналитические возможности человека, а они у всех разные, не срабатывают.
Ю. ПРОКОПОВ: Это хорошо подтверждает пример того видео с псевдоОбамой…
В. НАУМОВ: По поводу этого ролика, думаю, наверное, в США большинство бы сказало, что это подделка. Потому что в американском обществе за такие слова можно получить много серьезных судебных проблем. Но вот если бы видео содержало более мягкую информацию, выражение какого-то мнения без жестких выпадов, более коварно была бы изложена мысль, то, пожалуй, все могли бы поверить.
Ю. ПРОКОПОВ: Ольга Валерьевна, скажите, распространение дипфейков – это беда массового сознания или все-таки заслуга технического прогресса?
О. АГЕЙКО: Мы должны понимать следующее: в ближайшее время люди столкнутся с искусственным интеллектом. Есть разные гипотезы, и самое страшное, если вдруг роботы получат сознание – тогда это будет процесс неконтролируемый. Да, сегодня есть дипфейки. Но почему люди ведутся на них? Вот это уже психология! Есть такая замечательная фраза: «Мир таков, каковы наши знания». Выходит, чем меньше наши знания, тем больше вероятность, что мы купимся на какой-то дипфейк. Поэтому самая большая группа риска – наши дети. Они по возрасту не могут этими знаниями обладать, плюс, давайте говорить честно, сегодня мы не наделяем их знаниями, которые бы повышали возможность к анализу. Поэтому проблема здесь двухсторонняя: с одной стороны – рост информационных технологий, а с другой – неготовность человека эти информационные технологии принимать, анализировать с повышенной долей критичности.
Ю. ПРОКОПОВ: Ну да, обычно человек заходит в ленту новостей, в социальные сети, смотрит, что там «накидали», и ему сложно отличить правду от фейка… Наверное, попытаемся чуть позже обсудить этот вопрос. А пока хочу у Виталия Викторовича спросить: технология создания глубоких фейков насколько сегодня доступна для человека, обладающего элементарными техническими знаниями? В. ДЕМИРОВ: Для того, чтобы делать фейковые ролики, безусловно, не нужно знать, скажем, математику или программирование. Уже есть пакет готовых программ – «Дипфейслаб», «Фейслаб», используя которые можно при помощи определенных манипуляций создавать видео. В частности, есть несколько этапов, из которых состоит эта работа, и степень человеческого участия, она разная. На первом этапе (он короткий с точки зрения времени, может от нескольких минут до нескольких часов занимать), когда нужно взять определенное видео, выделить из него кадр, затем обрисовать конкретные четкие изображения и дать их в качестве обучающей выборки нейросети, нужно все отфильтровать вручную. На втором, когда уже происходит само обучение, вмешательства практически не требуется, и сеть в общем-то вырабатывает модель самостоятельно. Третий этап, когда модель уже, скажем, комплиментируется в конкретный видеоролик, тоже не требует усилий человека, но он достаточно долгий. Например, монтаж ролика на 40 секунд может занимать
неделю и более. И этот этап крайне требователен к вычислительным ресурсам, то есть для ролика такой длины может потребоваться, условно говоря, машина с четырьмя видеокартами, каждая из которых должна быть на 8, даже 16 Гб. Что для простого пользователя пока не очень доступно.
Ю. ПРОКОПОВ: Но при желании любой в принципе может приобщиться к этой технологии и производить все, что захочет?
В. ДЕМИРОВ: Да, нужны только деньги и время.
В. НАУМОВ: Надо обратить внимание на то, что технологии дешевеют и в ближайшие годы понадобится уже не неделя, а день-другой.
В. ДЕМИРОВ: Да, безусловно, технологии дешевеют. Но здесь даже более интересно то, как сама технология создания дипфейка устроена: там обучаются сразу две нейросети. Одна – генеративная – создает эти синтезированные изображения, а другая содержит в себе дискриминационную модель, задача которой как раз выявить фейк. И они между собой конкурируют. Если нейросеть второй модели распознает эти фейки, она затем методом обратного распространения ошибки направляет первой генеративной модели, заставляет ее переобучиться, поменять свои весовые коэффициенты, и это происходит до тех пор, пока между ними не восстановится, как специалисты называют, минимаксное равновесие. Чтобы победить такую нейросеть, а конкретнее – определить подделку, нужна другая нейросеть. Главное, чтобы она была демократичной, дешевой, то есть доступной людям. Но есть проблема: пока видеоролик будет неделю распознаваться как фейк, он уже успеет вызвать эффект в соцсетях.
Ю. ПРОКОПОВ: Я помню, как 3 или 4 года назад появилось наше приложение «Маскарад». Это была сенсация – такой прикол для телефона. А сейчас очевидно, что вызрела уже целая проблема. Хотелось бы узнать Ваше мнение, Александр Николаевич: на нашем информационном пространстве она ощущается? А. КАРЛЮКЕВИЧ: Уже давно мы говорим: надо понимать и тем, кто работает в печатных СМИ, и тем, кто работает в электронных средствах массовой информации, и тем, кто просто производит новости и забрасывает их в социальные сети, что медийное влияние – это влияние на всех участках. Социологические опросы показывают: наибольшее влияние происходит из социальных сетей. Сегодня все среды так или иначе имеют отношение не просто к медийному влиянию, к обеспечению безопасности в этой части. Что же мы можем противопоставить, противопоставить и с законодательной точки зрения в том числе? Мы затрагивали тему о том, что у нас часть общества считает, будто какие-то нововведения ограничивают право на потребление информации. Тем не менее в парламенте уже, наверное, надо обсуждать эту тему. Осознав масштабы явления и потенциальные угрозы, нужно решать, как это выложить в законодательную базу. Я думаю, ничего страшного, если мы уже сегодня будем готовить те законопроекты, где будет прописан и фейк, и дипфейк. Надо нашему обществу объяснить, что так у нас не принято, что это может носить характер противоправный и какие повлечет последствия за собой. Этим будет выражена позиция государства и в целом позиция здоровой части общества. Если мы сегодня не подготовимся к этому, то завтра мы можем просто опоздать.
Еще один такой момент, к которому я хотел бы подойти в нашем обсуждении. Понимаете, сегодня у нас многие массмедиа находятся в таком консервативном традиционном состоянии. И если не менять эту среду, не заниматься их эволюцией, то получится, что одна жизнь идет там – без дипфейка, без фейка, а другая – в социальных сетях, которые и влияют, и выполняют фактически роль массмедиа. Неважно, государственные они, негосударственные по форме собственности или просто это массмедиа, которые создаются на кухне, и, может быть, сам «производитель» новостей не называет себя медиа и не думает о
медиавлиянии. Все равно он выполняет какую-то информационную задачу. Поэтому, конечно, нам надо задуматься о радикальных скоростях в эволюции наших отечественных массмедиа.
Ю. ПРОКОПОВ: Для меня достаточно революционно прозвучало про внесение в законодательство понятий «фейк» и «дипфейк». Несмотря на то, что, допустим, в той же Германии это уже давно определено, и штрафы там просто астрономические за их распространение...
В. НАУМОВ: Позвольте продолжить мысль Александра Николаевича. Да, в новых информационных реалиях любой человек – это уже почти журналист, может быть, уже почти редактор, а в ближайшее время – почти продюсер. Потому что технологии дешевые и простые. Но у этой массы населения, которая все измеряет количеством лайков, никакого осознания ответственности за важность распространения информации нет. Ситуацию можно сравнить, условно, с изготовлением атомной бомбы на кухне – только информационной атомной бомбы. Это может иметь катастрофическое влияние. И здесь, несомненно, ключевой вопрос законодательства, вопрос воспитания информационной культуры, причем жесткого воспитания. С позиции того, что любые твои слова в информационном пространстве должны соотноситься с ответственностью за их содержание. И эта разница в культуре между классическими медиа и обычными гражданами – тот самый негативный фактор, который и дальше будет играть очень серьезную роль, если с ним определенным образом не работать.
О. АГЕЙКО: Соглашусь с мнением коллег: что бы мы ни делали в этом направлении, мы все равно будем догонять уходящий поезд. Мы 50 лет жили с четкой иллюзией, что есть искусственный интеллект, который можно программировать, можно развивать, но подконтрольно! И что происходит? За 5 лет получили больше, чем за 50. И если раньше мы говорили, что развивается интеллект, условно говоря, сенсорный, то это уже почти в прошлом.
Например, считалось, что искусственный интеллект не может обыграть человека в покер, так как там необходим блеф, или в игру го (логическая настольная игра, возникшая в Древнем Китае. – Прим. БЕЛТА). Сегодня мы говорим о том, что на пике развития так называемый стратегический интеллект. В нем есть эффект неожиданности. В Китае 20 лучших игроков в го машина обыграла просто на один щелчок. Понимаете, когда возникает новая технология, мы не можем все предвидеть, предугадать, потому что с этим еще в своей жизни никогда не сталкивались.
В. НАУМОВ: К сожалению, мы так устроены, что в условиях научно-технического прогресса живем ретроактивно. Нам нужно привыкнуть жить в изменениях. Когда мы смотрим на сквозные прорывные технологии – от искусственного интеллекта до манипуляций с криптовалютами или того же дипфейка – мы должны определять не только конкретные юридические конструкции, но правила игры в целом: что хорошо, что плохо. Настало время это делать для всей технологической сферы. Обязательно должны быть этические требования для производителей и владельцев платформ в этой связи.
Кстати, в компании Microsoft с 2017 года есть этические правила – совокупность из 8 принципов, связанные с идентификацией в системе видеоизображений. Это, по сути, диалог государства и общества. Но необходим и диалог с производителями либо владельцами тех или иных систем. У нас есть государство – Facebook, государство – Twitter, государство – еще какая-нибудь соцсеть, то, чего не было 10 лет назад. У этих систем и обороты, и число «граждан» – как у средней страны. А законодательство и общество к ним пока не относятся как к серьезным игрокам. Соответственно, должен быть трехсторонний разговор: государство – общество – и вот эти платформы. Ю.ПРОКОПОВ: Мы говорили о плоскостях для реагирования: технологическая, правовая, информационная. Вы, Виктор Борисович, добавили еще этическую.
А. КАРЛЮКЕВИЧ: А я бы на этом даже акцент сделал. Здесь же важно понимание этих этических правил и всего остального сопутствующего не только с точки зрения заключения «трехстороннего договора» между теми, кто производит новые проекты многогранные, обществом и государством. Тут производители тоже являются участниками строительства государства, как бы это патетично ни звучало. Поэтому нам, наверное, надо больше обсуждать в целом те стратегии, которые говорят о развитии страны, о том, к чему мы вообще придем. Если мы пойдем этой дорогой, мы придем к такому-то результату, неважно, вместе с государством-твиттером или без государства-твиттера… Если пойдем по другому пути – придем к такому результату. В том числе должны обсуждать и производители новых технологий – те, которые хотят повлиять на общественное мнение и на поведение государства.
В. НАУМОВ: Сейчас речь идет о будущем общественном договоре. Если ты хочешь разрабатывать и затем внедрять технологии, ты должен осознавать, какие последствия будут возникать в связи с этим. А если ты не имеешь уверенности, что твои технологии пойдут в целом во благо, останови эту гонку технологий, задумайся, попытайся что-то улучшить.
Ю. ПРОКОПОВ: Надо, чтобы такой глобальный общественный договор был. Если в одних странах он существует, а в других – нет, тогда получится какойто диссонанс…
О. МАКАРОВ: Я хотел бы на одном социальном эффекте остановиться – «эффекте второй волны». Когда производится некая технология, ведь ее запускает, в общемто, в свет производитель, но работает потом с ней уже не только производитель. И мы с вами поговорили о распространении этой информации через репосты, через отношение к этой информации. Но очень важным мне кажется то, как лидеры различных мнений – чиновники, блогеры, иные – реагируют на эту информацию, что и как потом делают с этой информацией. Если их комментарий, их
реакция будет непропорционально резкая, быстрая и активная, то вот это вызовет большую реакцию общества, чем само событие...
О. АГЕЙКО: Люди покупаются не на информацию, они покупаются на эмоции. Сегодня то, что происходит в социальных сетях, сравнивают с психологией толпы. По большому счету, эффект заражения даже намного быстрее, только мы этого не видим. Посмотрите на молодежь, как они читают, что они читают. Сохраняется так называемое клиповое восприятие информации: по чуть-чуть, везде, и обязательно убирается та информация, которая сегодня не вписывается в картинку мира. Мы читаем то, что хотим читать, слышим то, что хотим слышать, и становимся эмоционально глухими. Хотим получать эмоции через социальные сети. Есть такое понятие «жидкий мир», когда человек может быть представлен в десяти лицах в социальных сетях…
О. МАКАРОВ: Я согласен с вами и не согласен, Ольга Валерьевна. Мы дошли до такого уровня потребления, в том числе информации, что нам не столько важна эмоция, сколько важно, чтобы нам ктото объяснил, что происходит. Увидев какое-то событие, мы сразу же ищем комментарии. Нам нужен некий источник доверия, и мы будем пытаться не самостоятельно осмыслить то событие или тот видеоряд, который увидели, а узнать: что же я должен об этом подумать, пусть мне кто-нибудь расскажет. Я опять хочу вернуться к этой «второй волне». Когда мы сами не хотим для себя определить, что же это было за событие, а ждем, пока кто-нибудь расскажет, то в случае, если это дипфейк, если это любая новость, взрывающая общество, то появляются те лица, чьими голосами, чьими словами это делается. И зачастую главную роль здесь играет не сам видеоряд, не само заявление, а то, как нам предлагают на это реагировать.
А. КАРЛЮКЕВИЧ: Несмотря на то, что редактором может стать каждый, формируя повестку дня, важен еще эксперт, главный редактор, который может от
фильтровать, кто станет лидером мнения по той или другой теме. Поэтому, мне кажется, надо вспомнить, что массмедиа – это еще журналистика, и попросить журналистов, и нам самим, журналистам, просто понимать, что сегодня нужны эксперты, нужно профессиональное мнение, которое на фоне других будет с большим весом. Как это объяснить и доказать всем остальным участникам медийного пространства или участникам социальных сетей, это уже другой разговор. Тем не менее лидерами мнений должны быть эксперты, профессионалы по целому ряду общественных явлений, технологических процессов. Иначе мы просто упустим и образовательный уровень общества.
О. МАКАРОВ: Очень важна скорость! Что можно противопоставить распространению фейковой информации, так это скорость распространения информации, которая бы комментировала события. Когда мы говорим о фейк ньюс, мы имеем в виду все-таки то, что вдруг диссонирует с общим пониманием, не укладывается в общую канву какого-то событийного ряда или логики событий. И если эту новость экспертное сообщество обходит молчанием, то альтернативы нет и, соответственно, она берется за основу. С другой стороны, хочу сказать о том, что для Беларуси характерно все-таки рассудительное и спокойное отношение к событиям, такая мудрая пауза, дающая возможность не сразу принимать решение, связанное с какойто новостью, а подумать и посмотреть, насколько это подтверждается из других источников и т. д. На сегодняшний день эта рассудительность и является неким иммунитетом. При создании фейк ньюс – задача вызвать социальную реакцию, быструю и сильную. Если она не возникает, в таком случае это не новость, а просто развлечение.
В. НАУМОВ: По сути мы говорим о проблеме соревнования снаряда и брони. Вот летит негативный снаряд, и он чтото пробивает и разрушает. Что можно сделать? Можно вообще запретить коммуникации, а можно поставить фильтры.
Но все равно идея гигантской брони не реализуема. Понимая, что корабль должен плыть, всюду броню не повесить. Значит, нужно строить такие барьеры и системы, которые адекватны содержанию. В зависимости от содержания информации и источника, от которого позиционируется информация, также должна осуществляться реакция...
В. ДЕМИРОВ: Потребность, чтобы информацию разжевали, в лидерах мнений сегодня более явно выражена. И сами технические инструменты, в частности поисковые алгоритмы, которые сейчас внедряют Google, Facebook, способствуют этой общественной тенденции. Если, скажем, до 2009 года поисковик выдавал нам какие-то унифицированные ответы на наши запросы, то сегодня у каждого – это персонализированные ответы, и они зависят от нашей истории поиска, предпочтений, мнений. В результате люди фактически теряют возможность видеть какие-то альтернативные суждения, оценки, с которыми они, может быть, не соглашались раньше, но они хотя бы их видели. Из-за такого информационного фильтра, образно говоря, кокона, они как бы замыкаются в себе.
И я бы здесь еще акцентировал мысль, которую Виктор Борисович высказывал относительно технологической гонки. Думаю, дело не в самой логике этой гонки и скорости. Первопричина биологическая, поскольку фундамент лжи как таковой имеет основательные биологические корни. Известно, что в природе есть мимикрия, подражание – жертва спасается от хищника и т. д. Там, где высока конкуренция, это всегда будет.
Ю. ПРОКОПОВ: Важно, что мы рассмотрели сегодня дипфейки не только как технологию, как инструмент влияния на какие-то социальные процессы.
Чтобы подвести итог, предлагаю высказаться: что следует делать, исходя из той механики работы информационного пространства, о которой мы говорили? Что делать в информационной, правовой, технологической части, в этической части, как еще здесь
прозвучало, для того, чтобы наш корабль правильно плыл? А. КАРЛЮКЕВИЧ: Я уже отмечал, что в парламенте надо просто рассматривать новые среды, новые явления. И это касается не только фейков и дипфейков. Это касается многих других аспектов. Если говорить в целом о том, что все-таки делать, конечно же, воспитывать общество и быть постоянно в этом процессе. И разные форматы воспитания общества, и юридический формат, и образовательный, и технологический.
О. МАКАРОВ: Мне кажется, что мы сегодня выполнили достаточно важную миссию. Любая технология, в том числе информационная, опасна в силу неизвестности. Мы отчасти вооружились пониманием того, что на сегодняшний день возможно. Это значит, критика нашего мышления повысилась и, соответственно, негативный эффект от такой технологии снизился. Очевидно, образование будет способствовать снижению деструктивной эффективности подобных технологий в обществе.
О. АГЕЙКО: Я считаю, говорить о дипфейках необходимо. Да, это палка о двух концах. Ведь если давать много информации, по каким-то моментам детально, то это готовый материал для тех, кто хочет использовать его в плохих целях. С другой стороны, информирован – значит вооружен. Если люди будут знать, на что обращать внимание, или хотя бы раз усомнятся: новость это или все-таки дипфейк – это уже большой результат.
В. ДЕМИРОВ: Я бы отметил метафору – образ бомбы на кухне. Все-таки следует признать, что сделать качественные дипфейк-ролики с точки зрения ресурсных вычислительных затрат далеко не так просто. Скорее всего, для этого придется заказывать ресурсы, облачные вычисления. Если человек их заказывает, то следы будут явно видны, и в дальнейшем нужно включать правовые юридические механизмы для предотвращения подобных действий.
Более того, я согласен с Олегом Сергеевичем, наше общество имеет хороший критический иммунитет к потрясениям и шокам, то есть его вряд ли смогут каким-то образом дестабилизировать отдельные ситуации. И плюс к тому, безусловно, нужно поощрять стартапы и инициативы, нацеленные на создание технических инструментов автоматизированного выявления дипфейков.
В. НАУМОВ: Первая вещь, которую я хочу сказать, многим не понравится. В современных реалиях, в условиях текущего биологического вида человека, людей надо оттаскивать от информационных технологий. Посмотрите, почти все с телефонами, друг на друга не смотрят, а только на экраны. Мы замыкаемся в информационном пространстве, теряя возможность использовать те критические навыки и ум, которые воспитывала природа миллионы лет.
А с позиции законодательства нужно рассмотреть не только категории дипфейков, но и вопрос об идентификации субъектов в информационном пространстве. Именно идентификация является неким порталом в этот «волшебный» мир. На входе этого портала ты должен идентифицироваться полностью либо частично. Тут много всевозможных аспектов. И должна быть в том числе включена ответственность вплоть до уголовной за воровство чьей-то идентичности. И третье. Однозначно нужен новый общественный договор в новых реалиях информационного общества.
Ю. ПРОКОПОВ: Сегодня мы обсудили очень важную тему – дипфейки как новый вызов информационной безопасности. Я рад, что мы ее рассмотрели шире, пытались заглянуть за горизонт и рассмотрели в контексте всей механики работы информационного пространства.
Важно, что мы выяснили: в работе с этим вопросом, этим механизмом, этой проблемой, с этим развлечением есть много аспектов – и информационных, и правовых, и этических. И, я думаю, возможно, наша беседа послужит каким-то толчком для людей, которые принимают решения.