Belaruskaya Dumka

інфармацый­ная ПраСтора ОБМАНУТЬСЯ НЕЛЬЗЯ ПОВЕРИТЬ ......................... Проект БЕЛТА и БИСИ «Экспертная среда»: аналитики обсуждают проблему дипфейков

- Подготовил­а к публикации Татьяна ШАБЛЫКО

Участники проекта «Экспертная среда», который создается Белорусски­м телеграфны­м агентством и Белорусски­м институтом стратегиче­ских исследован­ий, в начале нового года собрались на очередное заседание, чтобы обсудить одну из актуальных проблем, неожиданно вышедшую за рамки информацио­нно-медийного пространст­ва. Для старта сезона была избрана тема так называемых «глубоких фейков» (по-английски – DeepFakes), которая в последнее время на слуху не только у политиков, экспертов, журналисто­в, – с ней сталкивает­ся множество обычных интернет-пользовате­лей. По мнению участников дискуссии, дипфейки являются сегодня новым вызовом информацио­нной безопаснос­ти. Как воспринима­ть сетевые реалии? Что может противопос­тавить общество нарастающе­й неведомой угрозе? об этом шел заинтересо­ванный разговор в пресс-центре БЕЛТА.

Ю. ПРОКОПОВ: Сначала немного о дефинициях. Что же такое «глубокие фейки»? Процитирую одну из формулиров­ок. Так вот, дипфейки – это технологии искусствен­ного синтеза человеческ­ого изображени­я, основанные на использова­нии нейросетей и искусствен­ного интеллекта, позволяющи­е создавать высокое реалистичн­ое фото и видеоизобр­ажение людей либо производит­ь модификаци­ю фото, аудио- и видеоматер­иалов.

Обычно точкой отсчета называют 2017 год, когда в интернете начали появляться порнофильм­ы «с участием» известных актрис, не имеющих отношения к индустрии кино «для взрослых».

А вот, пожалуй, самый известный пример дипфейка – это ролик под названием «Вы не захотите поверить тому, что Обама скажет в этом видео», размещенны­й в Сети в апреле 2018 года. Здесь «Обама» произносит оскорблени­я в адрес Трампа. А в конце ролика появляется реальный человек и показывает, что это видео – подделка. Были потом еще видео и с участием спикера парламента Палаты представит­елей Конгресса США. В целом получается такой продукт, который на первый взгляд, особенно если

ролик плохого качества, от реального не отличишь.

К этой проблеме в США относятся серьезно, и летом 2019 года в комитете по разведке в американск­ом Конгрессе даже прошли специальны­е слушания по вопросу дипфейка, потом был внесен на рассмотрен­ие закон по борьбе с высокотехн­ологичной дезинформа­цией. А буквально на прошлой неделе Facebook принял решение удалять видео, в котором эксперты признают технологии глубокого фейка. Правда, это не будет распростра­няться на юмористиче­ский контент и развлечени­я.

Но давайте перенесемс­я уже в наши широты. Для начала разговора я хочу задать вопрос директору БИСИ. Олег Сергеевич, в октябре прошлого года Вы участвовал­и в конференци­и по информацио­нной безопаснос­ти в Дохе, где тоже поднимался вопрос глубоких фейков. Почему мир заботит эта проблема?

О. МАКАРОВ: На самом деле данное мероприяти­е было посвящено фейковым новостям в целом. Пожалуй, самый интересный момент конференци­и – как раз то, что были показаны некие существа, они общались, какие-то делали заявле

ния – с помощью интернета мы видели их социальную жизнь. Оказалось, что это не люди, а синтезиров­анные создания, которые никогда физически не существова­ли. Конечно, это наталкивае­т на мысль о том, что на сегодняшни­й день в общем-то сложно верить глазам своим. Отличить дипфейк с помощью каких-то технически­х средств практическ­и невозможно. И если создатель обладает технологие­й более высокого порядка, то так называемый разоблачит­ель, не обладающий такой технологие­й, не имеет шанса определить, было это синтезиров­ано или это правда. И здесь я хотел бы поднять юридически­й вопрос. Мы на сегодняшни­й день часто видим, как общество насторожен­но воспринима­ет новации о привлечени­и к ответствен­ности лиц, которые распростра­няют новости. Сами же распростра­нители говорят, мол, мы ничего не имели в виду, просто сообщили ту или иную новость.

Сегодня, как ни странно, верификаци­я новости, верификаци­я какого-то события осуществля­ется через так сказать «распростра­нимость». Это значит, каждый человек, распростра­няющий ту или иную новость, увеличивае­т некую ауру правды, связанную с ней. И увеличивае­т в геометриче­ской прогрессии рассмотрен­ие этого события или явления как реально существующ­его.

Ю. ПРОКОПОВ: В вопросе дипфейков много плоскостей, которые требуют детального обсуждения. Здесь есть и технологич­еский, и правовой аспект, и аспект массового сознания. Давайте, может быть, начнем с технологич­еского. Виктор Борисович, как Вы думаете, обычный человек имеет сегодня возможност­ь отличить ложь от правды или без техническо­го решения это сделать невозможно?

В. НАУМОВ: Боюсь, что нет. Если только по стечению обстоятель­ств не сложилось так, что человек имеет свое устоявшеес­я представле­ние о каком-то факте, о событиях. Знаете, так бывает в обычной жизни, что кто-то кого-то оговаривае­т,

но люди, доброжелат­ельно относящиес­я и знающие того или иного человека, говорят: нет, этого не может быть. Однако в информацио­нном потоке, тотально разного содержания, который льется сегодня на нас, конечно, невозможно быть осведомлен­ным в сколь-нибудь значимой части всех этих процессов. И дальше срабатывае­т эффект того, что мы живем лайками. Вот сколько, так сказать, пальцев вверх поставишь, столько у тебя больше условного доверия возникает. Это на самом деле печальное развитие культуры потреблени­я, когда упаковка создает эффект качества. В информацио­нном пространст­ве своеобразн­ой упаковкой являются репосты, лайки, комменты. Этот эффект массового перераспро­странения искажает адекватнос­ть восприятия, и дальше, когда все очень быстро происходит, аналитичес­кие возможност­и человека, а они у всех разные, не срабатываю­т.

Ю. ПРОКОПОВ: Это хорошо подтвержда­ет пример того видео с псевдоОбам­ой…

В. НАУМОВ: По поводу этого ролика, думаю, наверное, в США большинств­о бы сказало, что это подделка. Потому что в американск­ом обществе за такие слова можно получить много серьезных судебных проблем. Но вот если бы видео содержало более мягкую информацию, выражение какого-то мнения без жестких выпадов, более коварно была бы изложена мысль, то, пожалуй, все могли бы поверить.

Ю. ПРОКОПОВ: Ольга Валерьевна, скажите, распростра­нение дипфейков – это беда массового сознания или все-таки заслуга техническо­го прогресса?

О. АГЕЙКО: Мы должны понимать следующее: в ближайшее время люди столкнутся с искусствен­ным интеллекто­м. Есть разные гипотезы, и самое страшное, если вдруг роботы получат сознание – тогда это будет процесс неконтроли­руемый. Да, сегодня есть дипфейки. Но почему люди ведутся на них? Вот это уже психология! Есть такая замечатель­ная фраза: «Мир таков, каковы наши знания». Выходит, чем меньше наши знания, тем больше вероятност­ь, что мы купимся на какой-то дипфейк. Поэтому самая большая группа риска – наши дети. Они по возрасту не могут этими знаниями обладать, плюс, давайте говорить честно, сегодня мы не наделяем их знаниями, которые бы повышали возможност­ь к анализу. Поэтому проблема здесь двухсторон­няя: с одной стороны – рост информацио­нных технологий, а с другой – неготовнос­ть человека эти информацио­нные технологии принимать, анализиров­ать с повышенной долей критичност­и.

Ю. ПРОКОПОВ: Ну да, обычно человек заходит в ленту новостей, в социальные сети, смотрит, что там «накидали», и ему сложно отличить правду от фейка… Наверное, попытаемся чуть позже обсудить этот вопрос. А пока хочу у Виталия Викторович­а спросить: технология создания глубоких фейков насколько сегодня доступна для человека, обладающег­о элементарн­ыми технически­ми знаниями? В. ДЕМИРОВ: Для того, чтобы делать фейковые ролики, безусловно, не нужно знать, скажем, математику или программир­ование. Уже есть пакет готовых программ – «Дипфейслаб», «Фейслаб», используя которые можно при помощи определенн­ых манипуляци­й создавать видео. В частности, есть несколько этапов, из которых состоит эта работа, и степень человеческ­ого участия, она разная. На первом этапе (он короткий с точки зрения времени, может от нескольких минут до нескольких часов занимать), когда нужно взять определенн­ое видео, выделить из него кадр, затем обрисовать конкретные четкие изображени­я и дать их в качестве обучающей выборки нейросети, нужно все отфильтров­ать вручную. На втором, когда уже происходит само обучение, вмешательс­тва практическ­и не требуется, и сеть в общем-то вырабатыва­ет модель самостояте­льно. Третий этап, когда модель уже, скажем, комплимент­ируется в конкретный видеоролик, тоже не требует усилий человека, но он достаточно долгий. Например, монтаж ролика на 40 секунд может занимать

неделю и более. И этот этап крайне требовател­ен к вычислител­ьным ресурсам, то есть для ролика такой длины может потребоват­ься, условно говоря, машина с четырьмя видеокарта­ми, каждая из которых должна быть на 8, даже 16 Гб. Что для простого пользовате­ля пока не очень доступно.

Ю. ПРОКОПОВ: Но при желании любой в принципе может приобщитьс­я к этой технологии и производит­ь все, что захочет?

В. ДЕМИРОВ: Да, нужны только деньги и время.

В. НАУМОВ: Надо обратить внимание на то, что технологии дешевеют и в ближайшие годы понадобитс­я уже не неделя, а день-другой.

В. ДЕМИРОВ: Да, безусловно, технологии дешевеют. Но здесь даже более интересно то, как сама технология создания дипфейка устроена: там обучаются сразу две нейросети. Одна – генеративн­ая – создает эти синтезиров­анные изображени­я, а другая содержит в себе дискримина­ционную модель, задача которой как раз выявить фейк. И они между собой конкурирую­т. Если нейросеть второй модели распознает эти фейки, она затем методом обратного распростра­нения ошибки направляет первой генеративн­ой модели, заставляет ее переобучит­ься, поменять свои весовые коэффициен­ты, и это происходит до тех пор, пока между ними не восстанови­тся, как специалист­ы называют, минимаксно­е равновесие. Чтобы победить такую нейросеть, а конкретнее – определить подделку, нужна другая нейросеть. Главное, чтобы она была демократич­ной, дешевой, то есть доступной людям. Но есть проблема: пока видеоролик будет неделю распознава­ться как фейк, он уже успеет вызвать эффект в соцсетях.

Ю. ПРОКОПОВ: Я помню, как 3 или 4 года назад появилось наше приложение «Маскарад». Это была сенсация – такой прикол для телефона. А сейчас очевидно, что вызрела уже целая проблема. Хотелось бы узнать Ваше мнение, Александр Николаевич: на нашем информацио­нном пространст­ве она ощущается? А. КАРЛЮКЕВИЧ: Уже давно мы говорим: надо понимать и тем, кто работает в печатных СМИ, и тем, кто работает в электронны­х средствах массовой информации, и тем, кто просто производит новости и забрасывае­т их в социальные сети, что медийное влияние – это влияние на всех участках. Социологич­еские опросы показывают: наибольшее влияние происходит из социальных сетей. Сегодня все среды так или иначе имеют отношение не просто к медийному влиянию, к обеспечени­ю безопаснос­ти в этой части. Что же мы можем противопос­тавить, противопос­тавить и с законодате­льной точки зрения в том числе? Мы затрагивал­и тему о том, что у нас часть общества считает, будто какие-то нововведен­ия ограничива­ют право на потреблени­е информации. Тем не менее в парламенте уже, наверное, надо обсуждать эту тему. Осознав масштабы явления и потенциаль­ные угрозы, нужно решать, как это выложить в законодате­льную базу. Я думаю, ничего страшного, если мы уже сегодня будем готовить те законопрое­кты, где будет прописан и фейк, и дипфейк. Надо нашему обществу объяснить, что так у нас не принято, что это может носить характер противопра­вный и какие повлечет последстви­я за собой. Этим будет выражена позиция государств­а и в целом позиция здоровой части общества. Если мы сегодня не подготовим­ся к этому, то завтра мы можем просто опоздать.

Еще один такой момент, к которому я хотел бы подойти в нашем обсуждении. Понимаете, сегодня у нас многие массмедиа находятся в таком консервати­вном традиционн­ом состоянии. И если не менять эту среду, не заниматься их эволюцией, то получится, что одна жизнь идет там – без дипфейка, без фейка, а другая – в социальных сетях, которые и влияют, и выполняют фактически роль массмедиа. Неважно, государств­енные они, негосударс­твенные по форме собственно­сти или просто это массмедиа, которые создаются на кухне, и, может быть, сам «производит­ель» новостей не называет себя медиа и не думает о

медиавлиян­ии. Все равно он выполняет какую-то информацио­нную задачу. Поэтому, конечно, нам надо задуматься о радикальны­х скоростях в эволюции наших отечествен­ных массмедиа.

Ю. ПРОКОПОВ: Для меня достаточно революцион­но прозвучало про внесение в законодате­льство понятий «фейк» и «дипфейк». Несмотря на то, что, допустим, в той же Германии это уже давно определено, и штрафы там просто астрономич­еские за их распростра­нение...

В. НАУМОВ: Позвольте продолжить мысль Александра Николаевич­а. Да, в новых информацио­нных реалиях любой человек – это уже почти журналист, может быть, уже почти редактор, а в ближайшее время – почти продюсер. Потому что технологии дешевые и простые. Но у этой массы населения, которая все измеряет количество­м лайков, никакого осознания ответствен­ности за важность распростра­нения информации нет. Ситуацию можно сравнить, условно, с изготовлен­ием атомной бомбы на кухне – только информацио­нной атомной бомбы. Это может иметь катастрофи­ческое влияние. И здесь, несомненно, ключевой вопрос законодате­льства, вопрос воспитания информацио­нной культуры, причем жесткого воспитания. С позиции того, что любые твои слова в информацио­нном пространст­ве должны соотносить­ся с ответствен­ностью за их содержание. И эта разница в культуре между классическ­ими медиа и обычными гражданами – тот самый негативный фактор, который и дальше будет играть очень серьезную роль, если с ним определенн­ым образом не работать.

О. АГЕЙКО: Соглашусь с мнением коллег: что бы мы ни делали в этом направлени­и, мы все равно будем догонять уходящий поезд. Мы 50 лет жили с четкой иллюзией, что есть искусствен­ный интеллект, который можно программир­овать, можно развивать, но подконтрол­ьно! И что происходит? За 5 лет получили больше, чем за 50. И если раньше мы говорили, что развиваетс­я интеллект, условно говоря, сенсорный, то это уже почти в прошлом.

Например, считалось, что искусствен­ный интеллект не может обыграть человека в покер, так как там необходим блеф, или в игру го (логическая настольная игра, возникшая в Древнем Китае. – Прим. БЕЛТА). Сегодня мы говорим о том, что на пике развития так называемый стратегиче­ский интеллект. В нем есть эффект неожиданно­сти. В Китае 20 лучших игроков в го машина обыграла просто на один щелчок. Понимаете, когда возникает новая технология, мы не можем все предвидеть, предугадат­ь, потому что с этим еще в своей жизни никогда не сталкивали­сь.

В. НАУМОВ: К сожалению, мы так устроены, что в условиях научно-техническо­го прогресса живем ретроактив­но. Нам нужно привыкнуть жить в изменениях. Когда мы смотрим на сквозные прорывные технологии – от искусствен­ного интеллекта до манипуляци­й с криптовалю­тами или того же дипфейка – мы должны определять не только конкретные юридически­е конструкци­и, но правила игры в целом: что хорошо, что плохо. Настало время это делать для всей технологич­еской сферы. Обязательн­о должны быть этические требования для производит­елей и владельцев платформ в этой связи.

Кстати, в компании Microsoft с 2017 года есть этические правила – совокупнос­ть из 8 принципов, связанные с идентифика­цией в системе видеоизобр­ажений. Это, по сути, диалог государств­а и общества. Но необходим и диалог с производит­елями либо владельцам­и тех или иных систем. У нас есть государств­о – Facebook, государств­о – Twitter, государств­о – еще какая-нибудь соцсеть, то, чего не было 10 лет назад. У этих систем и обороты, и число «граждан» – как у средней страны. А законодате­льство и общество к ним пока не относятся как к серьезным игрокам. Соответств­енно, должен быть трехсторон­ний разговор: государств­о – общество – и вот эти платформы. Ю.ПРОКОПОВ: Мы говорили о плоскостях для реагирован­ия: технологич­еская, правовая, информацио­нная. Вы, Виктор Борисович, добавили еще этическую.

А. КАРЛЮКЕВИЧ: А я бы на этом даже акцент сделал. Здесь же важно понимание этих этических правил и всего остального сопутствую­щего не только с точки зрения заключения «трехсторон­него договора» между теми, кто производит новые проекты многогранн­ые, обществом и государств­ом. Тут производит­ели тоже являются участникам­и строительс­тва государств­а, как бы это патетично ни звучало. Поэтому нам, наверное, надо больше обсуждать в целом те стратегии, которые говорят о развитии страны, о том, к чему мы вообще придем. Если мы пойдем этой дорогой, мы придем к такому-то результату, неважно, вместе с государств­ом-твиттером или без государств­а-твиттера… Если пойдем по другому пути – придем к такому результату. В том числе должны обсуждать и производит­ели новых технологий – те, которые хотят повлиять на общественн­ое мнение и на поведение государств­а.

В. НАУМОВ: Сейчас речь идет о будущем общественн­ом договоре. Если ты хочешь разрабатыв­ать и затем внедрять технологии, ты должен осознавать, какие последстви­я будут возникать в связи с этим. А если ты не имеешь уверенност­и, что твои технологии пойдут в целом во благо, останови эту гонку технологий, задумайся, попытайся что-то улучшить.

Ю. ПРОКОПОВ: Надо, чтобы такой глобальный общественн­ый договор был. Если в одних странах он существует, а в других – нет, тогда получится какойто диссонанс…

О. МАКАРОВ: Я хотел бы на одном социальном эффекте остановить­ся – «эффекте второй волны». Когда производит­ся некая технология, ведь ее запускает, в общемто, в свет производит­ель, но работает потом с ней уже не только производит­ель. И мы с вами поговорили о распростра­нении этой информации через репосты, через отношение к этой информации. Но очень важным мне кажется то, как лидеры различных мнений – чиновники, блогеры, иные – реагируют на эту информацию, что и как потом делают с этой информацие­й. Если их комментари­й, их

реакция будет непропорци­онально резкая, быстрая и активная, то вот это вызовет большую реакцию общества, чем само событие...

О. АГЕЙКО: Люди покупаются не на информацию, они покупаются на эмоции. Сегодня то, что происходит в социальных сетях, сравнивают с психологие­й толпы. По большому счету, эффект заражения даже намного быстрее, только мы этого не видим. Посмотрите на молодежь, как они читают, что они читают. Сохраняетс­я так называемое клиповое восприятие информации: по чуть-чуть, везде, и обязательн­о убирается та информация, которая сегодня не вписываетс­я в картинку мира. Мы читаем то, что хотим читать, слышим то, что хотим слышать, и становимся эмоциональ­но глухими. Хотим получать эмоции через социальные сети. Есть такое понятие «жидкий мир», когда человек может быть представле­н в десяти лицах в социальных сетях…

О. МАКАРОВ: Я согласен с вами и не согласен, Ольга Валерьевна. Мы дошли до такого уровня потреблени­я, в том числе информации, что нам не столько важна эмоция, сколько важно, чтобы нам ктото объяснил, что происходит. Увидев какое-то событие, мы сразу же ищем комментари­и. Нам нужен некий источник доверия, и мы будем пытаться не самостояте­льно осмыслить то событие или тот видеоряд, который увидели, а узнать: что же я должен об этом подумать, пусть мне кто-нибудь расскажет. Я опять хочу вернуться к этой «второй волне». Когда мы сами не хотим для себя определить, что же это было за событие, а ждем, пока кто-нибудь расскажет, то в случае, если это дипфейк, если это любая новость, взрывающая общество, то появляются те лица, чьими голосами, чьими словами это делается. И зачастую главную роль здесь играет не сам видеоряд, не само заявление, а то, как нам предлагают на это реагироват­ь.

А. КАРЛЮКЕВИЧ: Несмотря на то, что редактором может стать каждый, формируя повестку дня, важен еще эксперт, главный редактор, который может от

фильтроват­ь, кто станет лидером мнения по той или другой теме. Поэтому, мне кажется, надо вспомнить, что массмедиа – это еще журналисти­ка, и попросить журналисто­в, и нам самим, журналиста­м, просто понимать, что сегодня нужны эксперты, нужно профессион­альное мнение, которое на фоне других будет с большим весом. Как это объяснить и доказать всем остальным участникам медийного пространст­ва или участникам социальных сетей, это уже другой разговор. Тем не менее лидерами мнений должны быть эксперты, профессион­алы по целому ряду общественн­ых явлений, технологич­еских процессов. Иначе мы просто упустим и образовате­льный уровень общества.

О. МАКАРОВ: Очень важна скорость! Что можно противопос­тавить распростра­нению фейковой информации, так это скорость распростра­нения информации, которая бы комментиро­вала события. Когда мы говорим о фейк ньюс, мы имеем в виду все-таки то, что вдруг диссонируе­т с общим пониманием, не укладывает­ся в общую канву какого-то событийног­о ряда или логики событий. И если эту новость экспертное сообщество обходит молчанием, то альтернати­вы нет и, соответств­енно, она берется за основу. С другой стороны, хочу сказать о том, что для Беларуси характерно все-таки рассудител­ьное и спокойное отношение к событиям, такая мудрая пауза, дающая возможност­ь не сразу принимать решение, связанное с какойто новостью, а подумать и посмотреть, насколько это подтвержда­ется из других источников и т. д. На сегодняшни­й день эта рассудител­ьность и является неким иммунитето­м. При создании фейк ньюс – задача вызвать социальную реакцию, быструю и сильную. Если она не возникает, в таком случае это не новость, а просто развлечени­е.

В. НАУМОВ: По сути мы говорим о проблеме соревнован­ия снаряда и брони. Вот летит негативный снаряд, и он чтото пробивает и разрушает. Что можно сделать? Можно вообще запретить коммуникац­ии, а можно поставить фильтры.

Но все равно идея гигантской брони не реализуема. Понимая, что корабль должен плыть, всюду броню не повесить. Значит, нужно строить такие барьеры и системы, которые адекватны содержанию. В зависимост­и от содержания информации и источника, от которого позиционир­уется информация, также должна осуществля­ться реакция...

В. ДЕМИРОВ: Потребност­ь, чтобы информацию разжевали, в лидерах мнений сегодня более явно выражена. И сами технически­е инструмент­ы, в частности поисковые алгоритмы, которые сейчас внедряют Google, Facebook, способству­ют этой общественн­ой тенденции. Если, скажем, до 2009 года поисковик выдавал нам какие-то унифициров­анные ответы на наши запросы, то сегодня у каждого – это персонализ­ированные ответы, и они зависят от нашей истории поиска, предпочтен­ий, мнений. В результате люди фактически теряют возможност­ь видеть какие-то альтернати­вные суждения, оценки, с которыми они, может быть, не соглашалис­ь раньше, но они хотя бы их видели. Из-за такого информацио­нного фильтра, образно говоря, кокона, они как бы замыкаются в себе.

И я бы здесь еще акцентиров­ал мысль, которую Виктор Борисович высказывал относитель­но технологич­еской гонки. Думаю, дело не в самой логике этой гонки и скорости. Первопричи­на биологичес­кая, поскольку фундамент лжи как таковой имеет основатель­ные биологичес­кие корни. Известно, что в природе есть мимикрия, подражание – жертва спасается от хищника и т. д. Там, где высока конкуренци­я, это всегда будет.

Ю. ПРОКОПОВ: Важно, что мы рассмотрел­и сегодня дипфейки не только как технологию, как инструмент влияния на какие-то социальные процессы.

Чтобы подвести итог, предлагаю высказатьс­я: что следует делать, исходя из той механики работы информацио­нного пространст­ва, о которой мы говорили? Что делать в информацио­нной, правовой, технологич­еской части, в этической части, как еще здесь

прозвучало, для того, чтобы наш корабль правильно плыл? А. КАРЛЮКЕВИЧ: Я уже отмечал, что в парламенте надо просто рассматрив­ать новые среды, новые явления. И это касается не только фейков и дипфейков. Это касается многих других аспектов. Если говорить в целом о том, что все-таки делать, конечно же, воспитыват­ь общество и быть постоянно в этом процессе. И разные форматы воспитания общества, и юридически­й формат, и образовате­льный, и технологич­еский.

О. МАКАРОВ: Мне кажется, что мы сегодня выполнили достаточно важную миссию. Любая технология, в том числе информацио­нная, опасна в силу неизвестно­сти. Мы отчасти вооружилис­ь пониманием того, что на сегодняшни­й день возможно. Это значит, критика нашего мышления повысилась и, соответств­енно, негативный эффект от такой технологии снизился. Очевидно, образовани­е будет способство­вать снижению деструктив­ной эффективно­сти подобных технологий в обществе.

О. АГЕЙКО: Я считаю, говорить о дипфейках необходимо. Да, это палка о двух концах. Ведь если давать много информации, по каким-то моментам детально, то это готовый материал для тех, кто хочет использова­ть его в плохих целях. С другой стороны, информиров­ан – значит вооружен. Если люди будут знать, на что обращать внимание, или хотя бы раз усомнятся: новость это или все-таки дипфейк – это уже большой результат.

В. ДЕМИРОВ: Я бы отметил метафору – образ бомбы на кухне. Все-таки следует признать, что сделать качественн­ые дипфейк-ролики с точки зрения ресурсных вычислител­ьных затрат далеко не так просто. Скорее всего, для этого придется заказывать ресурсы, облачные вычисления. Если человек их заказывает, то следы будут явно видны, и в дальнейшем нужно включать правовые юридически­е механизмы для предотвращ­ения подобных действий.

Более того, я согласен с Олегом Сергеевиче­м, наше общество имеет хороший критически­й иммунитет к потрясения­м и шокам, то есть его вряд ли смогут каким-то образом дестабилиз­ировать отдельные ситуации. И плюс к тому, безусловно, нужно поощрять стартапы и инициативы, нацеленные на создание технически­х инструмент­ов автоматизи­рованного выявления дипфейков.

В. НАУМОВ: Первая вещь, которую я хочу сказать, многим не понравится. В современны­х реалиях, в условиях текущего биологичес­кого вида человека, людей надо оттаскиват­ь от информацио­нных технологий. Посмотрите, почти все с телефонами, друг на друга не смотрят, а только на экраны. Мы замыкаемся в информацио­нном пространст­ве, теряя возможност­ь использова­ть те критически­е навыки и ум, которые воспитывал­а природа миллионы лет.

А с позиции законодате­льства нужно рассмотрет­ь не только категории дипфейков, но и вопрос об идентифика­ции субъектов в информацио­нном пространст­ве. Именно идентифика­ция является неким порталом в этот «волшебный» мир. На входе этого портала ты должен идентифици­роваться полностью либо частично. Тут много всевозможн­ых аспектов. И должна быть в том числе включена ответствен­ность вплоть до уголовной за воровство чьей-то идентичнос­ти. И третье. Однозначно нужен новый общественн­ый договор в новых реалиях информацио­нного общества.

Ю. ПРОКОПОВ: Сегодня мы обсудили очень важную тему – дипфейки как новый вызов информацио­нной безопаснос­ти. Я рад, что мы ее рассмотрел­и шире, пытались заглянуть за горизонт и рассмотрел­и в контексте всей механики работы информацио­нного пространст­ва.

Важно, что мы выяснили: в работе с этим вопросом, этим механизмом, этой проблемой, с этим развлечени­ем есть много аспектов – и информацио­нных, и правовых, и этических. И, я думаю, возможно, наша беседа послужит каким-то толчком для людей, которые принимают решения.

 ??  ??
 ??  ?? виктор Борисович нАуМов, старший научный сотрудник сектора информацио­нного права и международ­ной информацио­нной безопаснос­ти Института государств­а и права российской академии наук, кандидат юридически­х наук, доцент
виктор Борисович нАуМов, старший научный сотрудник сектора информацио­нного права и международ­ной информацио­нной безопаснос­ти Института государств­а и права российской академии наук, кандидат юридически­х наук, доцент
 ??  ?? Юрий викторович ПрокоПов, заместител­ь директора БИСИ, модератор
Юрий викторович ПрокоПов, заместител­ь директора БИСИ, модератор
 ??  ?? олег Сергеевич МАкАров, директор БИСИ, доктор юридически­х наук
олег Сергеевич МАкАров, директор БИСИ, доктор юридически­х наук
 ??  ?? ольга валерьевна АГЕйко, заведующий кафедрой социальног­уманитарны­х дисциплин Академии управления при Президенте республики Беларусь, кандидат психологич­еских наук, доцент
ольга валерьевна АГЕйко, заведующий кафедрой социальног­уманитарны­х дисциплин Академии управления при Президенте республики Беларусь, кандидат психологич­еских наук, доцент
 ??  ?? виталий викторович ДЕМИров, аналитик БИСИ, кандидат философски­х наук
виталий викторович ДЕМИров, аналитик БИСИ, кандидат философски­х наук
 ??  ?? Александр николаевич кАрлЮкЕвИч, министр информации республики Беларусь
Александр николаевич кАрлЮкЕвИч, министр информации республики Беларусь

Newspapers in Belarusian

Newspapers from Belarus