«Дневной дозор»: Правильно ли запрещать в агитации нейросетевые образы людей?

0

Предлагаем вашему вниманию текстовую версию нового выпуска программы «Дневной дозор» на тему: «Как вы оцениваете поправки в законодательство, запрещающие использовать в агитации нейросети для создания образов людей?». Передача вышла на волнах радио «ПЛН FM» (102,6 FM).

Изображение создано нейросетью

Государственная Дума 18 марта приняла в первом чтении поправки в избирательное законодательство, которые де-факто запрещают использовать нейросети в предвыборной агитации для создания образов людей, кроме самих кандидатов. 

Кандидаты смогут продолжать пользоваться нейросетями для обработки своих собственных фотографий, но только в целях редактирования и повышения качества снимков. Запрещено будет создание ненастоящих изображений коллег и прочих лиц рядом с кандидатом.

В пояснительной записке к законопроекту отмечается, что современные информационные технологии позволяют в короткие сроки при минимальных затратах создавать изображения реально существующих и вымышленных людей и использовать их в агитационных материалах.

«Вместе с тем недобросовестное использование современных информационных технологий способно формировать у избирателей искаженное представление о кандидате или избирательном объединении в целях воздействия на результаты волеизъявления», - указывается в пояснительной записке.

«За» принятие поправок в первом чтении проголосовали все партии, за исключением КПРФ. Оно и неудивительно, уж очень они хотели использовать нейросетевых Ленина и Сталина. Планировали модернизировать их под 21 век и придать им более молодежный вид. Видимо, задумке коммунистов сбыться не суждено.

В сегодняшней программе мы решили узнать у представителей политических партий и наших экспертов, как они оценивают поправки в законодательство, запрещающие использовать в агитации нейросети для создания образов людей? Представляют ли опасность нейросетевые образы людей, на их взгляд? Ответы на эти вопросы узнаем в программе «Дневной дозор».

Депутат Государственной Думы, секретарь Псковского регионального отделения партии «Единая Россия» Александр Козловский рассказал, почему в Госдуме в первом чтении приняли поправки в избирательное законодательство, которые запрещают использовать нейросети в предвыборной агитации для создания образов людей (исключая обработанные ИИ изображения самих кандидатов). Он назвал те негативные стороны нейросети, которые привели к такому решению законодателей.

«Очень активно развивается искусственный интеллект, нейросети, в целом наша жизнь стала неразрывно связана с "цифрой". И здесь, с одной стороны, мы всегда отмечаем благо. Например, искусственный интеллект или нейросети помогают распознать болезни, проанализировать снимок КТ (компьютерной томографии - ред.) или рентгена. Здесь исключается человеческий фактор, что что-то может быть упущено. С другой стороны, мы уже привыкли к тому, что в соцсетях демонстрируются дипфейки (выдуманные ролики — ред.), которых не было. Выдуманные истории. И здесь, конечно, отличить от реальности достаточно тяжело. Поэтому, конечно, я тоже поддерживаю этот законопроект. И это не значит, что мы полностью отказываемся от нейросетей и ИИ. Мы лишь ограничиваем их работу и применение. Они могут быть помощниками, но не в случае с роликами, когда действительно практически невозможно отличить, было это событие или нет. Применять такие ролики в предвыборных кампаниях неправильно. Тем более сегодня многие избиратели, особенно молодежь, воспринимают информацию из соцсетей и на встречи не ходят. Поэтому вообще тяжело определить правдивость того или иного события». 

Председатель Избирательной комиссии Псковской области Игорь Сопов напомнил, что порядка десяти лет назад кандидату разрешалось использовать агитационные материалы с фотографиями, где он находится в окружении «неопределенного круга лиц». По его наблюдениям, на предыдущей избирательной кампании из-за подобных изображений, сгенерированных нейросетью, многие избиратели могли быть введены в заблуждение. От того принятие поправок в избирательное законодательство ему кажется абсолютно логичным.

«Искусственный интеллект никто не запрещает использовать в подготовке информационных и агитационных материалов. Есть запрет на использование изображения человека, он действует уже очень-очень давно. Порядка десяти лет назад он был введен и значил, что на агитационных материалах может быть изображен только сам кандидат среди круга неопределенных лиц. Такое было раньше понимание. Сейчас остается только сам кандидат. Ни семья, ни родственники, ни какие-то группы людей сейчас не изображаются. А попытки использования ИИ для изображения кандидата и неопределенных лиц в данном случае вводят в заблуждение избирателей — это первое. А вторым пунктом они в принципе нарушают предыдущее законодательство. Нельзя, чтобы на агитационном материале был кто-то еще, кроме кандидата. Поэтому в данном случае законодательство ограничивает использование ИИ. Кандидат может себе, условно говоря, нарисовать все, что угодно, подправить свой возраст, еще что-то, окружить себя милыми людьми, красивыми женщинами, маленькими милыми детьми и так далее. Все это влияет на восприятие его как кандидата. Мы голосуем за человека, которого знаем по фотографии. Все, что нарисовывается искусственным интеллектом, вводит в заблуждение наших избирателей».

Законопроект, запрещающий использовать в агитации нейросети для создания образов людей, кажется региональному координатору ЛДПР в Псковской области, депутату Псковского областного Собрания депутатов Антону Минакову очень своевременным. Он объяснил, почему считает именно так. 

«При составлении каких-то агитационных и информационных материалов нейросети помогают где-то скорректировать картинку, добавить контрастности, либо наоборот добавить какое-то изображение. Поэтому, безусловно, мы не отстаем от современных технологий и нейросеть используем. Что касаемо законопроекта, принятого в Госдуме в первом чтении, внесенных поправок, в том числе о запрете использования искусственного интеллекта в предвыборной агитации, я считаю это абсолютно своевременной и правильной инициативой, поскольку нейросетями, к сожалению, можно воспользоваться как в хороших, так и в каких-то негативных моментах. В том числе, было опасение в том, что некоторые кандидаты могут злоупотреблять ИИ и предоставлять искаженную информацию, отличающуюся от реальности. В частности, можно было бы использовать, например, изображение умерших людей, либо какой-то кандидат мог запросто взять и вокруг себя сгенерировать толпу в десять тысяч человек, которые скандируют его имя. Все это не соответствовало бы действительности, но ряд избирателей, особенно те, которые не знакомы с современными технологиями, вполне могли бы обмануться. Уверен, что закон также примут и во втором чтении. Искусственный интеллект не должен применяться в предвыборной агитации. Здесь я все-таки сторонник методов работы по старинке: есть фотоаппарат, есть дизайнер и какие-то программы-редакторы в компьютере. Вот мы ими пользовались на предыдущих выборах в Государственную Думу, будем использовать и на этих выборах». 

Руководителю регионального отделения партии «Справедливая Россия» Наталье Тудаковой такой законопроект показался слишком жестким. По ее мнению, наличия маркировки на фото, сгенерированного нейросетью, было бы более чем достаточно. Она назвала те изображения, которые ей бы хотелось использовать в агитационной работе.

«Что касается использования искусственного интеллекта в агитации, на наш взгляд, тут не нужны тотальные запреты, но регулирование действительно требуется. Как минимум маркировка, чтобы избиратели понимали, что данный контент, данная агитационная продукция создана с использованием нейросетей. Я считаю, что также необходимо смягчить запрет, не связанный с использованием ИИ, например, в использовании в агитации реальных фото кандидатов. Сейчас можно использовать только изображение самого кандидата в агитационной продукции. Почему нельзя использовать фото с семьей, не очень понятно. Потому что, на самом деле, это дает людям реальное представление о кандидате. Такой запрет кажется избыточным. Основную опасность на сегодняшний день представляют дипфейки. Технологии ИИ позволяют создавать реалистичные поддельные материалы, которые сложно отличить от подлинных. На наш взгляд, это открывает возможность для распространения дезинформации. Фальсификация голосов или аудиозаписей может подорвать доверие к избирательному процессу в целом. Стоит отметить, что фракция «Справедливой России» в Государственной Думе уже внесла законопроект об уголовной ответственности за дипфейки, когда имитируется голос, изображение, видео без разрешения владельца. Эта норма должна применяться и к ситуации на выборах, чтобы исключить использование черного пиара. Такие случаи уже бывали».

Руководитель регионального отделения партии «Яблоко» Артур Гайдук пояснил, что партия не использует в своих агитационных материалах изображения, сгенерированные нейросетью. Однако никакой опасности, по мнению главного псковского яблочника, в таких изображениях нет. 

«Мы не использовали нейросети в предвыборной агитации, при выпуске газет или плакатов. Я об этом даже как-то не думал и не знаю, насколько ИИ может повредить чему-то. Не вижу здесь проблем. Проблема может быть только с конкретным изображением. А в целом, в самой системе это глупо как-то. Нейросети очень часто генерируют картинки в сюрреализме, то есть в совмещении несовместимого. Это правда. Ведь человек смотрит на эту картинку и пропускает ее в тираж, а не сама нейросеть себя в него пропихивает. Я считаю, что это перегибы уже. Заняться больше нечем. Я не вижу вреда от картинок, которые будет генерировать нейросеть».

Секретарь Совета Псковского регионального отделения партии «Новые люди» Игорь Романов отметил, что партия выступает против запретов, однако изменения, связанные с ограничениями на использование нейросетевых изображений в агитации, «новолюди» поддержали.

«Партия использует нейросети, но только там, где это облегчает работу и уменьшает бюрократию. Сардана Авксентьева (депутат Госдумы - ред.) сказала о том, что можно использовать их в качестве как некого простого административного ресурса для того, чтобы упростить всю работу. Мы поддержали данную законодательную инициативу. Мы не против того, чтобы использовать людей в нейросетях по их согласию, но против того, чтобы использовали генерации мертвых людей».

Поправки в избирательное законодательство, которые запрещают использовать нейросети в предвыборной агитации для создания образов людей, за исключением самих кандидатов, руководителя регионального исполкома Санкт-Петербургского отделения «Единой России», бывшего заместителя губернатора Псковской области по внутренней политике Александра Серавина не удивили. Подобного рода изменения президент Ассоциации электронной электоральной политики предвидел еще год назад. Он объяснил, почему считает их правильными и своевременными, а также назвал негативные стороны нейросетевых изображений, которые могут вводить избирателя в заблуждение.

«Я на конференции в прошлом году по искусственному интеллекту делал доклад. И там у нас была дискуссия на тему, когда будут вводиться законодательные ограничения по их использованию (изображений, сгенерированных ИИ - ред.). Коллеги сделали прогноз на 3-5 лет, а я сказал, что из-за бурного экспериментирования с ИИ они будут ждать нас уже в 2026 году. Потому что качество, скорость подачи информации, реалистичность, невыработанные механизмы у общества по восприятию этой информации, безусловно, способствуют подъему законодательного ограничения. Я считаю это очень правильным, своевременным и уверен, что их будет еще немало (запретов - ред.). Мы привыкли, что изображение является определенным фактом реалистичности. А сейчас появляются миллионы различных информационных поводов, образов, ситуаций, которые производят (нейросети - ред.). В данный момент те события, которые не происходили, производятся нейросетью. И они могут менять поведение и представление человека об образе будущего, меняя его действия. Это, безусловно, надо внимательно анализировать и законодательно ограничивать, уберегая людей от трансформации своего поведения из-за вымышленных событий  и образов».

К сожалению, нам не удалось получить комментарий по теме программы от лидеров псковского обкома КПРФ. А ведь коммунисты — главные «пострадавшие» от законопроекта. Они хотели использовать в агитации нейросетевых Ленина и Сталина, но, скорее всего, этой мечте сбыться не суждено.

По итогу сегодняшней программы представители региональных политических партий и наши эксперты не пришли к единому мнению. Некоторые наши собеседники сочли изменения, которые были внесены в избирательное законодательство, чересчур жесткими. Кто-то и вовсе усомнился в их целесообразности. Но большая часть наших комментаторов считают запрет на использования нейросетей для создания «массовки» кандидата правильным и своевременным.

Правда, запретить использовать ИИ можно только в официальной агитации, а пресечь попытки генерить «черный» контент и фейки, компрометирующие кандидатов или партии, - достаточно сложно. Уж больно легко это сделать с помощью возможностей нейросетей.

Александра Братчикова

Прокомментировать