Нейросети ограничат в принятии решений в социально значимых сферах

0

В России законодательно закрепят решающую роль человека при принятии решений с использованием искусственного интеллекта в образовании, медицине, юриспруденции и общественной безопасности. Норму о роли человека в этих сферах правительство намерено внести в готовящийся закон о регулировании нейросетей. Проблемы с ними уже есть: пациенты сталкиваются с ошибками «интеллектуального» медицинского оборудования, в судах стороны разбирательств опираются на вымышленные нормы права, а преподаватели небрежно проверяют домашние задания учеников, отмечают участники рынка. Контролировать ИИ необходимо, однако вводить полный запрет на принятие им решений или требовать их тотальную проверку нецелесообразно, считают эксперты.

Изображение создано с помощью нейросети

В РФ могут законодательно закрепить правило сохранения решающей роли человека при применении искусственного интеллекта в общественно значимых сферах: в здравоохранении, судопроизводстве, образовании и общественной безопасности. Это следует из материалов правительства, в которых собраны предложения к законопроекту по регулированию искусственного интеллекта. Подготовленный с учетом пожеланий документ Минцифры должно направить на согласование в правительство к концу февраля, сообщил источник, близкий к нескольким профильным ведомствам.

ИИ уже активно применяется в здравоохранении и образовании, а также используется для мониторинга правопорядка, отметили в аппарате вице-премьера Дмитрия Григоренко, курирующего вопросы развития искусственного интеллекта. Всё это чувствительные сферы, в которых традиционно большую роль играет государство.

«Цена возможной ошибки ИИ в таких сферах, как медицина или судопроизводство, слишком высока: она может напрямую повлиять на жизнь и здоровье людей, а также на защиту их прав. Поэтому важно снизить потенциальные риски, закрепив конкретные зоны ответственности пользователей и разработчиков ИИ, а также обеспечив первостепенную и решающую роль человека в принятии решений, а не технологии», — подчеркнули в аппарате вице-премьера.
«ИИ становится неотъемлемой частью познания и образования, он расширяет их инструментальную базу и способен радикально изменить их развитие, — сказали в Минобрнауки. — Эти изменения неизбежно поднимают и ряд принципиальных этических вопросов — например, проблему авторства, достоверности информации. Но, несмотря на гигантский потенциал и возможности ИИ, он не сможет в обозримом будущем полноценно заменить человеческое сознание, определять этичность научных и образовательных практик».

Отсутствие требования о решающей роли человека при использовании ИИ несет системные риски, считает член комитета Госдумы по информполитике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин.

«Во-первых, это угроза дискриминации и алгоритмических искажений, если модель обучена на неполных или предвзятых данных. Во-вторых, размывание ответственности: в случае ошибки возникает вопрос — кто отвечает: разработчик, оператор или государство? В-третьих, снижение доверия граждан к цифровым сервисам, если решения, влияющие на их судьбу, будут восприниматься как автоматические и безапелляционные», — отметил он.

Нейросеть работает как черный ящик: на вход подаются данные, а на выходе появляется результат, при этом причины, по которым она пришла к конкретному решению, обычно остаются неизвестными, отметил партнер ComNews Research Леонид Коник. Широко известно явление, называемое галлюцинациями ИИ: большая языковая модель или другая нейросеть, которая еще вчера справлялась со сложными задачами и давала здравые ответы, вдруг начинает «глупеть». Причины таких «галлюцинаций» также не всегда поддаются объяснению, добавил он.

«В юриспруденции вызывают споры так называемые предиктивные технологии, когда сторона загружает материалы и фабулу дела в программу и просит представить прогноз о том, каким образом суд должен разрешить настоящий спор. В дальнейшем такой анализ иногда используется для психологического давления на судью», — рассказал руководитель направления «Разрешение IT&IP споров» в компании «Рустам Курмаев и партнеры» Ярослав Шицле.

Когда участник процесса прибегает к подобным методам и представляет прогноз, подготовленный ИИ, это может влиять на личное восприятие судьи, формирующего решение на основе собственного опыта и знаний. Нередко представители сторон используют нейросети для подготовки процессуальных позиций, не проверяя достоверность ссылок на нормы права и судебную практику, которые порой оказываются вымышленными, добавил юрист.

В начале февраля стало известно, что используемый в медицинском оборудовании ИИ может наносить вред пациентам, пишут «Известия». «По меньшей мере десять человек получили травмы в период с конца 2021-го по ноябрь 2025 года. В большинстве случаев причиной, предположительно, стали ошибки, из-за которых навигационная система TruDi давала хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов», — сообщалось в материале Reuters.

«Очевидно, что ИИ нельзя доверять и проверку заданий в школах и вузах — как показал опыт, он допускает массу ошибок», — поделился директор Института исследований интернета Карен Казарян.

Страны по-разному подходят к регулированию искусственного интеллекта, отметил он. Так, в США действует мораторий на федеральное регулирование ИИ, тогда как в Китае законодательно контролируются отдельные сферы, например использование данных в критической инфраструктуре, а также запрещены дипфейки. В Европейском союзе принят закон об ИИ, который уже вызывает претензии со стороны участников рынка, рассказал эксперт.

Главный побочный эффект ИИ, по мнению советника ректора «Университета 2035» Екатерины Любимовой, заключается в том, что широкая доступность знаний снижает когнитивные усилия. Когда ответы всегда под рукой, у студентов ослабевает привычка критически мыслить и проверять информацию, отметила она. По мере увеличения объемов генерируемого контента возрастает риск ошибок и так называемых галлюцинаций, при этом пользователи нередко воспринимают выводы ИИ как достоверные, подчеркнула она.

Прокомментировать