Нейросети ограничат в принятии решений в социально значимых сферах
В России законодательно закрепят решающую роль человека при принятии решений с использованием искусственного интеллекта в образовании, медицине, юриспруденции и общественной безопасности. Норму о роли человека в этих сферах правительство намерено внести в готовящийся закон о регулировании нейросетей. Проблемы с ними уже есть: пациенты сталкиваются с ошибками «интеллектуального» медицинского оборудования, в судах стороны разбирательств опираются на вымышленные нормы права, а преподаватели небрежно проверяют домашние задания учеников, отмечают участники рынка. Контролировать ИИ необходимо, однако вводить полный запрет на принятие им решений или требовать их тотальную проверку нецелесообразно, считают эксперты.

Изображение создано с помощью нейросети
В РФ могут законодательно закрепить правило сохранения решающей роли человека при применении искусственного интеллекта в общественно значимых сферах: в здравоохранении, судопроизводстве, образовании и общественной безопасности. Это следует из материалов правительства, в которых собраны предложения к законопроекту по регулированию искусственного интеллекта. Подготовленный с учетом пожеланий документ Минцифры должно направить на согласование в правительство к концу февраля, сообщил источник, близкий к нескольким профильным ведомствам.
ИИ уже активно применяется в здравоохранении и образовании, а также используется для мониторинга правопорядка, отметили в аппарате вице-премьера Дмитрия Григоренко, курирующего вопросы развития искусственного интеллекта. Всё это чувствительные сферы, в которых традиционно большую роль играет государство.
Отсутствие требования о решающей роли человека при использовании ИИ несет системные риски, считает член комитета Госдумы по информполитике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин.
Нейросеть работает как черный ящик: на вход подаются данные, а на выходе появляется результат, при этом причины, по которым она пришла к конкретному решению, обычно остаются неизвестными, отметил партнер ComNews Research Леонид Коник. Широко известно явление, называемое галлюцинациями ИИ: большая языковая модель или другая нейросеть, которая еще вчера справлялась со сложными задачами и давала здравые ответы, вдруг начинает «глупеть». Причины таких «галлюцинаций» также не всегда поддаются объяснению, добавил он.
Когда участник процесса прибегает к подобным методам и представляет прогноз, подготовленный ИИ, это может влиять на личное восприятие судьи, формирующего решение на основе собственного опыта и знаний. Нередко представители сторон используют нейросети для подготовки процессуальных позиций, не проверяя достоверность ссылок на нормы права и судебную практику, которые порой оказываются вымышленными, добавил юрист.
В начале февраля стало известно, что используемый в медицинском оборудовании ИИ может наносить вред пациентам, пишут «Известия». «По меньшей мере десять человек получили травмы в период с конца 2021-го по ноябрь 2025 года. В большинстве случаев причиной, предположительно, стали ошибки, из-за которых навигационная система TruDi давала хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов», — сообщалось в материале Reuters.
Страны по-разному подходят к регулированию искусственного интеллекта, отметил он. Так, в США действует мораторий на федеральное регулирование ИИ, тогда как в Китае законодательно контролируются отдельные сферы, например использование данных в критической инфраструктуре, а также запрещены дипфейки. В Европейском союзе принят закон об ИИ, который уже вызывает претензии со стороны участников рынка, рассказал эксперт.
Главный побочный эффект ИИ, по мнению советника ректора «Университета 2035» Екатерины Любимовой, заключается в том, что широкая доступность знаний снижает когнитивные усилия. Когда ответы всегда под рукой, у студентов ослабевает привычка критически мыслить и проверять информацию, отметила она. По мере увеличения объемов генерируемого контента возрастает риск ошибок и так называемых галлюцинаций, при этом пользователи нередко воспринимают выводы ИИ как достоверные, подчеркнула она.