Часто звучит идея (её недавно озвучивал Андрей Дороничев), что в будущем почти всё будет делать ИИ, а роль человека сведётся к постановке задач и принятию ответственности за результат.
Цитата по смыслу такая: “линейных сотрудников не будет, каждый станет руководителем отдела из сотни AI-агентов, человек ставит цель и отвечает за итог”.
Но если смотреть на ситуацию не как футуролог, а как юрист, возникает вопрос: а может ли человек вообще принять ответственность за то, что он не контролирует и не понимает?
Иллюзия контроля: когда подпись есть, а решения нет
Например, аналогия с медициной, которая применима к юридической работе.
Допустим:
- врач ошибается в 5% случаев
- ИИ ошибается в 1% случаев
Юридическая проблема начинается не в этой статистике, а в механизме ответственности.
Общество терпит ошибки человека, потому что есть понятный субъект: врач, инженер, юрист, то есть, специалист.
Но оно не готово терпеть меньший риск, если решение выдаёт “чёрный ящик”, решения которого нельзя объяснить.
Ошибок людей воспринимаются как “ну бывает”, а ошибки ИИ, как “катастрофа и безответственность”.
Два сценария проверки ИИ (оба плохие)
1) Человек проверяет всё вручную
Если юрист перепроверяет каждый вывод ИИ: факты, нормы, аргументацию, то он тратит столько же времени, как без ИИ.
Тогда технология теряет смысл: ни ускорения, ни экономии, ни эффективности.
2) Человек проверяет выборочно
Это реальный сценарий: ИИ готовит позицию, человек “пробегает глазами” и подписывает.
Но тогда ответственность превращается в фикцию.
Формально решение подписал юрист.
А фактически решение принял ИИ.
И если случится ошибка, то получается, что человек отвечает за результат, хотя он не принимал решения осознанно, а просто доверился системе.
Это ближе к “номинальному контролю”, чем к реальной ответственности.
Проблема масштаба: “отдел из 100 агентов” - это не отдел
Современные AI-агенты могут работать автономно.
Один агент ставит задачу другому.
Второй вызывает третьего.
Третий получает данные от четвёртого.
В результате цепочка действий и логика принятия решений:
- распределена
- скрыта
- неинтерпретируема
- часто не воспроизводима
И вот здесь юридический конфликт максимален: человека хотят назначить “руководителем”, но руководитель обязан понимать, как действует подчинённый.
А если он не понимает, то он не руководитель, а носитель подписи, которого система вынуждает легализовать результат.
Мы не программируем поведение
Люди не прописывают логику нейросетей, а задают способ обучения, а дальше структура возникает сама.
То есть итоговая логика ИИ:
- не создана человеком напрямую
- формируется данными
- не является “прозрачной”
Но более сложные интеллектуальные системы плохо контролируются менее сложными.
Что придёт вместо ответственности? Вероятно, что страхование
Конструкция, когда человек отвечает за результат ИИ, плохо работает.
Ответственность предполагает контроль, понимание, возможность предотвратить нарушение.
А при автономных агентных системах этого может не быть.
Поэтому рынок может перейти к конструкции страхования рисков.
Тогда клиент сможет выбирать дорогой продукт, где всё проверяют люди (“handmade legal”) или дешёвый продукт, где работает ИИ, но риск ошибки выше и “зашит” в цену.
Что это значит для юристов
Роль юриста будет состоять в риск-менеджменте, контроле, создании архитектуры распределения ответственности, решениях по распределению убытков.
И конечно, юристы будут создавать новые юридические сервисы, основанные на синергии: алгоритмические системы + ИИ.
Botman.one будет помогать в создании таких сервисов!
Команда платформы Botman.one предлагает вам консалтинг и автоматизацию: анализ процессов + автоматизация с помощью платформы и доступных на ней нейросетей.
Мы можем сами сделать автоматизацию под заказ или вы можете самостоятельно атоматизировать процессы на платформе.
Тут можно попробовать: ссылка.
Проходите бесплатный курс по legaltech: ссылка
Заходите в Телеграм-группу, где мы обсуждаем технологии: ссылка