Использование искусственного интеллекта в работе юриста. Практическое руководство

© НОУРУТС, 2025
Примеры взяты из собственной практики автора
Обложку нарисовал ИИ ruDALL-E
Файл распространяется по лицензии Creative Commons «Attribution-NonCommercial-NoDerivatives» («Атрибуция – Некоммерческое использование – Без производных произведений») 4.0 Всемирная. Вы можете распространять это произведение при условии, что будете делать это бесплатно и не будете вносить изменения в текст. Если вы хотите использовать произведение иным способом, свяжитесь с нами.
От автора
Пожалуй, среди всех новых технологий в юридической сфере искусственный интеллект (ИИ) – самая многообещающая и перспективная. Всего два года назад крупным инфоповодом стала новость, что студент написал диплом с помощью ИИ. Весной 2023 я опубликовал первую научную статью в России, сгенерированную искусственным интеллектом, и это не было большой новостью. А теперь даже написание книг с помощью ИИ стало обычным делом. Появились сервисы для юристов, основанные на ИИ, как российские, так и зарубежные; глобальные программы по развитию ИИ, а также, разумеется, инициативы по регулированию ИИ.
Тем не менее, многие коллеги до сих пор воспринимают ИИ только как интересную игрушку и не используют его в ежедневной работе. Чтобы помочь им – и не только им – найти применение ИИ в своих повседневных задачах, бороться с рутиной, я обобщил свой опыт использования ИИ.
Прочитав это небольшое пособие, вы узнаете, как функционирует ИИ, какие преимущества и недостатки ему присущи; что мешает ИИ заменить живых юристов (по крайней мере, в ближайшее время) и почему на ИИ нельзя положиться на 100 %. Также я покажу, какие задачи уже сейчас можно эффективно решать с помощью ИИ, и дам все необходимые инструкции.
Важно понимать, что ИИ постоянно развивается, языковые модели обучаются, и со временем ИИ сможет решать все больше и больше юридических задач. Будем надеяться, что мы найдем свое место в мире, где большинство задач будет решать искусственный интеллект.
Роман Янковский
Как работает искусственный интеллект?
Вначале расскажу, что такое искусственный интеллект. Все про него слышали – «компьютер научился мыслить, и теперь ему можно задавать любые вопросы». На самом деле все, как всегда, немного сложнее. Нам понадобится немного технических подробностей, чтобы понять, почему ИИ – не замена человеческому интеллекту.
Термины
Начнем с определения ключевых терминов:
Искусственный интеллект – это отрасль (науки, деятельности, человеческого знания), которая занимается разработкой компьютерных систем для выполнения человеческих задач.
В рамках отрасли искусственного интеллекта выделяется направление машинного обучения: это методы решения задач, предполагающие не прямое решение задачи (по запрограммированному алгоритму), а посредством обучения. Для обучения составляют набор данных (датасет), включающий решения множества задач, подобных решаемой, и прогоняют его через определенный алгоритм машинного обучения.
Результатом машинного обучения становится математическая модель, решающая задачи, на которых она была обучена. На практике используются разные архитектуры математических моделей: одна из самых популярных архитектур называется нейронной сетью. Эта архитектура используется и в сервисах вроде ChatGPT, и в системах генерации изображений.
Как работает архитектура нейронных сетей? Обучая модель с помощью специального алгоритма, мы получаем набор параметров, структурно схожий с системой нейронных связей в человеческом мозгу. Модели, построенные по этому принципу, позволили осуществить прорыв в решении ряда задач. Например, задачи по классификации вроде «отличить изображения котов от собак». Люди хорошо решают такие задачи в силу, как мы говорим, «насмотренности»; однако на самом деле именно организация нейронов в человеческом мозге позволяет нам так хорошо с ними справляться.
Математические модели могут решать разные задачи. Для юристов наиболее применимы задачи обработки человеческих текстов, или, как их называют разработчики, обработки естественного языка. Однако есть модели для решения других задач: например, они работают с видео, с аудио, генерируют изображения (вроде того, что на обложке). Их описание выходит за рамки моего текста.
Модели, которые «специализируются» на обработке и генерации текстов, называются «языковыми моделями». Еще они различаются по количеству параметров (иначе – коэффициентов); модели с миллиардами параметров называют большими языковыми моделями (Large Language Models, LLM). Пожалуй, самая большая на сегодняшний день модель (точнее, уже семейство моделей) – ChatGPT от компании OpenAI. Но эта модель далеко не единственная: существует множество аналогов, некоторые из которых происходят друг от друга. Существуют открытые, бесплатные модели и закрытые платные; модели от американских и российских компаний и так далее.
Таким образом, в этой брошюре я опишу большие языковые модели, которые построены на основе архитектуры нейронных сетей. Эти модели обучены посредством машинного обучения и представляют собой вид искусственного интеллекта – компьютерной системы, предназначенной для решения человеческих задач.
Как работает большая языковая модель?
Как функционирует большая языковая модель? Опущу техническую часть про векторы и матрицы (в конце концов, мы все здесь гуманитарии). Главное, что нужно знать: языковая модель – мощный механизм предсказания ответов на ваши вопросы. Звучит здорово, правда? Ведь когда мы задаем вопрос, то хотим именно этого: получить ответ.
Однако есть принципиальная разница: модель предсказывает не обязательно правильный ответ, а наиболее вероятный. Модель оценивает вероятность того или иного ответа и выбирает вариант, который статистически чаще соответствует подобным запросам в её обучающих данных. Как вы понимаете, это не всегда правильный ответ.
Например, вы спрашиваете модель по поводу химии. Или медицины. Или теории полета. Если вы не специалист, то скорее всего не сможете отличить верный ответ от ошибочного. Современные модели умеют генерировать текст, который кажется правдоподобным, но это не гарантирует его фактической точности. Другими словами, в ответе может быть полная чепуха.
Такие ошибки – когда модель генерирует убедительный, но ложный ответ – называется «галлюцинациями» (да, это общепринятый термин). Галлюцинации связаны с тем, что для модели разница между верными и неверными ответами не бинарна: она оперирует вероятностями. Каждый ответ формируется как наиболее вероятная комбинация слов, а не как результат понимания смысла. Поэтому модель не может «осознать», что не знает ответа, и все равно предложит пользователю какой-то правдоподобный вариант.
Вероятность галлюцинаций увеличивается, если вы запрашиваете у ИИ редкую или малодоступную информацию, касаетесь сложных тем или преодолеваете явное нежелание модели отвечать на вопрос. При работе с ИИ важно иметь в виду, что он не владеет всей информацией в мире: например, он плохо ориентируется в старых книгах (которых нет в интернете), не знает исторических данных (например, недействующего законодательства СССР) и т. п.
Важно уметь выявлять галлюцинации модели, если вы планируете часто работать с ИИ. Также нужно формулировать вопросы нейтрально, то есть не подталкивать модель к тому или иному ответу.
Вот типичный пример галлюцинации. Одна из причин ее появления – ответ сформулирован так, словно он возможен («в какой ситуации суд может»), однако ситуаций, описанных в вопросе, не существует. Зеленым показан вопрос пользователя, синим – ответ ИИ:
В какой ситуации суд может попросить у представителя стороны подтверждение его компетенции (удостоверение о повышении квалификации)?
1. В случае, если сторона, представляемая адвокатом, или противоположная сторона ставит под сомнение квалификацию адвоката. Это может произойти, если сторона утверждает, что адвокат не обладает необходимыми знаниями или опытом.
2. При рассмотрении сложного дела, требующего специализированных знаний, суд может потребовать подтверждения компетенции адвоката. Это может быть необходимо, если дело связано, например, с сложными вопросами корпоративного или налогового права.
3. Если возникнут вопросы о профессиональной этике адвоката, суд также может запросить подтверждение его компетенции.
В любом случае, адвокаты обязаны регулярно повышать свою квалификацию и обновлять свои навыки и знания.
Здесь и далее для создания примеров использовались сервисы GigaChat или ChatGPT 4.0, если прямо не указано иное.
В силу того, что ИИ предсказывает ответ, основываясь на вероятностных вычислениях, он также слабо справляется с математическими вычислениями. Некоторые сервисы ИИ подключены к математическим программам и проверяют вычисления с их помощью: например, ChatGPT подключен к Wolfram Alpha. Но часто для точных расчетов проще использовать ИИ другим способом: попросить его написать компьютерную программу, содержащую алгоритм подсчета, а затем (уже с помощью программы) провести сам подсчет без использования ИИ.