ExplainLAW
Юридические вопросы
Поиск судебной практики, исследование правовой информации, обработка и анализ договоров, составление стратегии защиты.
Мы создаем продукты, которые облегчают повседневную и профессиональную жизнь
Юридические вопросы
Поиск судебной практики, исследование правовой информации, обработка и анализ договоров, составление стратегии защиты.
На все случаи жизни
Создание текстов, статей и эссе; перевод и изучение иностранных языков; помощь в разработке кода; генерация изображений.
Помощь архитекторам и проектировщикам
Поиск нормативных актов и документов, а также произведение расчетов
Мы защищаем ваши данные по мировым стандартам, используя проверенные технологии. Каждое решение направлено на максимальную безопасность.
Мы разрабатываем ИИ-ассистентов, начиная с глубокого погружения в специфику каждой отрасли, чтобы создавать решения, максимально приближенные к реальным потребностям экспертов.
Мы создаем надежные и отказоустойчивые решения, проверенные по самым строгим стандартам. Наш подход основан на строгом контроле и проверенных технологиях.
О нас
Мы разрабатываем надежные, точные и удобные продукты, помогая профессионалам работать быстрее, эффективнее и качественнее.
Мы глубоко изучаем каждую сферу, для которой создаем продукты, чтобы ИИ-ассистенты работали так, как нужно профессионалам.
Мы гарантируем качество каждого решения, соблюдаем высокие стандарты безопасности и честно подходим к разработке, понимая влияние ИИ на бизнес и людей.
Наши продукты интуитивно понятны и помогают работать быстрее, без сложных настроек и лишних действий.
Мы следим за новыми технологиями и постоянно учимся, чтобы предлагать передовые решения, которые действительно меняют рынок.
Co-founder (CEO,CTO)
Co-founder (CPO,CMO)
Backend разработчик
Frontend разработчик
Главный юрист
Шеф-дизайнер
UI/UX дизайнер
С начала 2023 года в 12 странах было официально зарегистрировано как минимум 129 дел, в которых юристы использовали поддельные ссылки на несуществующие прецеденты или цитаты - все они были сгенерированы инструментами искусственного интеллекта. Эта статистика охватывает лишь случаи, по которым вынесены дисциплинарные меры или решения суда. В реальности, как признают аналитики, это лишь верхушка айсберга. Большинство выявленных нарушений произошло в США, но они также зафиксированы в Великобритании, Южной Африке, Израиле, Австралии и Испании. Показательно изменение профиля виновных: если в 2023 году 70% фальсификаций происходили по вине pro se-участников (самозащита), то уже в 2025 году профессиональные юристы виновны в 13 из 23 инцидентов. Санкции вполне реальные За два с половиной года суды назначили не менее 5 штрафов свыше $10 000, четыре из которых - в 2025 году. Самым показательным стал случай, где представители известных юридических компаний были оштрафованы на $31 000 за ссылки на поддельные дела, сгенерированные ИИ, из-за отсутствия двойной проверки. В другом деле суд штата Юта установил, что юридический клерк использовал ChatGPT для составления иска. В документе содержалось несколько "галлюцинаций" ИИ, включая дело Royer vs Nelson, которого не существует. После расследования сотрудник был уволен, а компания внедрила новую ИИ-политику, а суд объявил, что такие "ошибки" - это уже системная угроза правосудию. Судьи научились выявлять ИИ-галлюцинации. И у них, похоже, нулевая терпимость. Только за последние полгода дисциплинарные дела начали массово вноситься в базы данных. Самый частый "подозреваемый" - ChatGPT, который в своих ответах может уверенно ссылаться на то, чего никогда не существовало. Риски? Репутация, деньги, лицензия Юристы часто не понимают, где заканчиваются возможности ИИ и начинаются профессиональные обязанности. ИИ - это как автомобиль, позволяет тебе быстрее и комфортнее добраться от точки А до точки Б, но если ты будешь управлять им закрытыми глазами, сам знаешь что случится. К слову, в России уже тоже появляются прецеденты использования ИИ в судебной практике, но об этом в следующей статье. Что же делать, чтобы не попасть в просак? В предыдущих материалах я уже отмечали: чтобы не попасть в такую ситуацию, используйте узкопрофильных ИИ-юристов. Необходима формализация: внутрифирменные политики, аудит ИИ-результатов, стандарты проверки, санкции за нарушения. Массовое появление ИИ-генерированного контента в судебных делах - не эксцесс, а новая реальность юридической практики. Пока система лишь учится реагировать, ответственность за профессиональную точность всё чаще ложится на юристов. Без верификации, специализированной экспертизы и стандартов - доверие к праву под угрозой. А вы бы проверили - или отправили иск сразу? Где проходит грань между автоматизацией и халатностью?
Мы продолжаем развивать Explain, и в этот раз сосредоточились на вашем комфорте и гибкости в работе с ботом. 🎨 Обновили дизайн веб-версии Теперь интерфейс стал чище, удобнее и визуально приятнее. Работать с ботом — проще и комфортнее. 👉 🌐 Глубокий поиск в интернете Включайте и выключайте его прямо в диалоге, когда нужно. Бот будет подключать внешние источники только тогда, когда это действительно важно. ⚖️ Гибкий поиск судебной практики Теперь вы сами решаете, использовать ли судебную практику при формировании ответа. База знаний ExplainLaw уникальная, собрана из множества источников, часть которых - эксклюзивные. Управление — прямо внутри чата. Explain стал ещё ближе к тому, каким вы его хотите видеть. Попробуйте обновлённую версию 👉
Думаете, обязательная маркировка AI спасет нас от дипфейков и потока сгенерированной дезинформации? Я вот сильно сомневаюсь. Инициатива, о которой пишут, - "явная и легко идентифицируемая метка" на всем, что делает искусственный интеллект, - звучит правильно, но на деле рискует превратиться в еще одну бесполезную "галочку" и новый геморрой для бизнеса. Давайте разберемся, почему этот законопроект больше похож на попытку "создать видимость работы", чем на реальное решение проблемы. Благими намерениями вымощена дорога в ад Основная идея - дать пользователю знать, когда он общается с машиной. Это должно помочь бороться с фейками, манипуляциями и дезинформацией. Звучит логично. Но как это реализовать на практике? Проблема определения: Где грань между текстом, написанным человеком с помощью ИИ, и текстом, полностью созданным AI? Кто и как будет это отличать? Проблема контроля: Как обеспечить маркировку всего AI-контента в сети? Пока Китай вводит жесткие требования (и, по мнению многих, использует это для контроля), Россия обсуждает "мягкое право" для "повышения доверия". Но без четких критериев и механизмов это может остаться лишь декларацией. Метка - не панацея Важно понимать: сама по себе метка не защищает от обмана. Она лишь формально говорит: "Вас предупредили". Это удобно для снятия ответственности, но не для реальной безопасности. Возникают парадоксы: 1. Если все будет помечено AI, мы просто перестанем замечать эти метки (как рекламные баннеры). P.S: Кто-то из читателей хоть раз проверял erid? Полагаю что нет! Юристы работающие с рекламой и иные смежные специалисты не в счет. 2. Если стандартов нет, начнется хаос из разных плашек, которые только запутают пользователя. Что это значит для бизнеса? Для IT-юриста для бизнеса и его клиентов это означает новый потенциальный геморрой: Compliance: Если закон примут, придется внедрять процедуры маркировки и контроля. SEO: Поисковики уже оценивают "естественность" контента. Маркировка может стать новым фактором ранжирования. Клиентский опыт: Как пользователи отреагируют на "робота" в чате поддержки или в описании товара? Это нужно будет тестировать. Идея хорошая, реализация - под вопросом Искусственный интеллект - это наша реальность. Информировать пользователя о его использовании - правильно. Но чтобы маркировка работала, она должна быть понятной, единой и честной, а не просто формальностью. Пока же обсуждаемый законопроект вызывает больше вопросов, чем дает ответов. Будем следить за развитием. А вы как считаете, нужна ли такая маркировка? И поможет ли она? Присоединяйся к обсуждению в нашем .