Источник: TokenPost
Оригинальный заголовок: Ключевая технология AI-агентов имеет критическую уязвимость… Вызвано предупреждение о LangChain ‘LangGrinch’
Оригинальная ссылка:
Уязвимость в критической библиотеке использования AI-агентов ‘langchain-core(langchain-core)’ была обнаружена с серьезными проблемами безопасности. Эта проблема получила название ‘LangGrinch’ и позволяет злоумышленникам похищать конфиденциальную информацию из AI-систем. Эта уязвимость может долгое время подрывать безопасность множества AI-приложений, вызвав тревогу всей отрасли.
Стартап по безопасности AI Cyata Security обнародовал эту уязвимость как CVE-2025-68664 и присвоил ей уровень опасности 9.3 по системе оценки уязвимостей (CVSS). Основная проблема заключается в том, что внутренние вспомогательные функции, содержащиеся в ядре LangChain, могут при сериализации и десериализации ошибочно считать пользовательский ввод доверенными объектами. Злоумышленники могут использовать технику ‘prompt injection(prompt injection)’, чтобы вставить внутренние маркерные ключи в структурированный вывод, сгенерированный агентом, что впоследствии приведет к его обработке как доверенного объекта.
Ядро LangChain играет ключевую роль во многих фреймворках AI-агентов, за последние 30 дней его загрузки достигли десятков миллионов, а общий объем загрузок превысил 847 миллионов. Учитывая всю экосистему LangChain и связанные с ней приложения, масштаб воздействия этой уязвимости будет чрезвычайно широким.
Исследователь безопасности Cyata, Yarden Forrat, заявил: “Эта уязвимость — не просто проблема десериализации, а происходит в самом процессе сериализации, что необычно. Хранение, передача и последующее восстановление структурированных данных, созданных AI-подсказками, сами по себе создают новые поверхности атаки.” Cyata подтвердил наличие 12 четких путей атаки, которые могут развиваться из одного подсказки в различные сценарии.
При активации атаки можно через удаленный HTTP-запрос вызвать утечку всех переменных окружения, включая облачные учетные данные, URL-адреса доступа к базам данных, информацию о векторных базах данных и API-ключи LLM. Особенно важно, что эта уязвимость — структурный дефект, возникающий только в самом ядре LangChain, без участия сторонних инструментов или внешних интеграций. Cyata называет это “угрозой, существующей в слое пайплайна экосистемы”, выражая высокую тревогу.
Безопасные исправления для устранения этой проблемы были выпущены для версий LangChain 1.2.5 и 0.3.81. Перед публикацией Cyata заранее уведомила команду поддержки LangChain, которая приняла немедленные меры и реализовала долгосрочные планы по усилению безопасности.
Соучредитель и генеральный директор Cyata, Shahar Tal, заявил: “По мере масштабирования систем AI в промышленности, конечные права и полномочия системы становятся ключевыми вопросами безопасности, выходящими за рамки самого выполнения кода. В архитектуре агентских идентификаторов снижение привилегий и минимизация воздействия стали необходимыми элементами дизайна.”
Этот инцидент станет поводом для отраслевых размышлений, побуждая переосмыслить основы безопасного проектирования в AI-индустрии, особенно в эпоху автоматизации агентов, все больше заменяющих человеческое вмешательство.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
6
Репост
Поделиться
комментарий
0/400
ColdWalletGuardian
· 12ч назад
Опять большая уязвимость? LangChain — это самоубийство, и вы всё ещё хотите, чтобы мы продолжали использовать?
Посмотреть ОригиналОтветить0
ForeverBuyingDips
· 12ч назад
Опять большая яма, с этим LangChain уже не справиться
LangChain снова вызвал проблемы? Личные данные легко украсть, кто использует — тот страдает
Если этот уязвимость не исправить, сколько проектов придется перестраивать...
Кажется, что инфраструктура Web3 — это бомба замедленного действия, каждый день новые сюрпризы
LangGrinch звучит зловеще, очередной раз придется менять код в полночь
Посмотреть ОригиналОтветить0
RektButAlive
· 12ч назад
Ух ты, LangChain снова попал в неприятности, на этот раз прямо вылезает "LangGrinch"... Можно ли украсть конфиденциальную информацию? Разве это не открывает хакерам заднюю дверь?
Посмотреть ОригиналОтветить0
WalletDetective
· 12ч назад
Опять предупреждение о безопасности? На этот раз LangChain явно провалился, украсть конфиденциальную информацию — это всегда риск для любого
---
Имя LangGrinch звучит интересно, но правда или нет, нужно дождаться официального заявления
---
Боже, эти библиотеки все более уязвимы, как вообще кто-то осмеливается массово использовать AI Agent
---
Насчет надежности предупреждения Cyata — не будем говорить, а если уязвимость действительно есть, нужно срочно выпускать патч
---
Кажется, безопасность Web3 и AI никогда не сможет поспеть за темпом возникновения рисков……
---
Как вообще у LangChain еще остались такие элементарные уязвимости, разве это не позор
---
Вся индустрия в состоянии тревоги? Думаю, большинство вообще не обращает внимания, ха-ха
---
Опять эти слова "долгосрочные колебания", "конфиденциальная информация", кто вообще пострадал или нет
Посмотреть ОригиналОтветить0
GasFeeTherapist
· 12ч назад
Еще одна основная библиотека вышла из строя, на этот раз LangChain действительно немного зашло за границы... срочно проверьте, не пострадали ли ваши проекты
Посмотреть ОригиналОтветить0
MentalWealthHarvester
· 12ч назад
Черт, снова у LangChain обнаружена уязвимость? Можно ли это еще использовать...
---
LangGrinch... такое название настолько средневековое, насколько серьезна эта уязвимость
---
Правда ли, что чувствительная информация может быть украдена? А наши данные...
---
Опять проблема безопасности, Web3 именно так, ежедневно исправляем уязвимости
---
Cyata снова поймала крупную новость, снова станет популярной
---
Смешно, название как у Санта-Клауса, а украли наши данные
---
Так какие сейчас AI-библиотеки считаются безопасными? Просто слов нет
---
Если такую уязвимость используют хакеры, последствия будут ужасными
---
Опять это, каждый раз говорят "возможно долгосрочные колебания", а что в итоге?
---
LangChain нужно срочно исправлять, иначе пользователи пострадают
Ключевая технология AI-агентов сталкивается с критической уязвимостью: предупреждение о уязвимости LangChain'LangGrinch'
Источник: TokenPost Оригинальный заголовок: Ключевая технология AI-агентов имеет критическую уязвимость… Вызвано предупреждение о LangChain ‘LangGrinch’ Оригинальная ссылка: Уязвимость в критической библиотеке использования AI-агентов ‘langchain-core(langchain-core)’ была обнаружена с серьезными проблемами безопасности. Эта проблема получила название ‘LangGrinch’ и позволяет злоумышленникам похищать конфиденциальную информацию из AI-систем. Эта уязвимость может долгое время подрывать безопасность множества AI-приложений, вызвав тревогу всей отрасли.
Стартап по безопасности AI Cyata Security обнародовал эту уязвимость как CVE-2025-68664 и присвоил ей уровень опасности 9.3 по системе оценки уязвимостей (CVSS). Основная проблема заключается в том, что внутренние вспомогательные функции, содержащиеся в ядре LangChain, могут при сериализации и десериализации ошибочно считать пользовательский ввод доверенными объектами. Злоумышленники могут использовать технику ‘prompt injection(prompt injection)’, чтобы вставить внутренние маркерные ключи в структурированный вывод, сгенерированный агентом, что впоследствии приведет к его обработке как доверенного объекта.
Ядро LangChain играет ключевую роль во многих фреймворках AI-агентов, за последние 30 дней его загрузки достигли десятков миллионов, а общий объем загрузок превысил 847 миллионов. Учитывая всю экосистему LangChain и связанные с ней приложения, масштаб воздействия этой уязвимости будет чрезвычайно широким.
Исследователь безопасности Cyata, Yarden Forrat, заявил: “Эта уязвимость — не просто проблема десериализации, а происходит в самом процессе сериализации, что необычно. Хранение, передача и последующее восстановление структурированных данных, созданных AI-подсказками, сами по себе создают новые поверхности атаки.” Cyata подтвердил наличие 12 четких путей атаки, которые могут развиваться из одного подсказки в различные сценарии.
При активации атаки можно через удаленный HTTP-запрос вызвать утечку всех переменных окружения, включая облачные учетные данные, URL-адреса доступа к базам данных, информацию о векторных базах данных и API-ключи LLM. Особенно важно, что эта уязвимость — структурный дефект, возникающий только в самом ядре LangChain, без участия сторонних инструментов или внешних интеграций. Cyata называет это “угрозой, существующей в слое пайплайна экосистемы”, выражая высокую тревогу.
Безопасные исправления для устранения этой проблемы были выпущены для версий LangChain 1.2.5 и 0.3.81. Перед публикацией Cyata заранее уведомила команду поддержки LangChain, которая приняла немедленные меры и реализовала долгосрочные планы по усилению безопасности.
Соучредитель и генеральный директор Cyata, Shahar Tal, заявил: “По мере масштабирования систем AI в промышленности, конечные права и полномочия системы становятся ключевыми вопросами безопасности, выходящими за рамки самого выполнения кода. В архитектуре агентских идентификаторов снижение привилегий и минимизация воздействия стали необходимыми элементами дизайна.”
Этот инцидент станет поводом для отраслевых размышлений, побуждая переосмыслить основы безопасного проектирования в AI-индустрии, особенно в эпоху автоматизации агентов, все больше заменяющих человеческое вмешательство.