Джерело: TokenPost
Оригінальна назва: AI 요원 핵심 기술에 치명적 결함… 랭체인 ‘LangGrinch’ 경보 발령
Оригінальне посилання:
У ключовій бібліотеці застосунків AI ‘LangChain core(langchain-core)’ виявлено серйозну вразливість безпеки. Цю проблему назвали ‘LangGrinch’, що дозволяє зловмисникам викрадати конфіденційну інформацію з AI-систем. Ця вразливість може довгостроково підірвати безпеку багатьох AI-застосунків, викликавши тривогу у всій галузі.
Стартап з безпеки AI Cyata Security оприлюднив цю вразливість як CVE-2025-68664 і присвоїв їй рівень небезпеки 9.3 у системі оцінки уразливостей (CVSS). Головна проблема полягає в тому, що внутрішні допоміжні функції, що містяться у ядрі LangChain, під час серіалізації та десеріалізації можуть неправильно сприймати введені користувачем дані як довірені об’єкти. Зловмисники можуть використати техніку ‘prompt injection(prompt injection)’, щоб вставити внутрішні ключі маркування у структурований вихід, створений агентом, що потім обробляється як довірений об’єкт.
Ядро LangChain відіграє ключову роль у багатьох фреймворках AI-агентів і за останні 30 днів було завантажено десятки мільйонів разів, загалом понад 847 мільйонів. Враховуючи весь екосистемний ланцюг LangChain та пов’язані застосунки, масштаб впливу цієї вразливості буде надзвичайно широким.
Дослідник безпеки Cyata, Yarden Forrat, зазначив: “Ця вразливість — це не просто проблема десеріалізації, а сама серія процесів серіалізації, що є незвичайним. Збереження, передача та подальше відновлення структурованих даних, створених AI-підказками, самі по собі відкривають нові вектори атак.” Cyata підтвердила 12 чітких шляхів атаки, які можуть перетворитися у різні сценарії.
При активації атаки через віддалений HTTP-запит можна викликати витік всіх змінних середовища, включаючи облікові дані у хмарі, URL-адреси доступу до баз даних, інформацію про векторні бази даних та API-ключі LLM. Особливо важливо, що ця вразливість є структурною помилкою, яка виникає лише у самому ядрі LangChain і не стосується сторонніх інструментів або зовнішніх інтеграцій. Cyata назвала її “загрозою у рівні трубопровідної системи екосистеми”, висловлюючи високий рівень обережності.
Безпекові патчі для вирішення цієї проблеми вже випущені для версій LangChain 1.2.5 та 0.3.81. Перед публікацією цієї проблеми Cyata заздалегідь повідомила команду розробки LangChain, яка вжила негайних заходів і впровадила довгострокові заходи безпеки.
Співзасновник і генеральний директор Cyata, Shahar Tal, зазначив: “Зі зростанням масштабів розгортання AI-систем у промисловості, рівень доступних системі прав і повноважень став ключовою безпековою проблемою, що виходить за межі просто виконання коду. У архітектурі агентів зменшення прав і мінімізація впливу стали необхідними елементами дизайну.”
Ця подія стане поштовхом для переосмислення основ безпеки у AI-індустрії, особливо в епоху, коли автоматизація агентів дедалі більше замінює людське втручання.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
11 лайків
Нагородити
11
6
Репост
Поділіться
Прокоментувати
0/400
ColdWalletGuardian
· 9год тому
Ще одна велика вразливість? LangChain — це самогубство, ви все ще хочете, щоб ми продовжували використовувати?
Переглянути оригіналвідповісти на0
ForeverBuyingDips
· 10год тому
Знову великий провал, ця хвиля LangChain дійсно не витримує
LangChain знову викривлено? Чутлива інформація легко викрадається, хто б це не використовував — страждає
Якщо цю вразливість не виправити, скільки проектів доведеться перебудовувати...
Відчувається, що інфраструктура Web3 — це часова бомба, щодня несподіванки
LangGrinch звучить страшно, ще один раунд, коли потрібно змінювати код посеред ночі
Переглянути оригіналвідповісти на0
RektButAlive
· 10год тому
Вони знову злякалися LangChain, цього разу прямо викопали "LangGrinch"... Чи можуть вони викрасти конфіденційну інформацію? Це ж відкриття заднього ходу для хакерів!
Переглянути оригіналвідповісти на0
WalletDetective
· 10год тому
Знову попередження про безпекову уразливість? LangChain цього разу зірвався, крадіжка конфіденційної інформації — це те, що може трапитися з будь-ким
---
Назва LangGrinch звучить цікаво, але чи справді це так, ще потрібно чекати офіційних заяв
---
Боже, ця купа бібліотек одна за одною така вразлива, як ще хтось наважується масштабно використовувати AI Agent
---
Щодо надійності попередження Cyata — не будемо говорити, але якщо ця уразливість справді існує, потрібно швидко виправити її патчем
---
Здається, безпекові проблеми Web3 і AI ніколи не встигають за швидкістю виникнення ризиків……
---
Як таке можливо, що у LangChain ще є такі початкові уразливості, це ж просто образа
---
Чи вся індустрія насторожена? Я думаю, більшість людей взагалі не звертають уваги, ха-ха
---
Знову ці фрази "довгострокові коливання", "конфіденційна інформація" — чи хтось із них справді постраждав?
Переглянути оригіналвідповісти на0
GasFeeTherapist
· 10год тому
Ще одна базова бібліотека зірвалася, LangChain цього разу справді трохи перебір... швидко перевірте свої проєкти, чи не постраждали вони.
Головна технологія AI-агентів має критичний недолік: попередження про вразливість LangChain'LangGrinch'
Джерело: TokenPost Оригінальна назва: AI 요원 핵심 기술에 치명적 결함… 랭체인 ‘LangGrinch’ 경보 발령 Оригінальне посилання: У ключовій бібліотеці застосунків AI ‘LangChain core(langchain-core)’ виявлено серйозну вразливість безпеки. Цю проблему назвали ‘LangGrinch’, що дозволяє зловмисникам викрадати конфіденційну інформацію з AI-систем. Ця вразливість може довгостроково підірвати безпеку багатьох AI-застосунків, викликавши тривогу у всій галузі.
Стартап з безпеки AI Cyata Security оприлюднив цю вразливість як CVE-2025-68664 і присвоїв їй рівень небезпеки 9.3 у системі оцінки уразливостей (CVSS). Головна проблема полягає в тому, що внутрішні допоміжні функції, що містяться у ядрі LangChain, під час серіалізації та десеріалізації можуть неправильно сприймати введені користувачем дані як довірені об’єкти. Зловмисники можуть використати техніку ‘prompt injection(prompt injection)’, щоб вставити внутрішні ключі маркування у структурований вихід, створений агентом, що потім обробляється як довірений об’єкт.
Ядро LangChain відіграє ключову роль у багатьох фреймворках AI-агентів і за останні 30 днів було завантажено десятки мільйонів разів, загалом понад 847 мільйонів. Враховуючи весь екосистемний ланцюг LangChain та пов’язані застосунки, масштаб впливу цієї вразливості буде надзвичайно широким.
Дослідник безпеки Cyata, Yarden Forrat, зазначив: “Ця вразливість — це не просто проблема десеріалізації, а сама серія процесів серіалізації, що є незвичайним. Збереження, передача та подальше відновлення структурованих даних, створених AI-підказками, самі по собі відкривають нові вектори атак.” Cyata підтвердила 12 чітких шляхів атаки, які можуть перетворитися у різні сценарії.
При активації атаки через віддалений HTTP-запит можна викликати витік всіх змінних середовища, включаючи облікові дані у хмарі, URL-адреси доступу до баз даних, інформацію про векторні бази даних та API-ключі LLM. Особливо важливо, що ця вразливість є структурною помилкою, яка виникає лише у самому ядрі LangChain і не стосується сторонніх інструментів або зовнішніх інтеграцій. Cyata назвала її “загрозою у рівні трубопровідної системи екосистеми”, висловлюючи високий рівень обережності.
Безпекові патчі для вирішення цієї проблеми вже випущені для версій LangChain 1.2.5 та 0.3.81. Перед публікацією цієї проблеми Cyata заздалегідь повідомила команду розробки LangChain, яка вжила негайних заходів і впровадила довгострокові заходи безпеки.
Співзасновник і генеральний директор Cyata, Shahar Tal, зазначив: “Зі зростанням масштабів розгортання AI-систем у промисловості, рівень доступних системі прав і повноважень став ключовою безпековою проблемою, що виходить за межі просто виконання коду. У архітектурі агентів зменшення прав і мінімізація впливу стали необхідними елементами дизайну.”
Ця подія стане поштовхом для переосмислення основ безпеки у AI-індустрії, особливо в епоху, коли автоматизація агентів дедалі більше замінює людське втручання.