Explainers

Уязвимость SQLi в LiteLLM: хакеры нацелились на API-ключи

Мир разработки ИИ стал чуточку страшнее. Критическая дыра в LiteLLM — популярном шлюзе для LLM — уже используется хакерами, и они бьют в самое сердце: по вашим API-ключам.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
Стилизованная графика: замок с ключевой скважиной, которую взламывают цифровым способом, — символ уязвимости LiteLLM.

Key Takeaways

  • Критическая SQL-инъекция в LiteLLM (CVE-2026-42208) позволяет атакующим красть API-ключи и секреты без аутентификации.
  • Хакеры активно эксплуатируют уязвимость: от разведки к точечным атакам с знанием структуры баз.
  • Разработчикам LiteLLM — апгрейд до 1.83.7+, обходной путь или ротация всех учёток.

Гул серверов, мигающие огни в дата-центре… Легко забыть о невидимой войне, что идёт nonstop. Но на этой неделе она вырвалась на свет божий так, что всем разработчикам ИИ стоит встрепенуться.

Хакеры налетели на здоровенную дыру в безопасности LiteLLM — open-source-проекта, который стал почти обязательным для тех, кто работает с большими языковыми моделями. Речь о CVE-2026-42208 — сочной SQL-инъекции, которая для киберпреступников как открытая дверь. И самое паршивое: для входа им даже логин не нужен.

Представьте LiteLLM как идеального консьержа для ваших ИИ-моделей. Он позволяет общаться с OpenAI, Anthropic или Bedrock через один гладкий интерфейс. Разработчики его обожают: упрощает жизнь, позволяя управлять целым зоопарком ИИ-мозгов через единый API. Это как универсальный пульт для эры ИИ. С 45 тысячами звёзд на GitHub ясно, что инструмент огонь. Но как любой мощный девайс, без должной защиты он превращается в бомбу замедленного действия.

Что за эксплойт? Классическая SQL-инъекция. Вы даёте базе данных команду вытащить данные, а вместо чистого запроса подсовываете вредоносный код, замаскированный внутри. LiteLLM, торопясь проверить ваш API-ключ, слеплял запросы из сырых строк. Плохая привычка. Атакующим хватило специального заголовка ‘Authorization’ — безобидного на вид куска данных, — чтобы любой маршрут API LiteLLM выдал базу с потрохами. А в потрохах? API-ключи, виртуальные ключи, мастер-ключи, переменные окружения, конфиг-секреты — короче, ключи от вашего ИИ-царства.

Как оставить парадную дверь нараспашку с табличкой «Ценности внутри».

Sysdig, исследователи, что раскопали это, заметили: эксплуатация началась через 36 часов после публичного раскрытия бага. Не прогулка — спринт. Атакующие не тыкали пальцем наугад: они целенаправленно били по эндпоинту ‘/chat/completions’, с отточенным заголовком ‘Authorization: Bearer’. Знали, в каких таблицах лежат API-ключи и учётки провайдеров. Точно знали, где цифровое золото зарыто.

Хакеры не дураки. После разведки сменили IP — классика маскировки — и вернулись с ювелирной точностью, используя разнюханную структуру таблиц. Из вандализма перешли к хирургической краже. Это не ноунейм-скрипткидди, а организованная операция.

Невидимая цепочка: атаки на цепочку поставок и ИИ

Ещё тревожнее: LiteLLM недавно уже светился в прицелах. Хакеры TeamPCP подкинули вредоносные пакеты в PyPI — хаб для Python-кода — с инфостилером внутри. Классическая атака на цепочку поставок, в экосистему, от которой зависят девелоперы. Так что не только прямая уязвимость, но и проект под прицелом глобального компромета. Двойной удар, друзья.

Этот инцидент подчёркивает сдвиг, за которым я слежу: ИИ — не просто софт, а платформенная смена. Мы уходим от приложений на вычислениях к приложениям, которые сами вычисляют умно. Как интернет или мобилки раньше, новая платформа несёт свои землетрясения в безопасности. Атакующим выгоднее бить по базовым ИИ-инструментам, чем по отдельным аппам.

Sysdig отметили: оператор сразу пошёл к секретам — явный знак, что знал, куда бить.

Это не только про LiteLLM. Это сигнал. По мере интеграции ИИ-моделей в критическую инфраструктуру — от финансов до медицины — стимулы для атак на управляющие инструменты взлетят до небес. Золотая лихорадка не за данными, а за ключами к ИИ-системам.

Можно ли это проигнорировать?

Мейнтейнеры уже запустили патч в 1.83.7: отказались от опасной склейки строк в пользу параметризованных запросов. Как заделать протекающую плотину. Но вот загвоздка: сколько инстансов всё ещё висят на старом коде? Sysdig предупреждает: все открытые LiteLLM с уязвимостью считать скомпрометированными. Ротируйте все API-ключи, виртуальные ключи, учётки провайдеров. Масштабная чистка — ближе к сносу и стройке заново.

Кто не может обновиться мигом — а таких команд сейчас толпы — есть обход: disable_error_logs: true в general_settings. Временный замок на дверь, блокирующий вредоносный ввод. Не идеал, но щит до патча.

Суть в том: это не просто баг. Симптом Дикого Запада в ИИ-разработке. Строим мощные системы на скорости, а безопасность отстаёт. Инцидент с LiteLLM — напоминание: фундамент решает. Хрупкие оркестраторы ИИ — и вся надстройка под угрозой.

Пора менять мышление. Безопасность в эру ИИ — не довесок, а основа. Не «если» ударят, а «когда» и «насколько метко». Угрозы уже показывают и мотивацию, и умение. Будущее манит, но требует бдительности, какой раньше не бывало.


🧬 Related Insights

Frequently Asked Questions

What is LiteLLM? LiteLLM — open-source-прокси и SDK, позволяющий разработчикам работать с разными большими языковыми моделями (LLM) через единый API. Упрощает интеграцию ИИ-моделей в приложения.

How was LiteLLM exploited? Хакеры использовали SQL-инъекцию (CVE-2026-42208) в LiteLLM. Специально сформированный заголовок Authorization позволил обойти аутентификацию и вытащить из базы прокси API-ключи и секреты.

Is my application vulnerable if I use LiteLLM? Если версия LiteLLM старше 1.83.7, приложение под риском. Срочно обновитесь или примените обход (disable_error_logs: true) и ротируйте все чувствительные учётки в LiteLLM.

Wei Chen
Written by

Technical security analyst. Specialises in malware reverse engineering, APT campaigns, and incident response.

Frequently asked questions

What is LiteLLM?
LiteLLM — open-source-прокси и SDK, позволяющий разработчикам работать с разными большими языковыми моделями (LLM) через единый API. Упрощает интеграцию ИИ-моделей в приложения.
How was LiteLLM exploited?
Хакеры использовали SQL-инъекцию (CVE-2026-42208) в LiteLLM. Специально сформированный заголовок Authorization позволил обойти аутентификацию и вытащить из базы прокси API-ключи и секреты.
Is my application vulnerable if I use LiteLLM?
Если версия LiteLLM старше 1.83.7, приложение под риском. Срочно обновитесь или примените обход (`disable_error_logs: true`) и ротируйте все чувствительные учётки в LiteLLM.

Worth sharing?

Get the best Cybersecurity stories of the week in your inbox — no noise, no spam.

Originally reported by Bleeping Computer