Niebezpieczne luki w AI: ShadowMQ odkryty przez Oligo Security
Niebezpieczne luki w AI: ShadowMQ odkryty przez Oligo Security
Badacze bezpieczeństwa z Oligo Security wykryli szereg niebezpiecznych luk w popularnych frameworkach do wnioskowania sztucznej inteligencji. Luki te mogą prowadzić do zdalnego wykonania kodu w produktach oferowanych przez Meta, NVIDIA, Microsoft, vLLM oraz SGLang.
Główna przyczyna problemu tkwi w niebezpiecznej kombinacji ZeroMQ i deserializacji pickle w języku Python. Badacze zwrócili szczególną uwagę na sposób, w jaki te podatności mogą być propagowane, co sprawia, że sytuacja jest jeszcze bardziej alarmująca.
Wszystkie zaobserwowane systemy, takie jak Meta Llama, NVIDIA TensorRT-LLM, Microsoft Sarathi Serve, Modular Max Server, vLLM oraz SGLang, wykazują ten sam niebezpieczny wzorzec. Eksperci zalecają jak najszybsze podjęcie działań w celu zminimalizowania ryzyka.
Na podstawie: Źródła








