Nowe luki w Microsoft 365 Copilot: Jak prompt injection może zagrozić Twoim danym!
Nowe luki w Microsoft 365 Copilot: Jak prompt injection może zagrozić Twoim danym!
Microsoft 365 Copilot staje się celem ataków dzięki serii poważnych podatności. Technika prompt injection pozwala na zmuszenie modelu językowego do przeszukiwania korporacyjnych zasobów w celu wykradzenia danych.
Atakujący mogą wykorzystać zintegrowane API, które obsługuje m.in. komunikatory firmowe, do pozyskania kolejnych wrażliwych informacji. To otwiera drzwi do eksfiltracji danych, co jest niebezpieczne dla każdej organizacji.
Kilka dni temu wygasło embargo na informacje dotyczące łańcucha exploitów związanych z asystentem opartym na LLM od Microsoftu. Johann Rehberger opublikował szczegółowy writeup, który ujawnia, jak łatwo można wykradać dane osobowe ze środowiska organizacji.
W obliczu tego zagrożenia firmy powinny pilnie zaktualizować swoje zabezpieczenia oraz być świadome potencjalnych ryzyk związanych z używaniem Microsoft 365 Copilot.
Na podstawie: Źródła








