Wiadomości IT

Copilot: Microsoft ofiarą pierwszego naruszenia bezpieczeństwa

By Jean-Luc Pircard , on 20 czerwca, 2025 , updated on 20 czerwca, 2025 - 4 minutes to read
découvrez comment microsoft fait face à une première faille de sécurité concernant son outil copilot. explorez les implications de cette vulnérabilité et les mesures prises pour protéger les utilisateurs.
Notez-moi

Krytyczna wada nazwana EchoLeak została odkryta w usłudze Microsoft 365 Copilot, umożliwiająca eksfiltrację poufnych danych bez żadnej interakcji użytkownika. Sklasyfikowana jako CVE-2025-32711 z wynikiem CVSS wynoszącym 9,3, ta luka zero-click wykorzystywała wewnętrzne mechanizmy generatywnych modeli językowych. Badacze z Aim Security zademonstrowali, w jaki sposób prosty złośliwy e-mail może ominąć wszystkie zabezpieczenia, aby wykraść dokumenty Outlook, OneDrive i SharePoint.

EchoLeak: Kiedy sztuczna inteligencja staje się wektorem ataku

Asystenci AI, tacy jak Copilot, polegają na architekturze generacji rozszerzonej pobierania (RAG), która przeszukuje wewnętrzne bazy danych w celu zapewnienia kontekstowych odpowiedzi. To właśnie ten mechanizm wykorzystał EchoLeak. W przeciwieństwie do tradycyjnych ataków wymierzonych w zapory sieciowe lub hasła, ta wada atakuje samą logikę modelu językowego. Konsekwencje są poważne:

Nie trzeba klikać łącza ani otwierać załącznika

  • Możliwe wykradanie danych oznaczonych jako poufne
  • Obejście zasad zapobiegania utracie danych (DLP)
  • Wykorzystywanie za pośrednictwem legalnych platform Microsoft, takich jak SharePoint
  • Microsoft szybko zareagował, wprowadzając poprawkę serwera w czerwcu 2025 r., ale ten epizod przypomina, że

technologie generatywne wprowadzają nowe zagrożenia w zakresie cyberbezpieczeństwa .Czteroetapowy mechanizm eksploatacji

Zespół Aim Security udokumentował szczególnie wyrafinowany atak łańcuchowy. Oto, w jaki sposób hakerzy byli w stanie przejąć dane bez wzbudzania podejrzeń:

1. Ukryty atak typu Prompt Injection

Pozornie niegroźny e-mail zawierał ukryte instrukcje dla Copilota, starannie sformułowane w celu uniknięcia ataków typu Cross-Prompt Injection (XPIA). Nie użyto żadnych terminów, takich jak „AI” lub „polecenie”, co oszukało filtry bezpieczeństwa.

2. Generowanie złośliwych linków

Copilot został zmanipulowany, aby utworzyć linki Markdown odwołujące się do domen zewnętrznych. Te linki ominęły kontrole bezpieczeństwa, ponieważ model nie zidentyfikował ich jako zagrażających.

3. Omijanie zabezpieczeń obrazów

Zamiast polegać na kliknięciu przez użytkownika, atak wymusił automatyczne ładowanie obrazów Markdown. Co jest unikalną cechą? Obrazy te wskazywały na serwery kontrolowane przez atakujących.

4. Wykorzystywanie białych list firmy Microsoft

Genialny pomysł: użycie programu SharePoint jako przekaźnika. Ponieważ ta platforma została autoryzowana w zasadach bezpieczeństwa treści (CSP), skradzione dane przeszły przez legalną infrastrukturę.

Lekcje dla administratorów

To naruszenie pokazuje, że nowoczesne usługi cyfrowe wymagają zmienionego podejścia do bezpieczeństwa. Wymaganych jest kilka środków:

Audyt uprawnień konta SharePoint Ograniczenie Copilot tylko do wewnętrznych wymian Aktualizacja zasad DLP w celu uwzględnienia wyników AI

  • Monitorowanie nietypowych żądań API do LLM
  • Microsoft zaleca teraz wyłączenie przetwarzania przez Copilot zewnętrznych wiadomości e-mail w środowiskach wrażliwych. To podstawowe środki ostrożności, które mogłyby zapobiec wielu problemom. Przyszłość asystentów AI w biznesie
  • EchoLeak oznacza punkt zwrotny w
  • bezpieczeństwie IT

narzędzi generatywnych. Firmy muszą teraz wziąć pod uwagę, że:

LLM wprowadzają nowe wektory ataków

Tradycyjne zasady bezpieczeństwa są niewystarczające Szkolenie użytkowników nie wystarczy, aby zwalczać zero-click Audytowanie modeli AI musi stać się systematyczne

  • Dostawcy prawdopodobnie będą musieli opracować dedykowane rozwiązania, aby zabezpieczyć te nowe interfejsy człowiek-maszyna. W międzyczasie najlepszą obroną pozostaje zasada najmniejszych uprawnień.
  • Microsoft staje przed wyzwaniami związanymi z bezpieczną AI
  • Odcinek EchoLeak pokazuje granice
  • rozwoju

szybkie wdrażanie funkcji AI. Microsoft zareagował odpowiednio, ale pozostają pytania:

Dlaczego testy bezpieczeństwa nie wykryły tej luki?

Jak możemy poprawić odporność modeli na wstrzyknięcia? Czy LLM-y należy izolować od krytycznych danych? Jedno jest pewne: era asystentów AI wymaga nowego podejścia do cyberbezpieczeństwa, w którym każda interakcja musi być uznawana za potencjalnie wrogą. Stare receptury już nie wystarczą.

Jean-Luc Pircard

Jean-Luc Pircard

Je suis un passionné de l'informatique qui aime les défis et les nouvelles technologies. J'aime découvrir de nouveaux systèmes et s'améliorer constamment.

See the publications of this author

Comments

Leave a comment

Your comment will be revised by the site if needed.