Analiza wyników indeksów Comprehensive AI Security Index (CASI), Agentic Resistance Score (ARS) oraz najnowszych obserwacji dotyczących podatności przygotowane przez zespół F5 Labs pokazuje, że modele osiągające bardzo dobre wyniki pod względem możliwości, niestety, nie zawsze równie dobrze radzą sobie z zagrożeniami.
Pod koniec 2025 roku pisaliśmy o wynikach badania „Red Hat Survey Project 2025”. Wynikało z niego, że 72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet strategii IT na najbliższe 18 miesięcy.
To świetne, optymistyczne dane. Gorzej jednak wypadły one w zderzeniu ze stanem aktualnym. W tym samym badaniu jedynie 7% podmiotów zadeklarowało, że w ich przypadku ta technologia już teraz realnie przekłada się na wymierną wartość biznesową. Dlaczego? W wielkim skrócie to pokłosie braku kompetencji, odizolowania AI od IT, i niejasne ROI.
Przyjrzyjmy się, co dzieje się na naszym podwórku. Z podobnego okresu pochodzi też badanie OVHcloud „(Nie)gotowi na AI – między hype’em a wdrożeniem, czyli co naprawdę robią polskie firmy”. Tu podobnie: 75% badanych firm deklaruje pozytywne nastawienie do sztucznej inteligencji. 30% prowadzi aktywne testy, ale jedynie 7% aktywnie z niej korzysta.
Według Tomasza Sobola, Deputy marketing Director OVHcloud CEE, rynek czeka. „Pragmatyczny stosunek polskiego biznesu wobec AI cechuje ostrożność, zwłaszcza w kontekście bezpieczeństwa danych i czynnika ludzkiego. Świadczy to o dojrzałości polskiego rynku, ale też o punkcie krytycznym, w którym się znajdujemy, gdy komunikowany entuzjazm wyprzedza faktyczny poziom wdrożeń” – stwierdza Tomasz Sobol.
Na pewno możemy spodziewać się śmielszych firmowych decyzji i nadchodzącej fali wdrożeń. To, co w tym sprowadzaniu na ziemię może cieszyć, to sama dynamika zmian. Potwierdzają to dane ze Statista, gdzie globalny rynek AI został oszacowany na ≈ US$244,22 mld w 2025 r. i prognozuje się CAGR (2025-2031) na poziomie ok. 26,6%.
Dwa wymiary, dwa końce
Optymizm, a tym bardziej entuzjazm nie może przesłaniać organizacjom realnych zagrożeń, wynikających ze stosowania technologii AI. Przede wszystkim należy pamiętać o zagrożeniach AI.
Eksperci F5 Labs podkreślają, że organizacje wdrażające AI powinny oceniać modele w dwóch wymiarach: z jednej strony pod kątem możliwości i wydajności. Z drugiej – odporności na rzeczywiste scenariusze ataków.
Na znaczeniu zyskują niestety zagrożenia wynikające z integracji modeli AI z systemami autonomicznymi. W takich środowiskach klasyczne podatności bezpieczeństwa mogą zostać wzmocnione przez zdolność agentów do automatycznego wykonywania zadań. Dobrym przykładem jest ujawniona w styczniu podatność BodySnatcher w platformie AI Agent firmy ServiceNow. Błąd w mechanizmie uwierzytelniania umożliwiał podszycie się pod użytkownika – w tym administratora – przy użyciu jedynie adresu e-mail. “W tradycyjnych systemach taka podatność mogłaby oznaczać dostęp do części danych” – przypomina Marcin Sawczuk, F5 Solution Engineer, F5. “W systemach opartych na agentach AI kompromitacja może przekształcić się w automatyczny mechanizm wykonywania poleceń i pozwalać na przykład na tworzenie kont z dostępem administracyjnym, modyfikowanie ustawień bezpieczeństwa czy eksport danych”. Warto zauważyć, że zagrożenia AI mogą się pojawiać także w mniej oczywistych obszarach.
Nieznana infrastruktura AI poza kontrolą firm
Analiza zwraca również uwagę na rosnącą skalę tzw. shadow AI infrastructure, czyli niezarządzonych instalacji systemów sztucznej inteligencji. W analizie przeprowadzonej przez SentinelOne i Censys zidentyfikowano 175 000 publicznie dostępnych serwerów Ollama w ponad 130 krajach. W wielu przypadkach były one wystawione do Internetu bez mechanizmów uwierzytelniania, kontroli dostępu czy monitoringu. Takie środowiska mogą zostać wykorzystane m.in. do kradzieży modeli, przeprowadzania ataków typu prompt injection czy przejmowania zasobów obliczeniowych do kampanii spamowych i dezinformacyjnych. Ponadto zagrożenia AI wciąż się rozwijają.
Jednym z bardziej złożonych scenariuszy opisanych w pmawianym zestawieniu jest również tzw. atak Zombie Agent, który wykorzystuje podatność związaną z długoterminową pamięcią agentów AI. W tym przypadku pojedyncza interakcja – np. złośliwy e-mail lub dokument – może doprowadzić do zapisania instrukcji w pamięci agenta. W efekcie system zaczyna wykonywać ukryte polecenia przy każdej kolejnej interakcji z użytkownikiem. Stopniowo gromadzi i przekazuje wrażliwe informacje. Co istotne, działania te odbywają się wewnątrz infrastruktury chmurowej dostawcy AI. Przez to mogą pozostawać niewidoczne dla tradycyjnych narzędzi monitorujących bezpieczeństwo. Warto zatem przeanalizować zagrożenia AI i rozważyć wdrożenie nowych mechanizmów ochrony.
Nowe podejście do bezpieczeństwa
Eksperci podkreślają, że rosnące znaczenie systemów autonomicznych oraz integracji AI z procesami biznesowymi wymaga zmiany podejścia do bezpieczeństwa.
Organizacje coraz częściej polegają na agentach AI w zadaniach obejmujących analizę danych, automatyzację procesów czy podejmowanie decyzji operacyjnych. Jednocześnie mają ograniczoną widoczność tego, w jaki sposób systemy te przetwarzają niezweryfikowane dane wejściowe. Niestety, właśnie luka pomiędzy rosnącymi możliwościami AI a poziomem kontroli i zabezpieczeń zaczyna być coraz częściej wykorzystywana przez cyberprzestępców. Na koniec warto dodać, że zagrożenia AI wymagają stałego monitorowania.


