Najnowszy raport Capgemini „Nowe systemy zabezpieczeń, nowe zagrożenia: co AI i Gen AI wnoszą do cyberbezpieczeństwa”, pokazuje, że aż 92% organizacji doświadczyło naruszeń bezpieczeństwa w minionym roku, co stanowi drastyczny wzrost w porównaniu do 51% w 2021 roku. Co więcej, 43% ankietowanych firm poniosło straty finansowe na skutek ataków z użyciem deepfake’ów. Mimo rosnących zagrożeń, firmy upatrują szansy na zwiększenie bezpieczeństwa właśnie w narzędziach Gen AI – ponad połowa organizacji, które wzięły udział w badaniu, oczekuje, że dzięki nim będą w stanie szybciej i dokładniej wykrywać zagrożenia w sieci.
Liczba cyberataków nieustannie rośnie, co szczególnie dotyka kluczowe sektory gospodarki. Przeciętna organizacja mierzy się z około 30 incydentami bezpieczeństwa dziennie, a najwyższy poziom zagrożeń notuje sektor bankowy – aż 61% firm z tej branży zgłasza od 10 do 50 ataków dziennie. Niewiele lepiej sytuacja wygląda w branży obronnej (60%), ubezpieczeniowej (58%) oraz telekomunikacyjnej (58%).
– Coraz więcej firm mierzy się z rosnącymi zagrożeniami związanymi z wykorzystaniem GenAI. Chociaż niektóre problemy, jak kradzież danych, są już od dawna znane, technologia ta kreuje nowe ryzyka, takie jak przejęcie algorytmów czy zmiany w ich działaniu. Generatywna AI może tworzyć nieodpowiednie treści lub być podatna na manipulacje. W odpowiedzi firmy modyfikują wewnętrzne regulacje i wzmacniają ochronę systemów, aby lepiej chronić się przed nowymi zagrożeniami. Jednocześnie Gen AI jest szansą. Dostosowane wewnętrzne regulacje w połączeniu z adaptacją odpowiednich narzędzi cyberbezpieczeństwa mogą przyczynić się do zwiększenia poziomu odporności na różnego rodzaju ataki – mówi Edward Gołda, Data Protection Officer w Capgemini Polska.
Nowe narzędzia, większe zagrożenia
Sztuczna inteligencja, w tym GenAI, staje się popularnym narzędziem w rękach cyberprzestępców. Dzięki niej mogą tworzyć zaawansowane złośliwe oprogramowanie, generować przekonujące wiadomości phishingowe czy manipulować plikami w sposób trudny do wykrycia. Przykładem jest wzrost liczby złożonych ataków phishingowych, w których AI pozwala na tworzenie niezwykle realistycznych e-maili. Według oceny brytyjskiego Narodowego Centrum Cyberbezpieczeństwa (NCSC), sztuczna inteligencja prawie na pewno zwiększy liczbę i skalę cyberataków w ciągu najbliższych dwóch lat1.
Generatywna AI, której popularność gwałtownie wzrosła po debiucie ChatGPT w 2022 roku, znacząco obniża próg wejścia dla cyberprzestępców, umożliwiając im przeprowadzanie bardziej zaawansowanych i wyrafinowanych ataków. Przykładem są ataki typu prompt injection, w których złośliwe dane wprowadzane do modeli AI mogą prowadzić do błędnych wyników, kradzieży danych czy sabotażu operacyjnego. Z kolei technologia deepfake umożliwia oszustwa oparte na fałszywych wizerunkach i nagraniach audio, co zagraża zarówno reputacji firm, jak i bezpieczeństwu finansowemu. Według Capgemini aż 43% organizacji, które wzięły udział w najnowszym badaniu, przyznało, że doświadczyło strat finansowych w wyniku deepfaków. 6 na 10 firm uważa, że musi zwiększyć swój budżet na cyberbezpieczeństwo, aby konsekwentnie wzmacniać swoją obronę.
AI jako klucz do szybszej cyberobrony
Jak wspomina ekspert Capgemini, sztuczna inteligencja, choć generująca większe zagrożenie, może być jednocześnie swojego rodzaju „zbawieniem”. Mimo, że zależność firm od AI wciąż rośnie, jej rola w umacnianiu infrastruktury bezpieczeństwa staje się coraz bardziej kluczowa. Większość dostępnych na rynku rozwiązań z zakresu cyberbezpieczeństwa opiera się na tradycyjnych technologiach sztucznej inteligencji i uczenia maszynowego.
– AI przyspiesza wykrywanie zagrożeń i reakcję na nie, analizując ogromne ilości danych, identyfikując wzorce i przewidując potencjalne naruszenia bezpieczeństwa. Takie proaktywne podejście znacząco skraca czas reakcji i minimalizuje szkody. Co więcej, automatyzacja oparta na AI pozwala uprościć rutynowe zadania, dając ekspertom i ekspertkom ds. bezpieczeństwa możliwość skupienia się na bardziej złożonych wyzwaniach – tłumaczy Edward Gołda.
W dłuższej perspektywie, samouczące się systemy AI będą mogły lepiej dostosowywać się do zmieniających się zagrożeń. Nie bez powodu 66% organizacji traktuje AI jako priorytet w obszarze bezpieczeństwa, a 60% uznaje ją za niezbędną w skutecznym reagowaniu na zagrożenia.
Dzięki automatyzacji wykrywania zagrożeń i reakcji na nie, AI minimalizuje potrzebę ręcznej interwencji, zwiększając wydajność oraz zapewniając szybką, skuteczną i ekonomiczną obronę przed dynamicznie ewoluującymi cyberatakami. Ponad 60% ze wspomnianych organizacji zgłosiło, że wdrożenie AI w ich Centrach Operacji Bezpieczeństwa (SOC) skróciło czas wykrywania zagrożeń o co najmniej 5%, a prawie 40% zauważyło, że czas na usunięcie incydentów również zmniejszył się o 5% lub więcej.
Generatywna AI otwiera nowe możliwości w zakresie zaawansowanej symulacji zagrożeń i proaktywnych strategii obronnych. Aż 61% firm ankietowanych w badaniu Capgemini przewiduje, że Gen AI odegra kluczową rolę w przyszłości cyberbezpieczeństwa, a 62% oczekuje, że technologia ta będzie aktywnie wspierać wykrywanie podatności. Te wyniki pokazują rosnące zaufanie do zdolności Gen AI do wprowadzenia bardziej prewencyjnych działań w obszarze ochrony danych i systemów, co może znacząco zmienić krajobraz cyberobrony w najbliższych latach.
1: National Cyber Security Centre, “The near-term impact of AI on the cyber threat,” January 24, 2024.