środa, 26 lutego, 2025

Palo Alto Networks: DeepSeek ma luki w zabezpieczeniach

DeepSeek miał podbić świat i zrewolucjonizować podejście do trenowania modeli językowych. Twórcy deklarowali, że jest tani i może uczyć się szybciej niż najlepsze dostępne na rynku rozwiązania. Specjaliści z Palo Alto Networks odkryli jednak, że za tą fasadą kryje się oprogramowanie zawierające krytyczne luki bezpieczeństwa. Mogą one prowadzić nie tylko do wycieków danych użytkowników, ale również do wzrostu cyberprzestępczości.

Technologiczny świat zachwiał się w posadach, kiedy chińska spółka zadeklarowała, że model językowy można wytrenować nie tylko szybko, ale również tanio. W ten sposób DeepSeek przyczynił się do największej w historii przeceny na amerykańskiej giełdzie – notowania spółki Nvidia w ciągu jednej tylko sesji spadły aż o 470 mld dolarów[1].

Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm[2].

Na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google. Co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności uzyskiwania dostępu do kosztownych procesorów graficznych. To bardzo duże przewagi nad konkurencją, dlatego DeepSeek został okrzyknięty „momentem Sputnika” dla sztucznej inteligencji i wywołał panikę wśród inwestorów.

Jednak badania specjalistów z Palo Alto Networks ujawniły niepokojącą prawdę – chiński model sztucznej inteligencji ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak[3]. Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.

„Cyberprzestępcy otrzymują w ten sposób nowe narzędzia, które mogą ich wspierać w prowadzeniu szeroko zakrojonych cyberataków na przedsiębiorstwa i instytucje publiczne. Przypadek DeepSeek i podatności na jailbreak pokazuje, że nadal w domowych warunkach można nakłonić model językowy do tworzenia złośliwego oprogramowania. Doświadczeni cyberprzestępcy mogą wykorzystać takie narzędzia na znacznie szerszą skalę. W miarę jak LLM stają się coraz bardziej zintegrowane z różnymi aplikacjami, skuteczne zabezpieczanie ich przed niewłaściwym wykorzystaniem jest niezbędne dla rozwoju i wdrażania AI w biznesie bez szkody dla użytkowników i klientów” – powiedział Grzegorz Latosiński, dyrektor krajowy Palo Alto Networks w Polsce.

W najbliższych latach każda organizacja wypracuje własne zasady dotyczące nowych modeli sztucznej inteligencji. Już teraz niektóre z nich całkowicie ich zakazują, inne zezwalają na ograniczone, eksperymentalne i ściśle kontrolowane użycie. Jeszcze inne będą spieszyć się z wdrażaniem AI w jak najszerszym zakresie, chcąc osiągnąć większą wydajność i optymalizację kosztów.

W związku z dużym zapotrzebowaniem na niedrogie rozwiązania DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku. Tym bardziej że pokusa testowania nowych modeli jest ogromna.

Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.

Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi.

[1] DeepSeek spowodował największą dzienną przecenę w historii WallStreet. Polska może skorzystać – Technologie – Forbes.pl

[2] https://thecyberwire.com/podcasts/threat-vector/901/notes

[3] Recent Jailbreaks Demonstrate Emerging Threat to DeepSeek

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

Przyszłość pracy w rękach AI? Jakie kompetencje zapewnią nam przewagę?

Współczesny świat wkracza w kolejną fazę rewolucji informacyjnej. Po...

Nowa fala phishingu w Polsce – oszuści podszywają się pod serwisy pocztowe

„Istnieje duża szansa, że twój komputer został zainfekowany przez...

Wyzwania dla centrów danych: AI napędza rozwój, ale zużywa coraz więcej energii

Według danych Golden Sachs generatywna AI w ciągu dekady...

Cyberatak na Bybit: 1,43 mld dolarów zniknęło dzięki manipulacji interfejsem i socjotechnice

W jednym z największych ataków hakerskich w historii cyfrowych...

Cyberataki na sektor medyczny w Polsce wzrosły 2,5-krotnie – alarmujące statystyki

W ciągu ostatniego roku Polska zanotowała ponad 2,5-krotny...

Podobne tematy

Graeme Stewart o ryzykach AI: Stronniczość, błędy i brak regulacji

W ostatnich tygodniach świat technologii ponownie zdominowała rozmowa na...

Urząd Ochrony Danych Osobowych bada zgodność DeepSeek z regulacjami UE

Urząd Ochrony Danych Osobowych (UODO) rozpoczął analizę modelu DeepSeek...

AI na biznesowym sprawdzianie – firmy oczekują zysków, a nie eksperymentów

Wysokie koszty wdrożeń i ryzyko regulacyjne są jednymi z...

Rośnie liczba cyberataków na placówki medyczne

W listopadzie Ministerstwo Cyfryzacji ogłosiło, że przeznaczy ok. 66...

Dobre dane z USA i strach na giełdach. Kurs dolara rośnie

Poniedziałek przebiegał w cieniu strachu, jaki na rynek rzucił...

6 kluczowych zagrożeń dla cyberbezpieczeństwa w 2025 roku

Rozwój komputerów kwantowych to nie tylko wielka szansa na...

Może Cię zainteresować

Polecane kategorie