sobota, 17 maja, 2025

Palo Alto Networks: DeepSeek ma luki w zabezpieczeniach

Biuro Tłumaczeń OnlineBiuro Tłumaczeń Online

DeepSeek miał podbić świat i zrewolucjonizować podejście do trenowania modeli językowych. Twórcy deklarowali, że jest tani i może uczyć się szybciej niż najlepsze dostępne na rynku rozwiązania. Specjaliści z Palo Alto Networks odkryli jednak, że za tą fasadą kryje się oprogramowanie zawierające krytyczne luki bezpieczeństwa. Mogą one prowadzić nie tylko do wycieków danych użytkowników, ale również do wzrostu cyberprzestępczości.

Technologiczny świat zachwiał się w posadach, kiedy chińska spółka zadeklarowała, że model językowy można wytrenować nie tylko szybko, ale również tanio. W ten sposób DeepSeek przyczynił się do największej w historii przeceny na amerykańskiej giełdzie – notowania spółki Nvidia w ciągu jednej tylko sesji spadły aż o 470 mld dolarów[1].

Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm[2].

Na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google. Co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności uzyskiwania dostępu do kosztownych procesorów graficznych. To bardzo duże przewagi nad konkurencją, dlatego DeepSeek został okrzyknięty „momentem Sputnika” dla sztucznej inteligencji i wywołał panikę wśród inwestorów.

Jednak badania specjalistów z Palo Alto Networks ujawniły niepokojącą prawdę – chiński model sztucznej inteligencji ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak[3]. Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.

„Cyberprzestępcy otrzymują w ten sposób nowe narzędzia, które mogą ich wspierać w prowadzeniu szeroko zakrojonych cyberataków na przedsiębiorstwa i instytucje publiczne. Przypadek DeepSeek i podatności na jailbreak pokazuje, że nadal w domowych warunkach można nakłonić model językowy do tworzenia złośliwego oprogramowania. Doświadczeni cyberprzestępcy mogą wykorzystać takie narzędzia na znacznie szerszą skalę. W miarę jak LLM stają się coraz bardziej zintegrowane z różnymi aplikacjami, skuteczne zabezpieczanie ich przed niewłaściwym wykorzystaniem jest niezbędne dla rozwoju i wdrażania AI w biznesie bez szkody dla użytkowników i klientów” – powiedział Grzegorz Latosiński, dyrektor krajowy Palo Alto Networks w Polsce.

W najbliższych latach każda organizacja wypracuje własne zasady dotyczące nowych modeli sztucznej inteligencji. Już teraz niektóre z nich całkowicie ich zakazują, inne zezwalają na ograniczone, eksperymentalne i ściśle kontrolowane użycie. Jeszcze inne będą spieszyć się z wdrażaniem AI w jak najszerszym zakresie, chcąc osiągnąć większą wydajność i optymalizację kosztów.

W związku z dużym zapotrzebowaniem na niedrogie rozwiązania DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku. Tym bardziej że pokusa testowania nowych modeli jest ogromna.

Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.

Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi.

[1] DeepSeek spowodował największą dzienną przecenę w historii WallStreet. Polska może skorzystać – Technologie – Forbes.pl

[2] https://thecyberwire.com/podcasts/threat-vector/901/notes

[3] Recent Jailbreaks Demonstrate Emerging Threat to DeepSeek

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

AI Mode zamiast „Szczęśliwego Trafu”. Google zmienia swoją wyszukiwarkę

Niektórzy użytkownicy Google zaczynają zauważać zmiany w interfejsie wyszukiwarki....

Wiceprezes Comarch o tym, jak technologia może uratować polską gospodarkę

— W styczniu urodziło się najmniej dzieci od II...

Cyberprzestępcy wykorzystują kampanię wyborczą. Rośnie liczba oszustw z wizerunkami polityków

Gorączka kampanii prezydenckiej trwa w najlepsze i rozgrzewa emocje...

Eurostat: Polska wśród liderów incydentów związanych z cyberbezpieczeństwem w 2024 roku

W 2024 roku 22 proc. firm działających na terenie...

Fałszywa strona Mega Model Agency narzędziem irańskiego cyberwywiadu

Irańscy cyberprzestępcy podszyli się pod niemiecką agencję modelek, aby...

Podobne tematy

Czy przecena na Wall Street dopiero się rozkręca?

Ubiegły tydzień przyniósł lekkie odreagowanie na Wall Street. Sp500...

Ataki przeglądarkowe i wycieki danych – cyberzagrożenia pracy hybrydowej

Praca hybrydowa to wygoda i elastyczność, ale także nowe...
00:09:04

Czy Nvidia utrzyma tempo? Gigant zachwyca wynikami, ale inwestorzy mają wątpliwości

Nvidia nie przestaje zaskakiwać. W ostatnim raporcie finansowym za...

Centra danych dominują w wynikach Nvidii – wzrost przychodów o 93% r/r

Wczoraj Nvidia zaprezentowała wyniki za 4. kwartał. Firma zanotowała...

Graeme Stewart o ryzykach AI: Stronniczość, błędy i brak regulacji

W ostatnich tygodniach świat technologii ponownie zdominowała rozmowa na...

Urząd Ochrony Danych Osobowych bada zgodność DeepSeek z regulacjami UE

Urząd Ochrony Danych Osobowych (UODO) rozpoczął analizę modelu DeepSeek...

Może Cię zainteresować

Polecane kategorie