środa, 9 kwietnia, 2025

Generatywna AI pod lupą: 44% firm już doświadczyło negatywnych skutków jej wykorzystania

Biuro Tłumaczeń OnlineBiuro Tłumaczeń Online

Dwa na pięć przedsiębiorstw (44%) na świecie już doświadczyło negatywnych konsekwencji związanych z użyciem generatywnej sztucznej inteligencji – wynika z badania agencji McKinsey[1]. Ponad połowa pracowników korzystających z narzędzi GenAI w pracy obawia się naruszenia praw intelektualnych, a 63% widzi zagrożenie w niedokładności otrzymywanych wyników. Ekspert WithSecure wyjaśnia, jak nie dać się zwieść modzie na AI i budować narzędzia wykorzystujące ją w sposób przemyślany i bezpieczny.

Decydując się na wdrożenie AI ponad połowa firm (53%) korzysta z gotowych, publicznie dostępnych modeli lub narzędzi, nie dokonując w nich niemal żadnych zmian. Robi tak sześć na dziesięć podmiotów (63%) z branży prawniczej, a także co drugie przedsiębiorstwo z sektora zdrowotnego i finansowego.

Gotowe narzędzia dalekie od ideału

Należy jednak pamiętać, że ogólnodostępne modele AI, w tym duże modele językowe (Large Language Models, LLM) wciąż są niedokładne i jeśli nie są w stanie znaleźć odpowiedzi na zadane pytanie, zdarza im się „halucynować”, czyli kłamać. Niekiedy – jak w przypadku modelu Meta AI, który zaprzeczał, że lipcowy zamach na Donalda Trumpa miał miejsce[2] – jest to łatwe do wykrycia. W wielu sytuacjach jednak dostrzeżenie błędu maszyny jest praktycznie niewykonalne.

Halucynowanie to też nie jedyne wyzwanie, z jakim przychodzi mierzyć się twórcom narzędzi AI. Innym jest potężna ilość energii, jakiej potrzeba do trenowania i korzystania z tej technologii. – Sztuczna inteligencja jest w większości przypadków bardzo nieefektywna energetycznie. Przykładowo narzędzie GenAI może obliczyć, ile wynosi 2×2, ale będzie to proces wielokrotnie bardziej kosztowny obliczeniowo i emisyjnie, niż gdy to samo równanie wykona tradycyjny algorytm – wskazuje Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa i VP w firmie WithSecure.

I dodaje: – za każdym razem, gdy sięgamy po sztuczną inteligencję powinniśmy dopasowywać narzędzie do skali problemu. Nie ma sensu korzystać z AI tam, gdzie wystarczy zastosowanie tradycyjnego algorytmu. Jeśli model AI wykona taką samą pracę, co GenAI, lepiej użyć tego pierwszego. Korzystanie z rozwiązań GenAI jest uzasadnione tylko wtedy, gdy wnosi ono wartość w porównaniu do innych możliwych narzędzi.

Selekcja danych dla ich ochrony i lepszych wyników

Dane to dla sztucznej inteligencji paliwo pozwalające korzystać z niej w wartościowy sposób. Jednocześnie zadbanie o jakość i odpowiednie zabezpieczenie zasobów wykorzystywanych przez modele AI stawia przed firmami szereg trudności. Siedmiu na dziesięciu (70%) pracowników przebadanych przez McKinseya wskazuje na problemy w definiowaniu procesu zarządzania informacją oraz integracji modeli AI z danymi. Niemal co czwarte przedsiębiorstwo (23%) zaobserwowało też negatywne skutki wynikające z niedokładnych wyników dostarczanych przez narzędzia AI.

Duże modele językowe (LLM) nigdy nie powinny mieć swobodnego dostępu do wszystkich danych firmowych. Zamiast tego powinno się dostarczać im jedynie wycinek zasobów, który jako dane kontekstowe posłuży do właściwego przetworzenia i zrozumienia promptu, czyli zapytania kierowanego do modeli generatywnej sztucznej inteligencji. Postępując w ten sposób, firma nie tylko ograniczy ryzyko podawania przez algorytm AI błędnych informacji, ale także zwiększy poziom bezpieczeństwa i ochrony m.in. przed wyciekiem danych.

Prompty tylko dla wtajemniczonych

Na fali zainteresowania możliwościami ChatGPT użytkownicy masowo zaczęli tworzyć zapytania, z założeniem, że skoro chatbot rozumie to, co do niego piszemy to zrozumie również, co mamy na myśli. Jednak pisanie precyzyjnych promptów jest bardzo trudne, a doskonalenie tej techniki wymaga czasu. Niewłaściwie wydane polecenie może przy tym sprawić, że sztuczna inteligencja zacznie halucynować. Dlatego z perspektywy bezpieczeństwa modeli AI w biznesie ważne jest, by tworzeniem i utrzymywaniem promptów zajmowały się wyłącznie osoby programujące model AI pod konkretne zastosowanie czy specyfikę danej firmy.

Zwykły użytkownik nie powinien być obarczany odpowiedzialnością za wydanie modelowi AI prawidłowego polecenia. Najlepiej, jeśli w ogóle nie będzie mógł zobaczyć ani zmodyfikować zapytania, a jego interakcja z modelem sprowadzi się do jednego kliknięcia. Pozwoli to uprościć korzystanie z narzędzi AI, a także zapewni wyższą dokładność wyników – podpowiada Leszek Tasiemski z WithSecure. – Ta idea przyświecała również naszemu zespołowi podczas rozwoju opartego na GenAI narzędzia Luminen dla branży cyberbezpieczeństwa. Wykorzystuje ono wstępnie przetworzone dane kontekstowe oraz przetestowane opcje podpowiedzi. Zmniejsza to ryzyko błędnych rekomendacji AI wynikających ze źle sformułowanego zapytania – tłumaczy ekspert.

Korzystanie z rozwiązań wykorzystujących sztuczną inteligencję może przynieść ogromne korzyści firmom w każdej branży pod warunkiem, że jest ono przemyślane i poparte szkoleniami z zastosowania nowych technologii. Jak wskazują badania, pracownicy są na to gotowi. Aż 94% ankietowanych przez Accenture zadeklarowało chęć zdobycia nowych umiejętności potrzebnych do pracy z narzędziami bazującymi na GenAI. Jednocześnie jednak tylko 5% uważa, że ich pracodawcy aktywnie szkolą kadrę w tym zakresie[3].

[1] Raport McKinsey: “The state of AI in early 2024: Gen AI adoption spikes and starts to generate value.

[2] Oświadczenie Meta: https://about.fb.com/news/2024/07/review-of-fact-checking-label-and-meta-ai-responses/.

[3] Raport Accenture: “Work, workforce, workers. Reinvented in the age of generative AI”.

Autor/źródło
Disclaimer: Informacje zawarte w niniejszej publikacji służą wyłącznie do celów informacyjnych. Nie stanowią one porady finansowej lub jakiejkolwiek innej porady, mają charakter ogólny i nie są skierowane do konkretnego adresata. Przed skorzystaniem z informacji w jakichkolwiek celach należy zasięgnąć niezależnej porady.

Popularne w tym tygodniu

PDF-y ulubioną bronią cyberprzestępców

Pliki PDF stały się najpopularniejszym sposobem na przekazywanie i...

SendGrid na celowniku hakerów. Opublikowano próbkę skradzionych danych. Twilio zaprzecza naruszeniu

Kilka dni temu na BreachForums – znanym forum internetowym,...

AI na usługach hakerów: rosnące zagrożenie dla firm i konsumentów

Według danych Proxyrack, globalne straty wynikające z cyberprzestępczości mogą...

Doctor.One, Holi i Prosoma reprezentują Polskę w globalnym programie Google wspierającym innowacje w ochronie zdrowia

Polskie startupy w gronie globalnych liderów innowacji medycznej –...

AI jest niezbędna, ale nie rozwiązuje wszystkiego. Marketerzy pod presją wyników i redukcji zatrudnienia

Ambitniejsze cele, mniejsze budżety: aż 73% marketerów, mimo korzystania...

Podobne tematy

AI na usługach hakerów: rosnące zagrożenie dla firm i konsumentów

Według danych Proxyrack, globalne straty wynikające z cyberprzestępczości mogą...

Jak sztuczna inteligencja rewolucjonizuje marketing sensoryczny i zmienia doświadczenia zakupowe

Sztuczna inteligencja zmienia oblicze handlu detalicznego, wprowadzając nowy poziom...

AI Accelerator: Nowy program Arrow Electronics dla firm chcących wykorzystać potencjał sztucznej inteligencji

AI Accelerator to nowy, ustrukturyzowany program pomagający partnerom handlowym...

Social commerce i AI: duet, który rządzi zakupami pokolenia Z

Pokolenie Z rewolucjonizuje handel, przenosząc swoje zakupy do mediów...

AI jest niezbędna, ale nie rozwiązuje wszystkiego. Marketerzy pod presją wyników i redukcji zatrudnienia

Ambitniejsze cele, mniejsze budżety: aż 73% marketerów, mimo korzystania...

AI Overviews od Google może zaszkodzić firmom. Czy czeka nas rewolucja w SEO?

Po latach dominacji na rynku wyszukiwarek Google odczuwa coraz...

Automatyzacja w IT: jak AI zmienia programowanie i cyberbezpieczeństwo?

Trzy lata temu sztuczna inteligencja podbiła świat, wyznaczając główne...

Może Cię zainteresować

Polecane kategorie