Pod koniec minionego roku 75 proc. rodzimych przedsiębiorstw wdrażało szczególne zasady i procedury dotyczące używania systemów bazujących na sztucznej inteligencji. Oznacza to wzrost o 9 pkt. proc. w porównaniu do 2023 końca roku. Rośnie również odsetek organizacji wprowadzających dodatkowe zabezpieczenia z zakresu cyberbezpieczeństwa przed rozpoczęciem korzystania z narzędzi AI.
Firma audytorska EY przeprowadziła badanie Jak polskie firmy wdrażają AI. Jego wyniki wskazują, że w dużych i średnich przedsiębiorstwach z branżach produkcyjnej, usługowej i handlowej (w nich przeprowadzono ankiety) rośnie świadomość na temat konieczności zwiększenia cyfrowej odporności podczas wdrożeń narzędzi bazujących na sztucznej inteligencji.
Wykres 1. Czy firma wdraża zasady i procedury dotyczące systemów AI?

Aż 94 proc. ankietowanych organizacji (wzrost o 2 pkt. proc.) analizuje aspekty związane z cyberbezpieczeństwem wprowadzając narzędzia AI, przy czym 34 proc. (spadek o 3 pkt. proc.) zaznaczyło, że taki proces przeprowadza w ograniczonym zakresie.
Obszar cyberbezpieczeństwa znalazł się w czołówce funkcji, w jakich firmy implementują rozwiązania oparte o sztuczną inteligencję. Został on wskazany przez 28 proc. ankietowanych organizacji, co oznacza taki sam wynik jak dział finansów. Więcej wskazań uzyskało IT (33 proc.), sprzedaż (38 proc.), marketing i analiza rynku (41 proc.) oraz obsługa klienta (41 proc.).
– W przypadku sztucznej inteligencji firmy nie mają innej drogi niż zwiększać rolę cyberbezpieczeństa. Z jednej strony cyfrowi przestępcy już powszechnie korzystają z tej technologii, która znacząco zwiększa ich możliwości. Z drugiej zaś implementacja AI wymusza na organizacjach wgranie do systemów znaczących ilości danych, które muszą być odpowiednio chronione. Cieszy, że przedsiębiorstwa w Polsce mają coraz większą świadomość rosnącej roli wprowadzania odpowiednich zabezpieczeń. Martwi, że ograniczona wielkość inwestycji często wymusza pójscie na kompromisy, których hakerzy nie uznają – mówi Piotr Ciepiela, partner EY.
Świadomość ryzyk
W badaniu odnotowano widoczny wzrost weryfikacji konkretnych zagrożeń związanych z implementacją systemów sztucznej inteligencji. Już 36 proc. ankietowanych przedsiębiorstw w ramach procesu wdrożeniowego AI, identyfikuje ryzyka specyficzne dla ich organizacji i stara się im przeciwdziałać. W porównaniu do 2023 roku oznacza to wzrost o 5 pkt. procentowych. Spada natomiast odsetek firm, które swoje działania opierają na typowych, rynkowych zagrożeniach. W badaniu zauważalne jest również zwiększenie uwagi kierowanej na AI.
Wykres 2. W jaki sposób firma zarządza ryzykiem związanym z wdrożeniem systemu AI?

Jak wskazuje EY w podsumowaniu badań: firmy w Polsce w ramach procesu implementacji AI coraz częściej inwestują w rozwiązania proceduralne (38 proc.) jak i narzędziowe (35 proc.). Równocześnie martwi pozostający na niemal niezmienionym poziomie (19 proc.) odsetek przedsiębiorstw, które zdecydowały się na równoczesne wprowadzenie rozwiązań z obydwu zakresów. Sprawia to, że w wielu organizacjach ochronę ciężko uznać za wystarczającą.
Przodują finanse
W obszarze finansowym już 34 proc. ankietowanych firm wskazało cyberbezpieczeństwo jako obszar, w który zainwestowała w ramach procesu wdrażania sztucznej inteligencji. To jeden z czołowych wyników. Więcej uzyskała tylko integracja systemów AI (45 proc.) i zakup gotowych rozwiązań (44 proc.). Ten sam rezultat (34 proc.) osiągnęło budowanie własnych rozwiązań AI.
Niepokojący w kontekście prewencji przed wirtualnymi zagrożeniami jest natomiast wynik w obszarze szkoleń i edukacji (13 proc.). Sztuczna inteligencja stwarza przed hakerami możliwość tworzenia precyzyjnie targetowanych maili lub materiałów doskonale imitujących czyjś głos, a nawet zawierających przekaz video. Firmy, w których pracownicy mają niską świadomość tego rodzaju ryzyk są mocniej narażone na potencjalne wirtualne ataki.
– Implementując narzędzia bazujące na sztucznej inteligencji przedsiębiorstwa skupiają się na aspektach technologicznych. W ślad za nim musi jednak pójść budowanie świadomości wśród pracowników oraz organizacja szkoleń na poziomie ogólnofirmowych. Nawet najbardziej zaawansowana technologia będzie niewystarczająca, jeśli zatrudnione osoby nie zdobędą wiedzy jak chronić siebie i firmę przez nowymi zagrożeniami wynikającymi z rozwoju AI. Jedną stroną medalu są deep-fake, które znacząco podniosły skalę ryzyk z zakresu wyłudzeń, a drugą – ryzyko wycieku know-how i informacji – podsumowuje Patryk Gęborys, Partner EY Polska, Zespół Bezpieczeństwa Informacji i Technologii.
Źródło: EY