Cyberprzestępcy mogą wykorzystywać AI

40

Raport opracowany przez WithSecure, Fińską Agencję Transportu i Komunikacji i Fińską Narodową Agencję Zaopatrzenia Kryzysowego nie dostarcza pozytywnych wniosków. Zgodnie z nim w ciągu pięciu lat cyberprzestępcy mają opracować mechanizmy sztucznej inteligencji, które zdolne będą wyszukiwać luki w zabezpieczeniach, by ułatwić przeprowadzanie ataków.

Na razie ataki wykorzystujące AI nie należą do częstych. Jednak raport przygotowany przez WithSecure (dawniej F-Secure Business), Fińską Agencję Transportu i Komunikacji (Traficom) i Fińską Narodową Agencję Zaopatrzenia Kryzysowego (NESA) pokazuje, że innowacyjne rozwiązania w dziedzinie bezpieczeństwa sztucznej inteligencji powinny być wdrożone już teraz.

Obecnie cyberprzestępcy ze sztucznej inteligencji korzystają przy atakach socjotechnicznych, w których podszywają się pod jakieś osoby czy organizacje. Mogą też korzystać ze zdobyczy sztucznej inteligencji do analizy danych, jednak takich działań analitycy nie są obserwują bezpośrednio.

– Treści generowane przez SI są wykorzystywane w socjotechnikach, jednak działania sztucznej inteligencji zaprojektowanej do sterowania całymi kampaniami, wykonywania poszczególnych etapów ataku lub kontrolowania działania złośliwego oprogramowania wciąż nie zostały zaobserwowane. Prawdopodobnie najszybciej takie techniki opracują dobrze zaopatrzone, wysoko wykwalifikowane grupy takie jak APT, wspierane przez państwa narodowe – mówi Andy Patel, analityk WithSecure Intelligence

Szybki rozwój AI każe jednak przypuszczać, ze już niebawem będzie ona wykorzystywana także do innego rodzaju cyberataków. Raportu WithSecure wskazuje, ze nastąpi to w ciągu pięciu lat. W tym czasie cyberprzestępcy opracują mechanizmy AI mogące samodzielnie wyszukiwać luki w zabezpieczeniach oraz planować i przeprowadzać ataki. Sztuczna inteligencja będzie też potrafiła przeprowadzić cały proces tak, by uniknąć wykrycia przez rozwiązania ochronne i pozyskać dane z zaatakowanych systemów.

– Trzeba pamiętać, że hakerzy, w przeciwieństwie do legalnych organizacji, deweloperów i badaczy, nie przestrzegają przepisów dotyczących prywatności danych i lokalnego prawa. Jeśli decydenci oczekują rozwoju bezpiecznych, niezawodnych i etycznych technologii bazujących na sztucznej inteligencji, będą musieli zastanowić się, jak zapewnić ich bezpieczeństwo  – ostrzega Samuel Marchal, Senior Data Scientist w WithSecure.

Dlatego wdrożenia odpowiedniej ochrony nie ma co zostawiać na później i nad odpowiednimi mechanizmami obronnymi należy myśleć już teraz. Obecne rozwiązania odpowiadają jedynie na niektóre z zagrożeń z wykorzystaniem AI. Potrzebne są nowe technologie by przeciwdziałać zagrożeniom takim jak np. bazujący na sztucznej inteligencji phishing, który wykorzystuje syntetyzowane treści  czy pod podszywanie się pod biometryczne systemy uwierzytelniania.

– Ewolucja technologii związanych z bezpieczeństwem nie nadąża za rozwojem niektórych aplikacji wykorzystujących sztuczną inteligencję. Może to doprowadzić do uzyskania przewagi przez cyberprzestępców – podkreśla Samuel Marchal.

Tym bardziej, że gdy pojawia się nowe zagrożenia, mogą one od razu zostać wykorzystane przez wiele grup.

– Jeżeli mechanizmy sztucznej inteligencji zostaną opracowane przez wykwalifikowane grupy hakerskie, niektóre z narzędzi prawdopodobnie zostaną przekazane również mniejszym aktorom i szybko staną się powszechnie stosowane – przewiduje Andy Patel.

Raport oprócz tych ostrzeżeń zawiera także informacje o rozwiązaniach nietechnicznych, które mogą, a nawet powinny być stosowane. Są to chociażby wymiany informacji między podmiotami działającymi na rzecz cyberbezpieczeństwa czy szkolenia w zakresie obrony przed zagrożeniami.

Dostępny jest do pobrania pełny raport.

Źródło: techno-senior.com