TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

AI w walce z cyberzagrożeniami

Sztuczna inteligencja wspiera dziś działania cyberprzestępców na różne sposoby. Sprawia, że ataki stają się tańsze, skuteczniejsze i szybsze. Branża bezpieczeństwa ma jednak również dostęp do tej technologii, a rozwiązania na niej oparte są już szeroko dostępne.

Nikt nie ma wątpliwości, że w obszarze cyberbezpieczeństwa sztuczna inteligencja jest bardzo pożądana. Uczenie maszynowe i inne rodzaje AI są już zintegrowane z większością rozwiązań bezpieczeństwa, które nas dziś chronią. 

– Coraz więcej rozwiązań w zakresie bezpieczeństwa i ochrony danych ma wiele funkcji opartych na AI. Analiza danych, rozpoznawanie wzorców, ocena zdarzeń i sprawne reagowanie na nie bez pomocy sztucznej inteligencji są właściwie niemożliwe. Ilość danych przekracza bowiem możliwości percepcji ludzkiej. AI udoskonala automatyzację, analizuje nowe zagrożenia i dostosowuje do nich strategie obrony dużo efektywniej niż zespoły specjalistów ds. bezpieczeństwa – mówi Michał Zalewski, Solution Architect w firmie Barracuda Networks.

AI może zmniejszyć obciążenie zespołów bezpieczeństwa, ale nie jest w stanie zastąpić ekspertów. Analitycy bezpieczeństwa i inni specjaliści są niezbędni do zrozumienia wyników dostarczanych przez AI, do inicjowania postępu w rozwoju tej technologii oraz przekazywania wiedzy dotyczącej zagrożeń i bezpieczeństwa.

Obszary, które najbardziej skorzystają z rozwoju AI

Eksperci zidentyfikowali pięć obszarów, które według nich w najbliższym czasie najbardziej skorzystają z możliwości, jakie wnosi sztuczna inteligencja. 

  • Adaptacyjne wykrywanie zagrożeń

Kiedy mówimy o wykrywaniu zagrożeń w cyberbezpieczeństwie, mamy na myśli proces identyfikacji zagrożeń bezpieczeństwa i złośliwych działań. Wykrywanie zagrożeń oparte na sztucznej inteligencji monitoruje działania i analizuje dane oraz zdarzenia generowane przez różnorodne systemy. Dzięki zdolności do rozpoznawania wzorców AI może identyfikować te działania szybciej niż ludzie oraz informować o pojawiających się zagrożeniach. 

  • Autonomiczne systemy bezpieczeństwa oparte na AI

Takie systemy wykorzystują sztuczną inteligencję do wykrywania, analizowania i reagowania na zagrożenia cybernetyczne bez interwencji człowieka. W znacznym stopniu przyczyniły się do rozwoju bezpieczeństwa i reagowania na incydenty, ponieważ symulują procesy podejmowania decyzji przez analityków. Dzięki wykorzystaniu uczenia maszynowego, głębokiego uczenia i innych technologii AI systemy te mogą na bieżąco monitorować i chronić środowiska IT w czasie rzeczywistym.
Eksperci przewidują, że autonomiczne systemy bezpieczeństwa staną się bardziej powszechne z powodu rosnącej złożoności zagrożeń cybernetycznych. Zaawansowane rozwiązania AI są jedyną obroną przed liczbą i zaawansowaniem cyberataków.

  • Rozproszone uczenie się modeli

Rozproszone uczenie się (ang. federated learning) to technika uczenia maszynowego, w której wiele zdecentralizowanych podmiotów wspólnie szkoli model, nie wymieniając się danymi lokalnymi. Szkolenie odbywa się na każdym lokalnym zestawie danych, a podmiot dzieli się tylko aktualizacjami modelu. Dzięki temu wrażliwe dane pozostają na urządzeniu użytkownika. Dodatkowo w tym procesie wykorzystuje się zaawansowane techniki szyfrowania, aby zapewnić bezpieczeństwo danych.
Dzielenie się informacjami o zagrożeniach w społeczności bezpieczeństwa poprawia czas wykrywania i reagowania. 

  • Biometria behawioralna w procesie uwierzytelniania

Biometria behawioralna wykorzystuje AI i uczenie maszynowe do analizowania wzorców zachowania użytkowników, które można wykorzystać w procesie uwierzytelniania. Koncentruje się na tym, jak użytkownicy wchodzą w interakcję z urządzeniami i systemami, sprawdza między innymi dynamikę pisania na klawiaturze, ruchy myszy i interakcje z ekranem dotykowym. W przeciwieństwie do uwierzytelniania za pomocą odcisków palców czy rozpoznawania twarzy biometria behawioralna stale monitoruje zachowanie użytkownika w tle, nie wymagając od niego aktywnego działania. Technologia ta nadal się rozwija, rozpowszechnienie jej zastosowania wiąże się z pewnymi wyzwaniami. Nie ma standardów branżowych ani wyraźnych wytycznych dotyczących gromadzenia i wykorzystania behawioralnych danych biometrycznych. Ta metoda uwierzytelniania może też budzić niechęć i nieufność użytkowników obawiających się o swoją prywatność. Mimo to technologia ta będzie się rozwijać. Niezwykle trudno jest bowiem wykraść czy skopiować wzorce zachowań, a to czyni biometrię behawioralną silnym mechanizmem obronnym przed nieautoryzowanym dostępem i oszustwami.

Lekarstwo na brak specjalistów

Jednocześnie rośnie zapotrzebowanie na wykwalifikowanych specjalistów ds. cyberbezpieczeństwa. Cybersecurity Ventures przewiduje, że do 2025 roku na całym świecie będzie brakować około 3,5 miliona tego typu ekspertów. Ten niedobór dotyka wszystkich sektorów gospodarki. Wiele firm ma trudności z zatrudnieniem zespołów ds. bezpieczeństwa, które mogą w pełni chronić organizację. Aby wykorzystać sztuczną inteligencję w cyberbezpieczeństwie, należy zintegrować ją z ludzką wiedzą. AI jest w stanie zwiększać produktywność, dokładność i możliwości zespołów ds. bezpieczeństwa. Technologie nie wypełnią luki w umiejętnościach, ale mogą wspierać pracowników w codziennych zadaniach. To dzięki wiedzy analityków i ich zrozumieniu funkcjonowania firmy, kontekstu prawnego oraz motywacji atakujących dane dostarczane przez AI mogą zostać wykorzystane zgodnie z obowiązującymi przepisami oraz wartościami organizacji.

Marek Nowak
Marek Nowak
Redaktor naczelny ISPortal, wcześniej związany między innymi z miesięcznikiem Mobile Internet. Artykuły dotyczące nowych technologii publikował także w portalu Trojmiasto.pl. Po godzinach tworzy opowiadania science-fiction, które ukazały się w kilku już pismach literackich (Nowa Fantastyka, Epea, QFant).

przeczytaj najnowszy numer isporfessional

Najnowsze