Badacze z Google Cloud ostrzegają przed wzrostem zagrożenia ze strony sztucznej inteligencji w 2025 r. Głównie dotyczy to cyberbezpieczeństwa. Cyberprzestępcy nie tylko będą kontynuowali wykorzystanie AI z 2024 r., ale pojawią się nowe sposoby tworzenia złośliwego oprogramowania.
W 2025 roku cyberprzestępcy nadal będą wykorzystywali sztuczną inteligencję do cyberataków. Badacze z Google Cloud przewidują również, że pojawią się nowe sposoby na udział AI w tych działaniach.
Kontynuacja wykorzystania AI z 2024 roku
Hakerzy wciąż będą wykorzystywać AI i duże modele językowe (LLM) do opracowywania i skalowania zaawansowanych schematów inżynierii społecznej. Będą to chociażby kampanie phishingowe.
Kontynuowane będą również działania typu typu cyber-espionage (szpiegostwo) czy korzystanie z deepfake do kradzieży tożsamości, oszustw i omijania wymogów bezpieczeństwa typu know-your-customer (KYC).
– AI będzie odgrywać ogromną rolę w ogólnych zagrożeniach cybernetycznych w 2025 rroku – ostrzega Stuart McKenzie, dyrektor zarządzający Mandiant Consulting EMEA w Google Cloud.
Nowe zagrożenia AI w 2025 roku
Zgodnie z przewidywaniami ekspertów Google’a w 2025 r. mogą pojawić się nadużycia AI, które do tej pory nie były realizowane.
– 2025 to rok, w którym AI przechodzi od pilotażowych projektów i prototypów do szerokiej adopcji – zapowiedział Phil Venables, wiceprezes ds. bezpieczeństwa wywiadu zagrożeń i CISO w Google Cloud.
Jamie Collier, główny doradca ds. wywiadu zagrożeń dla Europy w Google Cloud, przewiduje natomiast, że chociaż na razie wykorzystanie LLM do rozwoju złośliwego oprogramowania i złośliwych otwartych źródeł LLM na razie nie stanowi realnego zagrożenia, to wszystko może zmienić się w 2025 roku.
Analitycy szacują także, że w przyszłym roku nastąpi szerokie wykorzystanie generatywnej AI i technologii deepfake do zasilania operacji informacyjnych. Będą to manipulacje informacjami w mediach społecznościowych czy globalne kampanie dezinformacyjne.
Źródło: businessinsider.com.pl