REKLAMA

Trzech jeźdźców apokaliptycznej SI: deepfake, malware, szybsze łamanie haseł 

Sztuczna inteligencja to miecz obosieczny. Z jednej strony AI oferuje potężne narzędzia do walki z cyberprzestępczością, z drugiej strony niesie ze sobą nowe wyzwania i zagrożenia.

cyberbezpieczeństwo-raport-Grant-Thornton
REKLAMA

Sztuczna inteligencja szturmem bierze kolejne branże. Transformacyjny potencjał tej technologii zmienia także rzeczywistość cyberbezpieczeństwa. Z jednej strony AI może pomóc w dokładniejszym wykrywaniu zagrożeń, automatyzacji zadań i szybszym wykrywaniu nowych zagrożeń. Nowa technologia daje nam potencjał do zastosowania zaawansowanych systemów wykrywania intruzów, analizy behawioralnej i lepszej ochrony przed phishingiem. 

REKLAMA

Niestety sztuczna inteligencja niesie ze sobą również szereg zagrożeń, które wynikają z wykorzystania tej technologii przez przestępców, którzy z większą łatwością mogą wystawiać zabezpieczenia systemów IT na próbę. Chroniąc się przed atakami musimy również opierać się pokusie tworzenia z AI czarnych skrzynek, czyli rozwiązań, których działania nie będziemy w stanie wytłumaczyć.

Szanse i zagrożenia na czynniki pierwsze rozkłada Marcin Spychała z firmy HCL

Karol Kopańko, Bizblog.pl: Sztuczna inteligencja już od ponad roku jest najgorętszą technologią - także jeśli chodzi o bezpieczeństwo. Cyberprzestępcy mogą tworzyć deepfake czy przyspieszać tworzenie malware, szybsze łamanie haseł. Skąd wynika ta dwoistość natury nowych technologii?

Marcin Spychała, Technical Advisor, BigFix w HCL Software: Innowacje zawsze niosą za sobą potencjalne korzyści i ryzyka. Historycznie, każdy przełom – od wynalezienia koła, po rozwój Internetu – był wykorzystywany zarówno do pozytywnych, jak i negatywnych celów.

Historyczny kontekst innowacji pokazuje, że początkowo nowe technologie często budzą obawy. Na przykład, kiedy Alan Turing zaproponował koncepcję maszyny obliczeniowej, która stała się podstawą współczesnych komputerów, wielu myślicieli zastanawiało się nad potencjalnymi negatywnymi skutkami takiej technologii. Podobnie, rozwój Internetu był widziany zarówno jako narzędzie do rozpowszechniania wiedzy, jak również potencjalne źródło zagrożeń. Opinie na temat AI są podzielone w równym stopniu. Myśliciele tacy jak Stephen Hawking wyrażali obawy dotyczące długoterminowych ryzyk związanych z AI, w tym możliwości utraty kontroli nad zaawansowanymi systemami AI.

A jednak dziś AI może wzmocnić cyberbezpieczeństwo, prawda?

Tak, systemy oparte na AI mogą analizować ogromne ilości danych w czasie rzeczywistym, identyfikując i reagując na zagrożenia szybciej niż człowiek i operatorzy. Na przykład, zaawansowane systemy wykrywania intruzów oparte na AI mogą nauczyć się rozpoznawać nowe wzorce ataków, zanim zostaną one zidentyfikowane przez ludzi. Ponadto, sztuczna inteligencja może pomóc w automatyzacji i optymalizacji wielu zadań związanych z cyberbezpieczeństwem, zmniejszając ryzyko ludzkich błędów, zwiększając jednocześnie ogólną skuteczność systemów obronnych.

A jeśli chodzi o zagrożenia?

Możliwość przygotowania profesjonalnie wyglądającego ataku w połączeniu z komercjalizacją ofert typu „Cybercrime as a Service” umożliwi szerszemu gronu potencjalnych przestępców dostęp do ataków, które dotychczas wymagały konkretnej wiedzy i dobrego przygotowania, a to w prosty sposób prowadzi do zwiększenia liczby ataków. Są one bardziej wiarygodne, lepiej manipulujące i w rezultacie skuteczniejsze.

Czyli nie są to już tylko teoretyczne koncepty, ale faktyczne ataki?

W ostatnich latach widzieliśmy, jak sztuczna inteligencja znalazła swoje zastosowanie nie tylko w obronie cybernetycznej, ale i w arsenale narzędzi cyberprzestępców. Przykładem tego mogą być zaawansowane ataki phishingowe, gdzie AI jest wykorzystywana do analizowania i imitowania stylu komunikacji specyficznych osób lub organizacji. Dzięki temu ataki te stają się znacznie bardziej przekonujące i trudniejsze do odróżnienia od prawdziwej korespondencji.

Jakie technologie mogą tu wyrządzić najwięcej niedobrego?

Jedną z konkretnych technologii, która zyskała na znaczeniu, są tzw. deepfakes. To technika wykorzystująca AI do tworzenia fałszywych, ale realistycznie wyglądających materiałów audio i wideo. W kontekście cyberbezpieczeństwa, deepfakes mogą być używane do manipulowania informacjami, wprowadzania w błąd pracowników korporacji czy nawet do wyłudzania dostępu do wrażliwych danych. Technologia ta stanowi wyzwanie dla bezpieczeństwa, ponieważ może być stosowana do bardzo przekonujących kampanii dezinformacyjnych lub manipulacji, które mogą mieć poważne konsekwencje dla osób, przedsiębiorstw, a nawet procesów demokratycznych.

Innym przykładem jest automatyzacja procesu tworzenia i modyfikowania malware za pomocą AI. Systemy AI mogą być programowane do generowania wariantów złośliwego oprogramowania, które są trudniejsze do wykrycia przez tradycyjne oprogramowanie antywirusowe, co znacznie utrudnia obronę przed takimi zagrożeniami. 

Z czego wynika skuteczność takich działań?

Personalizacja i adaptacja ataków zwiększają ich przekonującą moc i trudność wykrycia. AI potrafi analizować ogromne ilości danych znacznie szybciej i dokładniej niż człowiek, co umożliwia tworzenie bardzo celowanych i złożonych ataków.

Czy powinniśmy się spodziewać więcej takich ataków?

Niestety, tak. Rozwój technologiczny AI sprawia, że staje się ona coraz bardziej dostępna, co w rękach cyberprzestępców może prowadzić do nowych, bardziej zaawansowanych form ataków. W odpowiedzi na to, specjaliści ds. cyberbezpieczeństwa muszą nieustannie rozwijać swoje umiejętności i narzędzia obronne, wykorzystując również AI, aby skutecznie przeciwdziałać tym zagrożeniom. To dynamiczne pole walki, w którym innowacja i adaptacja są kluczowe dla utrzymania przewagi nad przeciwnikami.

Czytaj więcej o cyberbezpieczeństwie:

Przypomina to nieco wyścig toczony przez dwie rywalizujące grupy.

To w istocie najnowszy rozdział w długiej historii konfliktu technologicznego, który towarzyszył ludzkości od początków informatyzacji. Przykładowo, w latach 70. i 80., kiedy komputery zaczęły być szeroko dostępne dla przedsiębiorstw i instytucji, pojawiły się pierwsze wirusy komputerowe, takie jak Elk Cloner czy Brain. Specjaliści ds. cyberbezpieczeństwa musieli szybko nauczyć się, jak z nimi walczyć, co zapoczątkowało rozwój oprogramowania antywirusowego.

Następnie, wraz z rozwojem Internetu, cyberprzestępczość nabrała nowego wymiaru, obejmującego ataki DDoS, phishing i kradzieże tożsamości. Branża cyberbezpieczeństwa musiała się dostosować. Wprowadzono zaawansowane firewalle, systemy wykrywania intruzów, a także inne narzędzia obronne.

Wydaje się, że wprowadzenie technologii opartych na sztucznej inteligencji i uczeniu maszynowym przeniosło nas na kolejny poziom tego „wyścigu”?

Cyberprzestępcy wykorzystują te technologie do tworzenia bardziej złożonych ataków, takich jak zaawansowane, phishingowe ataki socjotechniczne czy malware, który może adaptować się do metod obronnych. Z drugiej strony, specjaliści ds. cyberbezpieczeństwa stosują AI do wzmocnienia systemów wykrywania i reagowania na zagrożenia, co pozwala na szybsze identyfikowanie i neutralizowanie ataków.

Tak więc, ten cyfrowy wyścig zbrojeń nie jest zjawiskiem nowym. Jest to kontynuacja stałego procesu, w którym każda strona stara się wykorzystać najnowsze technologie, aby uzyskać przewagę nad przeciwnikiem. Ta dynamika wymusza ciągły rozwój i adaptację zarówno w obronie, jak i ataku, podkreślając konieczność nieustannego inwestowania w cyberbezpieczeństwo.

Jak na te zagrożenia reagują decydenci?

Organizacja Współpracy Gospodarczej i Rozwoju oraz Unia Europejska są przykładami podmiotów, które podjęły inicjatywę w kształtowaniu globalnych wytycznych dotyczących etycznego wykorzystania AI, z naciskiem na transparentność, bezpieczeństwo i odpowiedzialność. Równocześnie, rośnie rola współpracy w zakresie badań nad bezpieczeństwem AI. Zaangażowane są w nią instytucje akademickie, rządy i organizacje międzynarodowe. Ich działania mają na celu lepsze zrozumienie zagrożeń i opracowanie skutecznych metod zapobiegania.

Dlatego warto również chyba stawiać na edukację?

Zrozumienie etycznego i bezpiecznego wykorzystania AI jest kluczowe dla wszystkich uczestników ekosystemu technologicznego – od twórców po użytkowników końcowych. Z tego względu wiele organizacji międzynarodowych inwestuje w programy edukacyjne skierowane do różnorodnej publiczności.

Kluczowa jest tu bowiem współpraca różnych grup interesariuszy – rządów, sektorów – prywatnego, akademickiego, a także społeczeństwa obywatelskiego. Jest to niezbędne, aby skutecznie adresować wyzwania związane z AI w cyberbezpieczeństwie. Inicjatywy takie jak Global Forum on Cyber Expertise czy United Nations Interregional Crime and Justice Research Institute stanowią platformy dla tej współpracy, promując wymianę wiedzy i najlepszych praktyk.

W ten sposób, międzynarodowe działania w zakresie regulacji AI w kwestiach cyberbezpieczeństwa są procesem ewoluującym, który wymaga ciągłego dialogu, adaptacji i współpracy. Pomoże to zrównoważyć potencjał innowacyjny AI, zestawiając go z koniecznością zapewnienia odpowiedniego poziomu bezpieczeństwa i ochrony etycznych wartości.

Edukacja wydaje się koniecznością w przypadku każdego użytkownika internetu. Gdzie jest tu miejsce dla ekspertów od w obszarze cyberbezpieczeństwa?

Dla lepszego wytłumaczenia kontekstu porównajmy cyberbezpieczeństwo do starożytnej sztuki wojennej, w której AI można przyrównać do łuczników i katapult – narzędzi zwiększających zasięg i siłę uderzenia armii. Technologie te są potężne i mogą przynieść decydującą przewagę na polu bitwy. Ostatecznie jednak to generałowie i ich strategie odgrywają kluczową rolę w konkretnym konflikcie. W tej metaforze eksperci ds. cyberbezpieczeństwa są niczym doświadczeni dowódcy, którzy nie tylko decydują, kiedy i jak użyć dostępnych im narzędzi. Interpretują również złożone informacje wywiadowcze, przewidują ruchy przeciwnika i dostosowują strategie w czasie rzeczywistym.

Podobnie jak w starożytnej sztuce wojennej, gdzie sukces wymagał więcej niż tylko przewagi technologicznej, w kwestiach cyberbezpieczeństwa kluczowa jest ludzka zdolność do kreatywnego myślenia, adaptacji i zrozumienia niuansów ludzkiego zachowania.

Z jednej strony, AI może oczywiście wykrywać wzorce i anomalie w danych. Z drugiej jednak, tylko człowiek może skutecznie interpretować subtelne konteksty społeczne lub psychologiczne, które mogą być kluczowe dla identyfikacji i neutralizacji skomplikowanych ataków socjotechnicznych.

Czyli póki co nie pozbędziemy się człowieka z tej układanki i nie oddamy całości zarządzania bezpieczeństwem w ręce AI.

Element ludzki jest niezbędny w budowaniu i utrzymywaniu zaufania między różnymi podmiotami w ekosystemie cyberbezpieczeństwa, od korporacji po agencje rządowe. Podobnie jak w dyplomacji i relacjach międzynarodowych, gdzie zaufanie i zrozumienie intencji są kluczowe, w temacie cyberbezpieczeństwa relacje międzyludzkie są fundamentem skutecznej współpracy i koordynacji działań obronnych.

Decyzje dotyczące reakcji na cyberataki dodatkowo wymagają oceny ryzyka, priorytetów biznesowych i konsekwencji prawnych, które wykraczają poza czarno-białe logiki algorytmów AI.

Z analogiczną sytuacją spotykamy się w strategii wojennej. Doświadczony dowódca musi ważyć ryzyko i potencjalne konsekwencje każdego działania, zawsze mając na uwadze szerszy obraz sytuacji.

Z jakiego oręża mogą korzystać ci dowódcy?

W czołówce znajduje się uczenie maszynowe. Pozwala ono systemom cyberbezpieczeństwa na ciągłe uczenie się i adaptację do nowych zagrożeń, bez konieczności bezpośredniej interwencji ludzkiej. Analiza wzorców i danych umożliwia algorytmom uczenia maszynowego identyfikację z dużą precyzją anomalii, pozwalając wskazywać na ataki, takie jak phishing, malware czy zaawansowane, trwałe zagrożenia.

Inną - zyskującą na znaczeniu - technologią jest automatyzacja bezpieczeństwa, zwłaszcza w kontekście rozwiązania SOAR (ang. Security Orchestration, Automation and Response). Systemy SOAR wykorzystują AI do automatyzacji odpowiedzi na zagrożenia, co umożliwia szybsze i bardziej efektywne reagowanie na incydenty, minimalizując potencjalne szkody.

Analiza behawioralna również korzysta z AI, monitorując zachowanie użytkowników i systemów w poszukiwaniu nietypowych wzorców działania, które mogą sugerować naruszenie bezpieczeństwa. Zdolność do nauki „normalnego" zachowania, pozwala systemom wyłapywać subtelne oznaki kompromitacji, często zanim tradycyjne mechanizmy bezpieczeństwa zdążą zareagować.

Sieci neuronowe, w tym technologie głębokiego uczenia są również wykorzystywane do rozpoznawania i klasyfikacji złośliwego oprogramowania oraz innych zagrożeń. Ich zdolność do analizy ogromnych ilości danych i wykrywania skomplikowanych wzorców czyni je niezastąpionymi narzędziami w nowoczesnych systemach cyberbezpieczeństwa.

A co jeśli za bardzo skoncentrujemy się na wykorzystaniu sztucznej inteligencji. Czy istnieją ryzyka związane z nadmiernym poleganiem na AI?

Zdecydowanie! Mimo że AI oferuje niezrównane możliwości w walce z cyberzagrożeniami, istnieje kilka obszarów wymagających ostrożności.

Po pierwsze, istnieje ryzyko stworzenia systemów, które są zbyt zależne od algorytmów uczenia maszynowego, ignorując potrzebę ludzkiego nadzoru i interwencji. AI jest potężnym narzędziem, ale może też popełniać błędy, szczególnie w przypadku wyrafinowanych ataków, które są zaprojektowane tak, aby omijać automatyczne systemy wykrywania. Bez ludzkiego elementu, który jest zdolny do interpretacji i zrozumienia kontekstu, systemy oparte na AI mogą nie być w stanie odpowiednio zareagować na niektóre zagrożenia.

Drugie ryzyko wiąże się z bezpieczeństwem samych systemów AI. Jak każda technologia, sztuczna inteligencja może stać się celem ataków, w tym tych, polegających na zatruwaniu danych (ang. data poisoning), w których złośliwe dane są celowo włączane do zestawu danych używanych do trenowania AI, aby skłonić system do nieprawidłowego działania. Ponadto, istnieje ryzyko, że złośliwi „aktorzy” będą w stanie wykorzystać luki w zabezpieczeniach systemów AI w celu uzyskania dostępu do wrażliwych informacji lub narzędzi.

Tym gorzej jeśli ktoś zatruje nam dane, a my sami nawet nie będziemy w stanie wytłumaczyć, jak doszliśmy do takich, a nie innych wyników.

Ta „czarna skrzynka” dotyczy trudności z interpretacją, jak AI dochodzi do swoich wniosków. Decyzje podejmowane przez systemy mogą być trudne do zrozumienia nawet dla ich twórców, co utrudnia weryfikację ich działania i zapewnienie, że działają one zgodnie z oczekiwaniami.

Wykorzystanie AI wiąże się również z ryzykiem w kwestiach etycznych. Automatyczne systemy monitorowania i analizy mogą prowadzić do nieintencjonalnego naruszania prywatności użytkowników, jeśli nie zostaną odpowiednio zarządzane i ograniczone.

REKLAMA

Choć AI oferuje potężne narzędzia do poprawy cyberbezpieczeństwa, ważne jest równoważenie jej wykorzystania z odpowiednim nadzorem ludzkim, zabezpieczeniami i etycznymi ramami działania. Tylko wtedy można zminimalizować ryzyka związane z nadmiernym poleganiem na AI, zapewniając jednocześnie skuteczną ochronę przed cyberzagrożeniami.

Nie daj się hakerom i chroń prywatne informacje przed cyberprzestępcami. Skorzystaj z oferty Keeper Security już teraz, aby uzyskać do 50% zniżki.

REKLAMA
Najnowsze
Zobacz komentarze
REKLAMA
REKLAMA
REKLAMA