Sztuczna inteligencja kojarzy się zazwyczaj z czymś pozytywnym, z rozwojem technologicznym itd., ale może być też wykorzystywana przez cyberprzestępców.
- To prawda, sztuczna inteligencja to dużo nowych możliwości dla wszystkich, a więc również dla przestępców.
Technologia deep fake
Jak mogą korzystać z właściwości AI, powiedzmy w atakach phishingowych? W jaki sposób mogą zastosować sztuczną inteligencję do tworzenia bardziej przekonujących wiadomości?
- Jeżeli cyberprzestępcy chcą zmylić osobę, cel swojego ataku, mogą posługiwać się tradycyjnymi metodami - napisać jakąś wiadomość, wysłać informację, fałszywego SMS-a itd. Do tej pory musieli korzystać z własnej inwencji. Ale teraz AI daje nowe możliwości generowania tekstów i treści. I oczywiście możemy je wykorzystywać w celach pozytywnych i niekoniecznie takich. Cyberprzestępcy mają możliwość, zadając naprawdę bardzo proste pytania do narzędzi sztucznej inteligencji, wygenerować wiadomości, które są bardzo przekonujące, bardzo specyficzne; brzmią jak prawdziwe, więc nie muszą zdawać się na własną inwencję. Mają w zasięgu ręki możliwości całej technologii.
A w atakach phishingowych?
- Można, na przykład, zmylić cel naszego ataku podszywając się pod jakąś osobę i dzięki skutecznej symulacji sposobu pisania lub mówienia (atak z użyciem rozwiązań audio), kogoś zmylić i podać się za osobę bliską, która jest w potrzebie. Ofiara ataku może się nie zorientować.
Przychodzi mi do głowy technologia deep fake oparta na sztucznej inteligencji. Stwarza to nowe zagrożenia. W jakich sytuacjach może zostać wykorzystywana przeciwko użytkownikom w internecie?
- Deep fake to technologia, która pozwala w głęboki sposób zasymulować czy właśnie sfejkować - jak to młodzieżowo moglibyśmy powiedzieć - osobę lub sytuację. Można stworzyć obraz, w którym ktoś wygląda w określony sposób – zasymulować, że ktoś był ofiarą wypadku i stworzyć zdjęcie czy nawet wideo, w którym ta osoba będzie pokazana. To może pomóc właśnie w potencjalnym ataku. Można również wygenerować dokumenty, które będą wyglądać jak prawdziwe.
A często mówimy też tym, żeby tworzyć silne hasła. Czy AI pozwala na szybsze i też bardziej zaawansowane łamanie zabezpieczeń – haseł, systemów ochrony danych?
- Łamanie haseł to dość złożona dziedzina. Są różne sposoby na ich łamanie, jednym - stosowanych powszechnie – jest tak zwany atak słownikowy. Polega na tym, że system komputerowy generuje hasła, które idą po kolei różnymi kombinacjami słów, które znamy i używamy na co dzień (liczby wymieszane ze znakami specjalnymi). Złamanie hasła w ten sposób wymaga czasu, dlatego wszyscy specjaliści od cyberbezpieczeństwa zawsze sugerują, żeby nie używać prostych haseł. Nie używać takich, które coś znaczą, raczej przypadkowych ciągów znaków, bo wtedy taki atak jest dużo trudniej przeprowadzić. AI pozwala generować tego typu hasła szybciej i jeżeli mamy jakiekolwiek podejrzenia co do tego, że ktoś może używać konkretnego rodzaju hasła, to łatwiej jest je zgadnąć. Przykładowo: dużo ludzi wykorzystuje w hasłach daty, albo imiona, albo miejsca, z którymi są w jakiś sposób związane. Więc jeżeli cyberprzestępca podejrzewa, że osoba może użyć imienia bliskiej osoby, chociażby cioci Anny, to poprosi AI o wygenerowanie zestawu haseł z tym imieniem. To zawęża listę, którą następnie wprowadza się do systemu, żeby złamać szyfr.
Niekoniecznie trzeba do tego sztucznej inteligencji.
- Ale sztuczna inteligencja pozwala w bardzo łatwy sposób wygenerować taką listę. Do tej pory chcąc ją wygenerować - na przykład wymieszane imiona z różnymi cyframi, znakami, nazwami - trzeba było to zrobić albo ręcznie, co trwało, albo napisać prosty program, skrypt, który nam to przyspieszał. A teraz można to zrobić za pomocą jednego polecenia.
Boty a debata publiczna
Dobrze, to zatrzymajmy się przy tej automatyzacji. Jakie są najbardziej popularne sposoby wykorzystywania AI właśnie do automatyzacji ataków hakerskich?
- Dużo zależy od tego, w jaki sposób dany cyberprzestępca chce nas zaatakować. Po pierwsze AI pozwala nam automatyzować pisanie wiadomości, czyli to, co dostajemy w postaci SMS-ów, maili, wiadomości w komunikatorach, można teraz wygenerować na dużą skalę i - co gorsza - spersonalizować na dużą skalę. Więc można wygenerować jeden set wiadomości kierowanych do osób młodszych, trochę inny set do osób średnim wieku itd. Więc to jest duże ułatwienie dla cyberprzestępcy. Kwestią tutaj jest skala, ale generalnie AI pozwala na jej zwiększanie przy jednoczesnym zachowaniu specjalizacji i segmentacji. Dzięki takiej metodzie przestępca jest w stanie wykonać tych ataków po prostu więcej, a statystyka ma znaczenie. Jeżeli zaatakujemy tysiąc celów, to może w jednym przypadku się uda. Ale jeżeli tym w takim samym czasie zaatakujemy 20 celów albo 50 tysięcy celów, to tych ataków uda się po prostu więcej. I to jest dla nas zagrożenie.
Spróbujmy w takim razie zwiększyć ten zasięg i atak. Czy znasz takie przypadki, kiedy sztucznej inteligencji użyto do manipulowania opinią publiczną? Na przykład przez tworzenie jakichś fałszywych kont w mediach społecznościowych.
- To w ogóle jest zmora wielu serwisów społecznościowych, że tworzone są na nich konta osób, które nie istnieją. Konta sztuczne, tak zwane boty, które są następnie do tych kont podłączane. Różne serwisy są narażone na to w różnych sposób. Szczególnie tam, gdzie toczy się debata publiczna, gdzie treści mają znaczenie chociażby dla wyborów albo dla przeprowadzanych akcji. Takie serwisy są narażone dużo bardziej na taką aktywność. I takim oczywiście ważnym serwisem tego typu jest X (dawniej Twitter), do pewnego stopnia również Facebook. Tak, strony biorące udział w debacie publicznej wykorzystują narzędzia sztuczne inteligencji. Wykorzystywały je i pięć lat temu, i dziesięć lat temu.
Ale skala się zmienia?
- Tak, ponieważ w tej chwili - jeżeli chcemy wytworzyć wiadomość kierowaną do podatnych na tę wiadomość odbiorców, żeby ich zniechęcić do pójścia na wybory, to możemy stworzyć pięć, 10, 15 tysięcy takich wiadomości. Kiedyś tworzyliśmy ich pięć, 10, 15. I za pomocą narzędzi reklamowych tych serwisów można każdą z tych wiadomości skierować do innych grup odbiorców. AI pomoże nawet w dopasowaniu tych 15 tysięcy wiadomości do 15 tysięcy segmentów. Oczywiście, czasem się pomyli, jak to AI; czasem zahalucynuje, jak to AI, ale tutaj istotna jest skala.
Sztuczna inteligencja może przygotowywać nie tylko wiadomości tekstowe, nie tylko obrazy, ale może też pisać kod do złośliwego oprogramowania. Znasz może jakieś najnowsze zagrożenia związane właśnie z wykorzystaniem AI do tworzenia złośliwego oprogramowania?
- Można tworzyć złośliwe oprogramowanie w narzędziach generujących kod, ale warto pamiętać o tym, że dostawcy tych narzędzi w wielu przypadkach zakładają filtry, które blokują takie możliwości. Da się to zrobić, filtry można obchodzić; nie jest to łatwe, a nawet pewnie staje się coraz trudniejsze, bo cel jest taki, żeby utrudnić wykorzystywanie tego typu narzędzi do tworzenia szyfru, z założenia szkodliwego. No ale cóż, modeli językowych, które pozwalają generować kod jest tak dużo, że jeżeli ktoś bardzo chce, znajdzie takie rozwiązanie i tak się dzieje. Czy ten kod jest lepszy albo bardziej skuteczny niż kod pisany przez profesjonalnego hakera (jeżeli można powiedzieć o hakerze, że jest profesjonalny), to dyskusyjne. Problemem nie jest to, czy on jest lepszy, ale fakt, że zastosowanie tego typu mechanizmów SI obniża barierę wejścia. Ułatwia komuś, kto nawet specjalnie w ogóle nie programuje, stworzenie takiego kodu. A to znowu pozwala i otwiera możliwości skali. I takie ataki mogą być po prostu powszechniejsze. Czy system skutecznie zabezpieczony łatwiej będzie rozszyfrować wykorzystując AI w pisaniu kodu, który ma ten system złamać? To pewnie zależy. Nie postawiłbym takiej tezy, że AI to ułatwia. Sztuczna inteligencja przede wszystkim ułatwia dostęp do tego typu kodu.
AI służy dezinformacji?
Znamy też skalę ataków i ilość ataków na infrastrukturę krytyczną, choćby ze względu na to, co dzieje się za naszą wschodnią granicą, na wojnie, w Ukrainie. Czy AI wpłynęła na większą skalę ataków na infrastrukturę krytyczną, na przykład na sieci energetyczne, czy na systemy zdrowotne?
- Nie mamy statystyk publicznie dostępnych. Możemy podejrzewać, że tak jest na podstawie tego, co dzieje się w miejscach, w których toczy się wojna informacyjna (równolegle do wojny kinetycznej za naszą wschodnią granicą). Widzimy skalę działania obu stron konfliktu w zakresie propagandy, dezinformacji, budowania pewnego wizerunku, szkodzenia przeciwnikowi. Ta skala jest duża, więc można zakładać (nawet bez dostępu do żadnych informacji, oczywiście polskie służby je mają), że ta skala będzie jeszcze większa. I czy AI jest do tego celu wykorzystywane? Z pewnością.
W jaki sposób branża cybernetyczna odpowiada na te wyzwania związane z wykorzystaniem sztucznej inteligencji przez cyberprzestępców?
- Wszystkie firmy, które są świadome zagrożeń, wprowadzają już dzisiaj zmiany w procedurach, politykach i metodach pracy. Instruują swoich pracowników, jak powinno się korzystać z tego typu narzędzi. Dotyczy to zarówno firm dużych, międzynarodowych, które działają w Polsce, jak i również polskich firm. Zachęcamy również, żeby mniejsze polskie firmy, które może nie są świadome też o to zadbały. Są dostępne różnego rodzaju szkolenia i warto z nich również korzystać.
Firmy na pewno, ale czy indywidualni użytkownicy też mogą podjąć jakieś kroki, żeby zabezpieczyć się przed zagrożeniami wynikającymi właśnie z zastosowania AI przez cyberprzestępców? Czy to są po prostu takie kroki, które trzeba zachowywać niezależnie od tego, jaki to jest atak?
- Tak naprawdę AI nie zmienia, co do zasady, tego, jak powinniśmy dbać o swoje cyberbezpieczeństwo. Wszyscy specjaliści podkreślają, że trzeba zachować czujność, nie ulegać emocjom, kiedy w naszej skrzynce pojawia się wiadomość dziwnie atrakcyjna (albo w komunikatorze). To są też takie rzeczy, jak dbanie o aktualizację oprogramowania, dbanie o odpowiednie programy antywirusowe na naszych urządzeniach, nieudostępnianie urządzeń osobom trzecim. Warto pamiętać, że AI daje cyberprzestępcom nowe możliwości bycia kreatywnym, więc musimy zachować większą czujność niż dawniej. Kiedyś można było się zorientować, że wiadomość jest spamem, ponieważ była napisana niezbyt ładnym językiem polskim, niezbyt dokładnie, niezbyt gramatycznie, jakieś literówki się pojawiały, czasami to było automatyczne tłumaczenie z jakiegoś dziwnego języka. Dziś ten problem będzie się nasilał dlatego, że tłumaczenia są po prostu bardzo dobre i język polski będzie już poprawny. Nie będziemy już w stanie rozpoznać, że to jest spam.