Sztuczna inteligencja zmienia oblicze cyberzagrożeń, ułatwiając przestępcom tworzenie coraz bardziej przekonujących oszustw internetowych.
O najpoważniejszych zagrożeniach, roli AI w cyberprzestępczości oraz sposobach ochrony użytkowników mówi mgr inż. Kamil Kociuba, specjalista w dziedzinie cyberbezpieczeństwa.
– Jakie są dziś największe zagrożenia w Internecie, szczególnie w kontekście sztucznej inteligencji?
Raporty publikowane przez CERT Polska wskazują, że aktualnie największym zagrożeniem w Internecie są oszustwa komputerowe. Przestępcy, głównie poprzez phishing, starają się wyłudzić poufne informacje od użytkowników, które następnie są wykorzystywane np. do nadużyć finansowych. Kampanie oszustw internetowych na bieżąco dostosowywane są do ważnych wydarzeń społecznych, tj. w okresie świąt pojawiały się wiadomości e-mail bądź SMS-y związane z paczką, która gdzieś utknęła i wymagana jest reakcja użytkownika, czy też fałszywe strony umożliwiające zrobienie zakupów.
Sztuczna inteligencja może w znacznym stopniu pomagać w realizacji opisywanych ataków socjotechnicznych, wspierając tworzenie np. wiadomości e-mail, które bardzo przypominają te pisane przez człowieka, nie zawierają błędów czy literówek, a sama ich treść może wyglądać bardzo profesjonalnie. Utrudnia to detekcję takiego zagrożenia. Na szczęście badacze cyberbezpieczeństwa na bieżąco reagują na tego typu zagrożenia, wdrażając systemy zdolne do identyfikowania wiadomości generowanych przez sztuczną inteligencję, co może stanowić dodatkowe wsparcie w procesie identyfikacji ataków phishingowych.
– W jaki sposób AI może być wykorzystywana do łamania prawa lub manipulowania użytkownikami?
Dostęp do sztucznej inteligencji jest obecnie stosunkowo łatwy, a z niektórych rozwiązań można korzystać nawet bezpłatnie. Jednak z perspektywy cyberprzestępców ich wykorzystanie pozostaje w znacznym stopniu ograniczone. Co prawda literatura wskazuje, że narzędzia oparte na AI mogą być wykorzystywane do tworzenia stron internetowych, które następnie służą do różnego rodzaju oszustw, jednak funkcjonalności bezpośrednio wspomagające przełamywanie zabezpieczeń – takie jak generowanie szczegółowych kroków ataku czy przygotowywanie exploitów (programów umożliwiających wykorzystanie podatności w oprogramowaniu) – są istotnie ograniczone.
Wsparciem dla cyberprzestępców w tym zakresie mogą być lokalne modele AI. W Internecie można znaleźć wstępnie przygotowane modele pozbawione mechanizmów zabezpieczających. Ich wykorzystanie wymaga jednak inwestycji w stosunkowo drogi sprzęt komputerowy. Modele te są przeznaczone dla osób, które chcą korzystać z nich bez ograniczeń w celach legalnych, jednak w praktyce mogą również stanowić skuteczne narzędzie do automatyzacji ataków na systemy komputerowe czy też wspierać przygotowywanie oszustw internetowych.
– Czy deepfake’i i treści generowane przez AI stanowią realne zagrożenie dla społeczeństwa?
Zdecydowanie tak. Współcześnie, dzięki zastosowaniu zaawansowanych metod uczenia maszynowego, możliwe stało się generowanie nagrań o bardzo wysokim stopniu realizmu, w których wygląd, zachowanie bądź wypowiedzi danej osoby podlegają cyfrowej manipulacji. Z jednej strony technologia ta znajduje zastosowanie w produkcji materiałów filmowych, na przykład poprzez zastępowanie twarzy kaskadera twarzą aktora odgrywającego główną rolę. Z drugiej strony wiąże się ona z istotnym ryzykiem wykorzystania w sposób nieetyczny. Tego rodzaju nagrania mogą być wykorzystywane do wywierania wpływu na opinię publiczną, między innymi poprzez tworzenie fałszywych treści mających na celu podważenie reputacji osób ubiegających się o stanowiska publiczne. W mniejszej skali mogą służyć do różnego rodzaju oszustw, takich jak próby wyłudzenia okupu przy użyciu syntetycznie wygenerowanego głosu dziecka w rozmowie telefonicznej, a także do tworzenia materiałów, w których wizerunek znanej osoby wykorzystywany jest do promowania podejrzanych inwestycji. W obliczu tego typu zagrożeń szczególnego znaczenia nabiera zachowanie krytycznego myślenia oraz rzetelna weryfikacja kontrowersyjnych informacji.
– Czy Pana zdaniem, obowiązujące prawo nadąża za rozwojem sztucznej inteligencji
i cyberzagrożeń?
Obowiązujące prawo coraz skuteczniej dostosowuje się do dynamicznego rozwoju sztucznej inteligencji oraz nowych form cyberzagrożeń. Wprowadzanie takich regulacji jak europejski AI Act czy dyrektywa NIS2 oraz prace nad ich krajową implementacją pokazują, że ustawodawcy aktywnie reagują na zmieniające się realia technologiczne. Choć proces legislacyjny jest z natury dłuższy niż tempo innowacji, kierunek zmian wskazuje na rosnącą świadomość i determinację w budowaniu bezpiecznego środowiska cyfrowego. Nowe przepisy wzmacniają ochronę użytkowników oraz podnoszą standardy bezpieczeństwa w sektorze publicznym i prywatnym. Można więc stwierdzić, że prawo stopniowo, lecz konsekwentnie nadąża za rozwojem technologii.
– Jakie podstawowe zasady bezpiecznego korzystania z Internetu powinni znać wszyscy użytkownicy?
Funkcjonowanie we współczesnym społeczeństwie bez Internetu wydaje się dziś praktycznie niemożliwe. Warto jednak korzystać z niego świadomie. Z jednej strony należy myśleć krytycznie, weryfikować informacje oraz nie ulegać emocjom, a z drugiej – przestrzegać zasad moralnych i wykorzystywać technologię w słusznych celach. Świadome korzystanie z Internetu pozwala nie tylko zwiększyć bezpieczeństwo, lecz także budować kulturę cyfrową opartą na wzajemnym szacunku i odpowiedzialności za własne działania.
Odpowiedzi na pytania Daniela Buchowieckiego udzielił mgr inż. Kamil Kociuba, wykładowca Wydziału Techniczno Informatycznego Akademii Zamojskiej. Absolwent Politechniki Lubelskiej oraz Politechniki Wrocławskiej, specjalizujący się w dziedzinie ofensywnego cyberbezpieczeństwa.
