Spis treści
Jak cyberprzestępcy wykorzystują AI do wyłudzania danych?
– Kreatywność cyberprzestępców jest bardzo duża, zapewne jeszcze nie raz zostaniemy zaskoczeni ich pomysłami – ocenił Bartłomiej Drozd, z ChronPesel.pl. Zdaniem Drozda, jednym z najprostszych zastosowań AI do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję, w których jesteśmy proszeni o podanie danych osobowych, albo przekierowywani do fałszywych stron internetowych.
Drozd zwraca uwagę, że „dotychczas można je było łatwo odróżnić, bo z reguły zawierały mnóstwo błędów gramatycznych czy ortograficznych. Wykorzystanie modeli językowych to eliminuje. Można AI nauczyć stosowania określonego stylu i zrobi to bezbłędnie".
Inne metody wyłudzania danych
Oprócz phishingu, cyberprzestępcy wykorzystują inne techniki wyłudzania danych. W ubiegłym roku CSIRT KNF ostrzegał m.in. przed wprowadzającymi w błąd reklamami platform inwestycyjnych, w których podszywano się pod znane instytucje lub osoby, w tym polityków. Najczęściej wykorzystywano wizerunek Baltic Pipe, PGNiG, Tesli, spółek Skarbu Państwa i banków.
– Takie reklamy zamieszczane w mediach społecznościowych również przekierowywały do fałszywych podstron z formularzami wymagającymi np. rejestracji. Pozyskane w ten sposób dane mogą prędzej czy później zostać wykorzystane do wyłudzeń – stwierdził Bartłomiej Drozd.
AI i deepfake w rękach cyberprzestępców
Cyberprzestępcy stosują również technikę deepfake, która przy użyciu sztucznej inteligencji umożliwia nie tylko stworzenie fałszywych filmów i obrazów, lecz także podszycie się pod członka najbliższej rodziny. Oszuści mogą mieć dostęp do nagrania głosowego z naszym udziałem, które pozyskają np. z mediów społecznościowych. Niestety przed tym zjawiskiem jest się bardzo trudno uchronić.
Z ankiety przeprowadzonej przez McAfee wynika, że 53 proc. respondentów z siedmiu krajów dzieli się swoim głosem w Internecie przynajmniej raz w tygodniu. Aż 10 proc. ankietowanych doświadczyło próby oszustwa z wykorzystaniem fałszywego głosu w oparciu o AI, a kolejne 15 proc. zna osobę, która była celem takiego ataku.
Jak się chronić?
Prewencja jest kluczowa w ochronie przed cyberprzestępcami. Pamiętajmy jednak, że ochrona naszych danych zaczyna się od nas samych: nie udostępniajmy niepotrzebnie swoich danych, bądźmy sceptyczni wobec informacji udzielanych przez AI i zawsze sprawdzajmy, czy źródła informacji są wiarygodne.
Dołącz do nas na Facebooku!
Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!
Kontakt z redakcją
Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?