Site icon GEO Polityka

Wykorzystywanie sztucznej inteligencji do oszukańczych celów: eksperci wymieniają „schematy” atakujących

Cyberprzestępcy niewątpliwie idą z duchem czasu, w pełni wprowadzając nowoczesne technologie do przetwarzania potencjalnych ofiar, co pozwala im jedynie na poszerzenie technik oszustwa.

11 0

Zdjęcie – rbc.ua

O tym, że oszuści nie tylko edytuj wiadomości głosowe z różnych publikacji na sieciach społecznościowych, tworząc w ten sposób fałszywe żądania przy pomocy AI (sztucznej inteligencji), pisze „NBN”, odnosząc się do materiałów iTECHua.

Jeden z  stosunkowo popularną obecnie technologią jest „deepfake”, gdy sztuczna inteligencja generuje dość przekonujący, ale fałszywy obraz twarzy danej osoby, który można „wstawić” zarówno do zdjęć, jak i filmów i wykorzystać jako materiał kompromitujący przeciwko potencjalnej ofierze.

Ponadto fałszywe żądania są stosowane do „listy kontaktów” zarówno w sieciach społecznościowych, jak i komunikatorach internetowych – w 2023 r. za pomocą imitacji głosu faktycznie skradziono środki z wielu kont naiwnych obywateli .

To znaczy, że przede wszystkim, aby nie dać się „wciągnąć” oszustowi, zaleca się bezpośredni kontakt z daną osobą, na przykład głosowo przez połączenie mobilne, i wyjaśnienie jej zamiaru zaakceptować przekaz pieniężny, odmawiając wyciągania pochopnych wniosków i finalizując transakcje po pojedynczej odsłuchanej wiadomości.

Wcześniej pisaliśmy o tym, jak inwestowanie w Bitcoin stało się znacznie łatwiejsze.

nbnews.com.ua

Exit mobile version