Cyberprzestępcy wykorzystują sztuczną inteligencję do przeprowadzania coraz bardziej wyrafinowanych oszustw. Atakują wszystko, od oszczędności emerytalnych po tajemnice korporacyjne za pomocąCyberprzestępcy wykorzystują sztuczną inteligencję do przeprowadzania coraz bardziej wyrafinowanych oszustw. Atakują wszystko, od oszczędności emerytalnych po tajemnice korporacyjne za pomocą

AI wzmacnia cyberprzestępczość, ponieważ oszustwa rosną szybciej, taniej i są trudniejsze do wykrycia

Cyberprzestępcy wykorzystują sztuczną inteligencję do realizacji coraz bardziej skomplikowanych oszustw. Atakują wszystko, od oszczędności emerytalnych po tajemnice korporacyjne, używając metod, które stają się coraz trudniejsze do wykrycia.

Ta sama technologia, która dostosowuje reklamy do kupujących online, jest teraz wykorzystywana przez przestępców do gromadzenia danych osobowych i szybkiego uruchamiania spersonalizowanych oszustw. Naprawdę szybko.

Duże firmy AI, takie jak Anthropic, OpenAI i Google, informują, że przestępcy wykorzystują ich platformy do organizowania złożonych operacji phishingowych, tworzenia szkodliwego oprogramowania i przeprowadzania różnych ataków cyfrowych. Specjaliści ds. bezpieczeństwa ostrzegają, że przestępcy tworzą również fałszywe nagrania audio i wideo liderów firm, aby nakłonić pracowników do ujawnienia poufnych informacji.

Firmy i urzędy rządowe mogą wkrótce stanąć w obliczu systemów zasilanych przez AI, które potrafią wykrywać słabości w sieciach komputerowych, a następnie planować i przeprowadzać ataki niemal bez udziału człowieka.

Technologia zmienia sposób działania przestępców w sieci. Alice Marwick kieruje badaniami w Data & Society, niezależnej organizacji badawczej zajmującej się technologią. Powiedziała Wall Street Journal, że największa zmiana dotyczy rozmiaru i zasięgu. "Prawdziwa zmiana to zakres i skala. Oszustwa są większe, bardziej ukierunkowane, bardziej przekonujące."

Brian Singer jest doktorantem na Carnegie Mellon University. Bada, w jaki sposób duże modele językowe są wykorzystywane w cyberatakach i obronie. Jego szacunki? Od połowy do trzech czwartych światowego spamu i wiadomości phishingowych pochodzi obecnie z systemów AI.

Same ataki stały się bardziej wiarygodne. Systemy AI wytrenowane na komunikacji firmowej mogą generować tysiące wiadomości, które brzmią naturalnie i pasują do stylu firmy. Naśladują sposób pisania kadry kierowniczej. Wspominają o najnowszych wiadomościach znalezionych w dokumentach publicznych.

Technologia pomaga również zagranicznym oszustom ukrywać błędy językowe, które wcześniej demaskiwały ich próby. Przestępcy mogą podszywać się pod ofiary za pomocą fałszywych filmów i skopiowanych głosów. Używają tej samej fałszywej tożsamości, aby jednocześnie atakować kilka osób.

John Hultquist jest głównym analitykiem w Google Threat Intelligence Group. Opisuje główną zmianę jako "wiarygodność na skalę."

Przestępcy również coraz lepiej dobierają cele. Wykorzystują AI do przeglądania mediów społecznościowych i znajdowania osób zmagających się z poważnymi trudnościami życiowymi. Rozwód, śmierć w rodzinie, utrata pracy i sytuacje, które mogą uczynić kogoś bardziej podatnym na oszustwa romansowe, oszustwa inwestycyjne lub fałszywe oferty pracy.

Rynki dark webu obniżają barierę wejścia

Bariera wejścia do cyberprzestępczości spadła. Podziemne rynki sprzedają lub wynajmują narzędzia AI do celów przestępczych już za 90 dolarów miesięcznie. Nicolas Christin kieruje wydziałem systemów oprogramowania i społecznych Carnegie Mellon.

Powiedział, że te platformy oferują różne poziomy cenowe i pomoc dla klientów. "Deweloperzy sprzedają subskrypcje platform atakujących z cenami wielopoziomowymi i obsługą klienta."

Te usługi noszą nazwy takie jak WormGPT, FraudGPT i DarkGPT. Mogą tworzyć szkodliwe oprogramowanie i kampanie phishingowe. Niektóre zawierają nawet materiały edukacyjne dotyczące technik hakowania.

Margaret Cunningham jest wiceprezesem ds. bezpieczeństwa i strategii AI w Darktrace, firmie zajmującej się bezpieczeństwem. Mówi, że to proste. "Nie musisz wiedzieć, jak programować, wystarczy wiedzieć, gdzie znaleźć narzędzie."

Istnieje niedawne zjawisko zwane vibe-coding lub vibe-hacking. Może pozwolić aspirującym przestępcom wykorzystywać AI do tworzenia własnych złośliwych programów zamiast kupowania ich z podziemnych źródeł. Anthropic ujawnił wcześniej w tym roku, że zatrzymał kilka prób wykorzystania swojej AI Claude do tworzenia oprogramowania ransomware przez "przestępców o niewielkich umiejętnościach technicznych."

Same operacje przestępcze się zmieniają. Cyberprzestępczość działa jak rynek biznesowy już od lat, według ekspertów. Typowa operacja ransomware obejmowała różne grupy. Brokerów dostępu, którzy włamywali się do sieci firmowych i sprzedawali dostęp. Zespoły intruzów, które poruszały się po systemach kradnąc dane. I dostawców ransomware-as-a-service, którzy wypuszczali złośliwe oprogramowanie, prowadzili negocjacje i dzielili pieniądze.

Szybkość i automatyzacja zmieniają sieci przestępcze

AI zwiększyła szybkość, rozmiar i dostępność tego systemu. Praca wcześniej wykonywana przez osoby z wiedzą techniczną może teraz działać automatycznie. To pozwala tym grupom działać z mniejszą liczbą osób, mniejszym ryzykiem i wyższymi zyskami. "Pomyśl o tym jako o kolejnej warstwie industrializacji. AI zwiększa przepustowość bez potrzeby większej liczby wykwalifikowanych pracowników," wyjaśnia Christin.

Czy AI może przeprowadzać ataki całkowicie samodzielnie? Jeszcze nie do końca. Eksperci porównują tę sytuację do dążenia do w pełni autonomicznych pojazdów. Pierwsze 95% zostało osiągnięte. Ale ostatnia część, która pozwoliłaby samochodowi jeździć wszędzie, w każdej chwili samodzielnie, pozostaje poza zasięgiem.

Naukowcy testują zdolności hakerskie AI w środowiskach laboratoryjnych. Zespół z Carnegie Mellon, wspierany przez Anthropic, odtworzył słynny wyciek danych Equifax przy użyciu AI wcześniej w tym roku. Singer kierował pracami w Carnegie Mellon's CyLab Security and Privacy Institute. Nazywa to "wielkim skokiem."

Przestępcy wykorzystują AI do szkodliwych celów. Ale firmy AI twierdzą, że te same narzędzia mogą pomóc organizacjom wzmocnić ich cyfrową obronę.

Anthropic i OpenAI budują systemy AI, które mogą stale badać kod oprogramowania w celu lokalizacji słabości, które przestępcy mogą wykorzystać. Ludzie nadal muszą jednak zatwierdzać wszelkie poprawki. Niedawny program AI opracowany przez naukowców ze Stanford działał lepiej niż niektórzy ludzcy testerzy podczas wyszukiwania problemów bezpieczeństwa w sieci.

Nawet AI nie powstrzyma wszystkich naruszeń. Dlatego organizacje muszą skupić się na tworzeniu odpornych sieci, które działają podczas ataków, mówi Hultquist.

Jeśli to czytasz, jesteś już o krok do przodu. Pozostań tam dzięki naszemu newsletterowi.

Okazja rynkowa
Logo Sleepless AI
Cena Sleepless AI(AI)
$0.03828
$0.03828$0.03828
+1.48%
USD
Sleepless AI (AI) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.