Infractorii cibernetici folosesc inteligența artificială pentru a pune la punct scheme mai elaborate. Ei vizează totul, de la economiile de pensionare până la secretele corporative cuInfractorii cibernetici folosesc inteligența artificială pentru a pune la punct scheme mai elaborate. Ei vizează totul, de la economiile de pensionare până la secretele corporative cu

IA amplifică criminalitatea cibernetică pe măsură ce escrocheriile cresc mai rapid, mai ieftin și mai greu de detectat

Infractorii cibernetici folosesc inteligența artificială pentru a pune la cale scheme mai elaborate. Ei vizează totul, de la economiile de pensie până la secretele corporative, cu metode care devin din ce în ce mai greu de detectat.

Aceeași tehnologie care personalizează reclamele pentru cumpărătorii online este acum folosită de actori rău intenționați pentru a aduna detalii personale și a lansa rapid escrocherii personalizate. Foarte rapid.

Companii majore de AI precum Anthropic, OpenAI și Google raportează că infractorii accesează platformele lor pentru a orchestra operațiuni complexe de phishing, pentru a dezvolta software dăunător și pentru a executa diverse atacuri digitale. Specialiștii în securitate avertizează că infractorii produc, de asemenea, clipuri audio și video false ale liderilor de companii pentru a păcăli angajații să divulge informații sensibile.

Întreprinderile și oficiile guvernamentale ar putea să se confrunte în curând cu roiuri de sisteme alimentate de AI care pot detecta vulnerabilități în rețelele de calculatoare și apoi să planifice și să execute atacuri cu aproape niciun ajutor uman.

Tehnologia schimbă modul în care infractorii operează online. Alice Marwick conduce cercetarea la Data & Society, o organizație independentă de cercetare tehnologică. Ea a declarat pentru Wall Street Journal că cea mai mare schimbare implică dimensiunea și acoperirea. "Schimbarea reală este amploarea și scala. Escrocheriile sunt mai mari, mai țintite, mai convingătoare."

Brian Singer este doctorand la Universitatea Carnegie Mellon. El studiază modul în care modelele lingvistice mari sunt utilizate în atacurile cibernetice și apărări. Estimarea sa? Jumătate până la trei sferturi din mesajele spam și phishing din întreaga lume provin acum din sistemele AI.

Atacurile în sine au devenit mai credibile. Sistemele AI antrenate pe comunicările companiilor pot produce mii de mesaje care sună natural și se potrivesc stilului unei companii. Ele copiază modul în care scriu directorii. Ele menționează știri recente găsite în înregistrările publice.

Tehnologia îi ajută, de asemenea, pe escrocii din străinătate să ascundă greșelile de limbaj care obișnuiau să le facă încercările evidente. Infractorii pot personifica victimele prin videoclipuri false și voci copiate. Ei folosesc aceeași identitate falsă pentru a viza mai multe persoane simultan.

John Hultquist este analist-șef la Google Threat Intelligence Group. El descrie schimbarea principală drept "credibilitate la scară largă."

Actorii rău intenționați devin, de asemenea, mai buni la selectarea țintelor. Ei folosesc AI pentru a examina rețelele sociale și a găsi persoane care se confruntă cu dificultăți majore în viață. Divorț, decese în familie, pierderea unui loc de muncă și situații care ar putea face pe cineva mai vulnerabil la trucuri romantice, fraudă la investiții sau oferte de locuri de muncă false.

Piețele dark web scad bariera de intrare

Bariera de intrare pentru criminalitatea cibernetică a scăzut. Piețele clandestine vând sau închiriază acum instrumente AI pentru activități criminale pentru doar 90 de dolari pe lună. Nicolas Christin conduce departamentul de software și sisteme societale al Carnegie Mellon.

El a spus că aceste platforme vin cu niveluri diferite de prețuri și asistență pentru clienți. "Dezvoltatorii vând abonamente la platforme de atacuri cu prețuri eșalonate și asistență pentru clienți."

Aceste servicii poartă nume precum WormGPT, FraudGPT și DarkGPT. Ele pot crea software dăunător și campanii de phishing. Unele includ chiar materiale didactice despre tehnici de hacking.

Margaret Cunningham este vicepreședinte pentru securitate și strategie AI la Darktrace, o companie de securitate. Ea spune că este simplu. "Nu trebuie să știi cum să codezi, doar unde să găsești instrumentul."

Există o evoluție recentă numită vibe-coding sau vibe-hacking. Aceasta ar putea permite aspiranților infractori să folosească AI pentru a-și crea propriile programe rău intenționate, mai degrabă decât să le achiziționeze din surse clandestine. Anthropic a dezvăluit mai devreme în acest an că a oprit mai multe încercări de utilizare a AI-ului său Claude pentru crearea de ransomware de către "infractori cu puține competențe tehnice."

Operațiunile criminale în sine se schimbă. Criminalitatea cibernetică funcționează ca o piață de afaceri de ani de zile acum, conform experților. O operațiune tipică de ransomware implica diferite grupuri. Brokeri de acces care pătrundeau în rețelele companiilor și vindeau intrarea. Echipe de intruziune care se deplasau prin sisteme furând date. Și furnizori de ransomware-ca-serviciu care eliberau malware-ul, gestionau negocierile și împărțeau banii.

Viteza și automatizarea remodelează rețelele criminale

AI a crescut viteza, dimensiunea și disponibilitatea acestui sistem. Munca efectuată anterior de persoane cu cunoștințe tehnice poate funcționa acum automat. Acest lucru le permite acestor grupuri să opereze cu mai puțini oameni, mai puțin risc și profituri mai mari. "Gândiți-vă la ea ca la următorul nivel de industrializare. AI crește producția fără a necesita mai multă forță de muncă calificată," explică Christin.

Poate AI să lanseze atacuri complet de unul singur? Nu încă. Experții compară situația cu impulsul pentru vehicule complet autonome. Primele 95% au fost realizate. Dar partea finală care ar permite unei mașini să conducă oriunde, oricând singură rămâne inaccesibilă.

Cercetătorii testează abilitățile de hacking ale AI în medii de laborator. O echipă de la Carnegie Mellon, susținută de Anthropic, a recreat faimoasa breșă de date Equifax folosind AI mai devreme în acest an. Singer a condus lucrarea la Institutul de Securitate și Confidențialitate CyLab al Carnegie Mellon. El o numește "un salt mare."

Infractorii exploatează AI în scopuri dăunătoare. Dar companiile AI spun că aceleași instrumente pot ajuta organizațiile să-și întărească apărările digitale.

Anthropic și OpenAI construiesc sisteme AI care pot examina continuu codul software pentru a localiza vulnerabilitățile pe care infractorii le-ar putea exploata. Oamenii trebuie totuși să aprobe orice remedieri. Un program AI recent dezvoltat de cercetători de la Stanford a performat mai bine decât unii testeri umani atunci când căuta probleme de securitate într-o rețea.

Nici măcar AI nu va opri toate breșele. De aceea organizațiile trebuie să se concentreze pe crearea de rețele rezistente care să continue să funcționeze în timpul atacurilor, spune Hultquist.

Dacă citiți acest lucru, sunteți deja în avantaj. Rămâneți acolo cu buletinul nostru informativ.

Oportunitate de piață
Logo Sleepless AI
Pret Sleepless AI (AI)
$0.03824
$0.03824$0.03824
+1.37%
USD
Sleepless AI (AI) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează [email protected] pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.