Vitalik Buterin on esitanud uusi mureküsimusi OpenClawi turvakaitses. See on üks kiireimalt kasvavaid GitHubi repositooriume. Ta hoiatas, et see tööriist võib kasutajaid ohustada vaikse andmekaotuse ja süsteemi ülevaldamisega. Tema kommentaarid ilmusid just siis, kui OpenClaw on saanud kiiresti populaarseks arendajate seas, kes loovad AI-agente.
Uuringute tegijate sõnul on probleem tõsine. Lihtne suhtlus kurjade veebilehtedega võib kompromiteerida kasutaja süsteemi. Mõnikord võib AI-agent täita kahjulikke käske ilma kasutaja isegi märkamata.
Oht algab sellega, kuidas OpenClaw käsitseb välist andmeid. Kui süsteem loeb sisu veebilehelt, võib ta järgida peidetud juhiseid. Näiteks võib kurja leht petta AI-d skripti alla laadimaga. Seejärel saab seda skripti taustas käivitada. See protsess toimub vaikis. Kasutaja ei pruugi mingit hoiatust näha.
Ühes registreeritud juhtumis täitis tööriist peidetud käsu kasutades „curl“-i. See käsk saatis vaikis kasutaja andmed välisele serverile. Tulemuseks võisid tundlikud andmed avalikuks saada ilma nõusolekuta. Lisaks võivad OpenClawi agendid muuta oma süsteemi seadeid ise. Nad võivad lisada uusi suhtluskanaale või värskendada sisemisi küsimusi. See suurendab kuritarvitamise ohtu, kui kontrollid on nõrgad.
Turvateadlased on süsteemi juba testinud. Nende leidumised teevad muret. Ühes uuringus selgus, et umbes 15% OpenClawi „oskustest“ sisaldas kahjulikke juhiseid. Need oskused toimivad nagu pistikprogrammid, mis laiendavad agendi võimalusi. Samas võivad nad olla ka rünnaku sissepääsukohad.
Selle tõttu võivad isegi usaldusväärsete väljanägemisega tööriistad peita endas peidetud riske. Kasutajad, kes paigaldavad mitmeid oskusi, on suurema ohu all. Samal ajal teeb OpenClawi kiire kasv rõhku. Paljud arendajad loovad ja jagavad tööriistu kiiresti, kuid turvatestid ei pruugi alati sammus olla.
Vitalik Buterin rõhutas selgelt, et probleem ei puudu ainult OpenClaw’i. Pigem viitas ta laiemale probleemile AI-valdkonnas. Ta ütles, et paljud projektid liiguvad kiiresti, kuid ignoreerivad turvalisust. See loob keskkonna, kus riskantsed tööriistad levivad lihtsalt.
Siiski jagas ta ka positiivsemat visiooni. Ta usub, et kohalikud AI-süsteemid võivad parandada privaatsust, kui neid hooldatakse hoolikalt. Näiteks võib mudelite käivitamine isiklikes seadmetes andmete lekkimist vähendada. Ta soovitas ka turvameetmete lisamist – näiteks tööriistade sandboximist, õiguste piiramist ja tundlike tegevuste jaoks kasutaja nõusoleku nõudmist.
Hoiatus ilmub olulisel ajal. AI-agendid muutuvad jõulisemaks ja levinumaks. Kasutuse levikuga kasvavad ka riskid. Arendajatel seisab nüüd ees oluline väljakutse: nad peavad tasakaalustama kiirust ja turvalisust.
Kasutajatele on sõnum lihtne: ole ettevaatlik uute AI-tööriistade kasutamisel. Välti tundmatuid pistikprogramme. Kontrolli alati õigusi enne ülesannete käivitamist. Tugevamad turvapraktikad otsustavad, kui turvalised need süsteemid saavad. Hetkel on Vitalik Buterini hoiatus meenutus: innovatsioon liigub kiiresti, kuid turvalisus peab samasammul olema.
Postitus „Vitalik Buterin märgib andmete väljavoolu riske OpenClaw’s“ ilmus esimesena Coinfomanias.


