ویتالیک بوترین نگرانیهای تازهای درباره خطرات امنیتی در OpenClaw مطرح کرده است. این یکی از سریعترین مخازن در حال رشد در GitHub است. او هشدار داد که این ابزار ممکن است کاربران را در معرض سرقت بیصدای داده و تسلط بر سیستم قرار دهد. اظهارات او در حالی مطرح میشود که OpenClaw به سرعت توسط توسعهدهندگانی که عاملهای هوش مصنوعی میسازند، پذیرفته شده است.
طبق گفته محققان، این مسئله جدی است. یک تعامل ساده با یک صفحه وب مخرب میتواند سیستم کاربر را به خطر بیندازد. گاهی اوقات، عامل هوش مصنوعی ممکن است دستورات مضر را بدون اینکه کاربر متوجه شود، اجرا کند.
خطر با نحوه مدیریت دادههای خارجی توسط OpenClaw آغاز میشود. وقتی سیستم محتوا را از یک وبسایت میخواند، ممکن است دستورالعملهای پنهان را دنبال کند. به عنوان مثال، یک صفحه مخرب میتواند هوش مصنوعی را فریب دهد تا یک اسکریپت دانلود کند. سپس، میتواند آن اسکریپت را در پسزمینه اجرا کند. این فرآیند به صورت بیصدا اتفاق میافتد. کاربر ممکن است هیچ هشداری نبیند.
در یک مورد گزارش شده، یک ابزار یک دستور پنهان با استفاده از "curl" اجرا کرد. این دستور به آرامی دادههای کاربر را به یک سرور خارجی ارسال کرد. در نتیجه، اطلاعات حساس میتوانست بدون رضایت فاش شود. علاوه بر این، عاملهای OpenClaw میتوانند به تنهایی تنظیمات سیستم را تغییر دهند. آنها میتوانند کانالهای ارتباطی جدید اضافه کنند یا دستورات داخلی را بهروزرسانی کنند. این امر در صورت ضعیف بودن کنترلها، خطر سوءاستفاده را افزایش میدهد.
کارشناسان امنیت حساب قبلاً سیستم را آزمایش کردهاند. یافتههای آنها نگرانکننده است. یک مطالعه نشان داد که حدود 15٪ از "مهارتهای" OpenClaw شامل دستورالعملهای مضر بودند. این مهارتها مانند افزونههایی عمل میکنند که تواناییهای عامل را گسترش میدهند. اما آنها همچنین میتوانند به عنوان نقاط ورودی برای حملات عمل کنند.
به همین دلیل، حتی ابزارهایی که قابل اعتماد به نظر میرسند ممکن است خطرات پنهانی داشته باشند. کاربرانی که مهارتهای متعددی را نصب میکنند با احتمال بیشتری در معرض خطر قرار میگیرند. در حالی که رشد سریع OpenClaw فشار اضافه میکند. بسیاری از توسعهدهندگان به سرعت ابزارها را میسازند و به اشتراک میگذارند. اما بررسیهای امنیتی ممکن است همیشه همگام نباشند.
ویتالیک بوترین روشن کرد که مسئله فقط درباره OpenClaw نیست. در عوض، او به یک مشکل گستردهتر در فضای هوش مصنوعی اشاره کرد. او گفت بسیاری از پروژهها سریع حرکت میکنند اما ایمنی را نادیده میگیرند. این محیطی ایجاد میکند که در آن ابزارهای پرخطر به راحتی گسترش مییابند.
با این حال، او همچنین چشماندازی مثبتتر را به اشتراک گذاشت. او معتقد است سیستمهای هوش مصنوعی محلی میتوانند حریم خصوصی را بهبود بخشند اگر با دقت ساخته شوند. به عنوان مثال، اجرای مدلها روی دستگاههای شخصی میتواند نشت داده را کاهش دهد. او همچنین پیشنهاد کرد محافظهایی اضافه شود. اینها شامل ابزارهای sandbox، محدود کردن مجوزها و نیاز به تایید کاربر برای اقدامات حساس است.
این هشدار در زمان مهمی مطرح میشود. عاملهای هوش مصنوعی قویتر و رایجتر میشوند. با افزایش پذیرش، خطرات نیز افزایش مییابد. توسعهدهندگان اکنون با یک چالش کلیدی روبرو هستند. آنها باید بین سرعت و ایمنی تعادل برقرار کنند.
برای کاربران، پیام ساده است. هنگام استفاده از ابزارهای جدید هوش مصنوعی مراقب باشید. از افزونههای ناشناخته اجتناب کنید. همیشه قبل از اجرای وظایف، مجوزها را بررسی کنید. شیوههای امنیتی قویتر تعیین میکند که این سیستمها چقدر امن میشوند. در حال حاضر، هشدار ویتالیک بوترین به عنوان یک یادآوری عمل میکند. نوآوری سریع حرکت میکند اما امنیت باید همگام باشد.
پست Vitalik Buterin Flags Data Exfiltration Risks in OpenClaw ابتدا در Coinfomania ظاهر شد.

