چرا سپردن کنترل کامل به عاملهای هوش مصنوعی یک اشتباه بزرگ است؟
زمانی که سیستمهای هوش مصنوعی بتوانند بهطور همزمان چندین منبع را کنترل کنند، احتمال وقوع آسیب بهطور چشمگیری افزایش مییابد. ما باید حضور انسان را در این فرایند حفظ کنیم.

با افزایش توانایی سیستمهای هوش مصنوعی در کنترل همزمان چندین منبع اطلاعاتی، خطرات بالقوه آنها نیز بهطور چشمگیری افزایش مییابد. برای جلوگیری از آسیبهای احتمالی، ضروری است که نظارت انسانی همچنان در این فرآیند حفظ شود.
عاملهای هوش مصنوعی: تحولی نوین با چالشهای جدی
عاملهای هوش مصنوعی (AI Agents) به یکی از داغترین موضوعات صنعت فناوری تبدیل شدهاند. برخلاف چتباتهای سنتی که صرفاً در یک پنجره گفتوگو پاسخ میدهند، این سیستمهای پیشرفته میتوانند در چندین برنامه بهطور همزمان عمل کرده و وظایف پیچیدهای مانند تنظیم جلسات یا خرید آنلاین را تنها بر اساس دستورات ساده کاربران انجام دهند.
با پیشرفت این فناوری، یک پرسش اساسی مطرح میشود: تا چه حد حاضر هستیم کنترل را به هوش مصنوعی بسپاریم و پیامدهای آن چه خواهد بود؟
هر هفته قابلیتهای جدیدی برای این عوامل معرفی میشود و شرکتهای فناوری از آنها بهعنوان راهکاری برای سادهتر کردن زندگی یاد میکنند. از جمله نمونههای برجسته این فناوری، قابلیت "Computer Use" در سیستم Claude از Anthropic است که به آن امکان میدهد مستقیماً روی صفحه نمایش کاربران عمل کند. همچنین، عامل عمومی "Manus" قادر است از ابزارهای آنلاین برای انجام وظایفی مانند شناسایی مشتریان یا برنامهریزی سفرها استفاده کند.
این تحولات نشاندهنده گامی بزرگ در حوزه هوش مصنوعی است؛ سیستمهایی که بدون نیاز به نظارت مستقیم انسان، در دنیای دیجیتال فعالیت میکنند.
هوش مصنوعی خودکار: مزیتی جذاب، اما با چالشهای پنهان
امکانات این فناوری وسوسهانگیز است. چه کسی نمیخواهد که کارهای زمانبر و خستهکنندهاش توسط یک عامل هوش مصنوعی انجام شود؟ این سیستمها بهزودی قادر خواهند بود وظایف بیشتری را بر عهده بگیرند؛ از یادآوری قرارهای کاری گرفته تا طراحی ارائههای حرفهای.
همچنین این فناوری میتواند برای افراد دارای محدودیتهای حرکتی یا بینایی بسیار مفید باشد. آنها میتوانند تنها با دستورات زبانی ساده، کارهای خود را در فضای دیجیتال انجام دهند. علاوه بر این، در شرایط بحرانی، عاملهای هوش مصنوعی میتوانند اطلاعات را هماهنگ کرده و به افراد در تصمیمگیری سریع کمک کنند؛ برای مثال، مدیریت ترافیک در هنگام وقوع بلایای طبیعی برای تسهیل خروج مردم از مناطق خطرناک.
اما در کنار این مزایا، افزایش سطح خودمختاری این سیستمها با ریسکهای جدی همراه است که نباید نادیده گرفته شوند. تیم تحقیقاتی ما در Hugging Face سالهاست روی این سیستمها کار میکند و یافتههای اخیر ما نشان میدهد که توسعه بیرویه این فناوری میتواند منجر به پیامدهای خطرناکی شود.
واگذاری تدریجی کنترل: مسیر خطرناکی که در پیش است
مسئله اصلی اینجاست که هرچه عاملهای هوش مصنوعی مستقلتر شوند، کنترل انسانی بیشتری از دست میرود.
این سیستمها بهگونهای طراحی شدهاند که بتوانند طیف وسیعی از وظایف را بدون نیاز به برنامهریزی صریح انجام دهند. بسیاری از این قابلیتها بر پایه مدلهای زبانی بزرگی توسعه یافتهاند که ذاتاً غیرقابل پیشبینی و مستعد خطا هستند.
در یک چتبات معمولی، خطاهای مدل زبانی تنها در همان مکالمه باقی میمانند. اما در سیستمهایی که میتوانند بهطور مستقل در چندین برنامه عمل کنند، این اشتباهات ممکن است پیامدهای جدیتری داشته باشند؛ از حذف یا تغییر فایلها گرفته تا انجام تراکنشهای غیرمجاز یا حتی جعل هویت کاربران.
ویژگیای که این سیستمها را جذاب کرده—کاهش نظارت انسانی—در واقع بزرگترین نقطهضعف آنها نیز محسوب میشود.
برای درک بهتر میزان خطرات، میتوان عوامل هوش مصنوعی را در یک طیف از نظر میزان خودمختاری بررسی کرد:
- سطح پایین: سیستمهای سادهای که فقط پردازشهای جزئی انجام میدهند، مانند چتباتهایی که در وبسایتها پیام خوشامدگویی ارسال میکنند.
- سطح متوسط: عوامل چندمرحلهای که تصمیم میگیرند چه وظایفی را انجام دهند و چگونه این کار را انجام دهند.
- سطح بالا: سیستمهای کاملاً خودمختار که بدون نیاز به تأیید انسان، کد جدید مینویسند، فایلها را تغییر میدهند، سوابق را اصلاح میکنند و حتی بهصورت مستقل ایمیل ارسال میکنند.
هرچه سطح خودمختاری این سیستمها افزایش یابد، کنترل انسانی کمرنگتر شده و ریسکهای آن بیشتر میشود.
چالشهای امنیتی و حریم خصوصی
عاملهای هوش مصنوعی میتوانند کاربردهای مفیدی داشته باشند، اما همزمان چالشهای مهمی در زمینه امنیت و حریم خصوصی ایجاد میکنند:
- نقض حریم خصوصی: برای ارائه اطلاعات شخصی درباره افراد، این سیستمها نیاز به دسترسی گسترده به دادههای کاربران و تعاملات قبلی آنها دارند که این امر میتواند خطر افشای اطلاعات حساس را به دنبال داشته باشد.
- استفاده نادرست از قابلیتها: عاملهایی که میتوانند مسیرهای ساختمانی را تحلیل کنند، ممکن است در دست افراد خرابکار به ابزاری برای نفوذ به مناطق غیرمجاز تبدیل شوند.
- کنترل همزمان چندین منبع اطلاعاتی: این قابلیت میتواند خطرات گستردهای ایجاد کند. برای مثال، عاملی که به ارتباطات خصوصی و پلتفرمهای عمومی دسترسی دارد، ممکن است اطلاعات شخصی کاربران را در شبکههای اجتماعی منتشر کند. حتی اگر این اطلاعات نادرست باشند، میتوانند بهسرعت گسترش یافته و آسیبهای جدی به اعتبار افراد وارد کنند.
بهزودی ممکن است جملهی "مقصر من نبودم، عامل هوش مصنوعیام بود!" بهانهای رایج برای توجیه اتفاقات ناگوار شود.
لزوم نظارت انسانی در تصمیمگیریهای حیاتی
تجربه تاریخی نشان داده که حفظ نظارت انسانی در فرآیندهای حساس امری ضروری است.
در سال ۱۹۸۰، یک سیستم کامپیوتری بهاشتباه تشخیص داد که بیش از ۲۰۰۰ موشک شوروی به سمت آمریکای شمالی در حال حرکتاند. این خطای فنی تقریباً منجر به یک بحران جهانی شد، اما راستیآزمایی انسانی توانست از وقوع فاجعه جلوگیری کند.
اگر تصمیمگیری بهطور کامل به سیستمهای خودمختار واگذار شده بود، ممکن بود نتیجهای جبرانناپذیر رقم بخورد.
چگونه میتوان این خطرات را مدیریت کرد؟
برخی معتقدند که مزایای عاملهای هوش مصنوعی ارزش پذیرش این خطرات را دارد، اما ما باور داریم که نیازی به واگذاری کامل کنترل به ماشینها نیست. در عوض، باید توسعه این سیستمها همزمان با ایجاد سازوکارهای نظارتی قوی برای حفظ کنترل انسانی صورت گیرد.
یکی از راههای کاهش این خطرات، استفاده از سیستمهای منبعباز است، زیرا این سیستمها شفافیت بیشتری دارند و امکان نظارت انسانی را فراهم میکنند. در Hugging Face، ما در حال توسعه smolagents هستیم؛ چارچوبی که محیطهای ایمن و ایزولهای را برای اجرای عوامل هوش مصنوعی فراهم میکند و اجازه میدهد گروههای مستقل نظارت دقیقتری بر آنها داشته باشند.
در نهایت، مهمترین ویژگی یک فناوری نباید فقط افزایش بهرهوری باشد، بلکه باید تضمین امنیت، حریم خصوصی و رفاه انسانی را نیز در نظر بگیرد.
هوش مصنوعی باید بهعنوان یک ابزار در کنار انسان باشد، نه جایگزین آن. تصمیمگیری نهایی همچنان باید در دستان انسان باقی بماند.
Credits: "Why handing over total control to AI agents would be a huge mistake" By Margaret Mitchell, Avijit Ghosh, Sasha Luccioni, Giada Pistilli, published in MIT Technology Review.
Read full article here: https://www.technologyreview.com/2025/03/24/1113647/why-handing-over-total-control-to-ai-agents-would-be-a-huge-mistake/