چرا سپردن کنترل کامل به عامل‌های هوش مصنوعی یک اشتباه بزرگ است؟

زمانی که سیستم‌های هوش مصنوعی بتوانند به‌طور هم‌زمان چندین منبع را کنترل کنند، احتمال وقوع آسیب به‌طور چشمگیری افزایش می‌یابد. ما باید حضور انسان را در این فرایند حفظ کنیم.

چرا سپردن کنترل کامل به عامل‌های هوش مصنوعی یک اشتباه بزرگ است؟
Image Credits: Sarah Rogers/MITTR | Photos Getty

با افزایش توانایی سیستم‌های هوش مصنوعی در کنترل هم‌زمان چندین منبع اطلاعاتی، خطرات بالقوه آن‌ها نیز به‌طور چشمگیری افزایش می‌یابد. برای جلوگیری از آسیب‌های احتمالی، ضروری است که نظارت انسانی همچنان در این فرآیند حفظ شود.

عامل‌های هوش مصنوعی: تحولی نوین با چالش‌های جدی

عامل‌های هوش مصنوعی (AI Agents) به یکی از داغ‌ترین موضوعات صنعت فناوری تبدیل شده‌اند. برخلاف چت‌بات‌های سنتی که صرفاً در یک پنجره گفت‌وگو پاسخ می‌دهند، این سیستم‌های پیشرفته می‌توانند در چندین برنامه به‌طور هم‌زمان عمل کرده و وظایف پیچیده‌ای مانند تنظیم جلسات یا خرید آنلاین را تنها بر اساس دستورات ساده کاربران انجام دهند.

با پیشرفت این فناوری، یک پرسش اساسی مطرح می‌شود: تا چه حد حاضر هستیم کنترل را به هوش مصنوعی بسپاریم و پیامدهای آن چه خواهد بود؟

هر هفته قابلیت‌های جدیدی برای این عوامل معرفی می‌شود و شرکت‌های فناوری از آن‌ها به‌عنوان راهکاری برای ساده‌تر کردن زندگی یاد می‌کنند. از جمله نمونه‌های برجسته این فناوری، قابلیت "Computer Use" در سیستم Claude از Anthropic است که به آن امکان می‌دهد مستقیماً روی صفحه نمایش کاربران عمل کند. همچنین، عامل عمومی "Manus" قادر است از ابزارهای آنلاین برای انجام وظایفی مانند شناسایی مشتریان یا برنامه‌ریزی سفرها استفاده کند.

این تحولات نشان‌دهنده گامی بزرگ در حوزه هوش مصنوعی است؛ سیستم‌هایی که بدون نیاز به نظارت مستقیم انسان، در دنیای دیجیتال فعالیت می‌کنند.

هوش مصنوعی خودکار: مزیتی جذاب، اما با چالش‌های پنهان

امکانات این فناوری وسوسه‌انگیز است. چه کسی نمی‌خواهد که کارهای زمان‌بر و خسته‌کننده‌اش توسط یک عامل هوش مصنوعی انجام شود؟ این سیستم‌ها به‌زودی قادر خواهند بود وظایف بیشتری را بر عهده بگیرند؛ از یادآوری قرارهای کاری گرفته تا طراحی ارائه‌های حرفه‌ای.

همچنین این فناوری می‌تواند برای افراد دارای محدودیت‌های حرکتی یا بینایی بسیار مفید باشد. آن‌ها می‌توانند تنها با دستورات زبانی ساده، کارهای خود را در فضای دیجیتال انجام دهند. علاوه بر این، در شرایط بحرانی، عامل‌های هوش مصنوعی می‌توانند اطلاعات را هماهنگ کرده و به افراد در تصمیم‌گیری سریع کمک کنند؛ برای مثال، مدیریت ترافیک در هنگام وقوع بلایای طبیعی برای تسهیل خروج مردم از مناطق خطرناک.

اما در کنار این مزایا، افزایش سطح خودمختاری این سیستم‌ها با ریسک‌های جدی همراه است که نباید نادیده گرفته شوند. تیم تحقیقاتی ما در Hugging Face سال‌هاست روی این سیستم‌ها کار می‌کند و یافته‌های اخیر ما نشان می‌دهد که توسعه بی‌رویه این فناوری می‌تواند منجر به پیامدهای خطرناکی شود.

واگذاری تدریجی کنترل: مسیر خطرناکی که در پیش است

مسئله اصلی اینجاست که هرچه عامل‌های هوش مصنوعی مستقل‌تر شوند، کنترل انسانی بیشتری از دست می‌رود.

این سیستم‌ها به‌گونه‌ای طراحی شده‌اند که بتوانند طیف وسیعی از وظایف را بدون نیاز به برنامه‌ریزی صریح انجام دهند. بسیاری از این قابلیت‌ها بر پایه مدل‌های زبانی بزرگی توسعه یافته‌اند که ذاتاً غیرقابل پیش‌بینی و مستعد خطا هستند.

در یک چت‌بات معمولی، خطاهای مدل زبانی تنها در همان مکالمه باقی می‌مانند. اما در سیستم‌هایی که می‌توانند به‌طور مستقل در چندین برنامه عمل کنند، این اشتباهات ممکن است پیامدهای جدی‌تری داشته باشند؛ از حذف یا تغییر فایل‌ها گرفته تا انجام تراکنش‌های غیرمجاز یا حتی جعل هویت کاربران.

ویژگی‌ای که این سیستم‌ها را جذاب کرده—کاهش نظارت انسانی—در واقع بزرگ‌ترین نقطه‌ضعف آن‌ها نیز محسوب می‌شود.

برای درک بهتر میزان خطرات، می‌توان عوامل هوش مصنوعی را در یک طیف از نظر میزان خودمختاری بررسی کرد:

  • سطح پایین: سیستم‌های ساده‌ای که فقط پردازش‌های جزئی انجام می‌دهند، مانند چت‌بات‌هایی که در وب‌سایت‌ها پیام خوشامدگویی ارسال می‌کنند.
  • سطح متوسط: عوامل چندمرحله‌ای که تصمیم می‌گیرند چه وظایفی را انجام دهند و چگونه این کار را انجام دهند.
  • سطح بالا: سیستم‌های کاملاً خودمختار که بدون نیاز به تأیید انسان، کد جدید می‌نویسند، فایل‌ها را تغییر می‌دهند، سوابق را اصلاح می‌کنند و حتی به‌صورت مستقل ایمیل ارسال می‌کنند.

هرچه سطح خودمختاری این سیستم‌ها افزایش یابد، کنترل انسانی کمرنگ‌تر شده و ریسک‌های آن بیشتر می‌شود.

چالش‌های امنیتی و حریم خصوصی

عامل‌های هوش مصنوعی می‌توانند کاربردهای مفیدی داشته باشند، اما هم‌زمان چالش‌های مهمی در زمینه امنیت و حریم خصوصی ایجاد می‌کنند:

  • نقض حریم خصوصی: برای ارائه اطلاعات شخصی درباره افراد، این سیستم‌ها نیاز به دسترسی گسترده به داده‌های کاربران و تعاملات قبلی آن‌ها دارند که این امر می‌تواند خطر افشای اطلاعات حساس را به دنبال داشته باشد.
  • استفاده نادرست از قابلیت‌ها: عامل‌هایی که می‌توانند مسیرهای ساختمانی را تحلیل کنند، ممکن است در دست افراد خرابکار به ابزاری برای نفوذ به مناطق غیرمجاز تبدیل شوند.
  • کنترل هم‌زمان چندین منبع اطلاعاتی: این قابلیت می‌تواند خطرات گسترده‌ای ایجاد کند. برای مثال، عاملی که به ارتباطات خصوصی و پلتفرم‌های عمومی دسترسی دارد، ممکن است اطلاعات شخصی کاربران را در شبکه‌های اجتماعی منتشر کند. حتی اگر این اطلاعات نادرست باشند، می‌توانند به‌سرعت گسترش یافته و آسیب‌های جدی به اعتبار افراد وارد کنند.

به‌زودی ممکن است جمله‌ی "مقصر من نبودم، عامل هوش مصنوعی‌ام بود!" بهانه‌ای رایج برای توجیه اتفاقات ناگوار شود.

لزوم نظارت انسانی در تصمیم‌گیری‌های حیاتی

تجربه تاریخی نشان داده که حفظ نظارت انسانی در فرآیندهای حساس امری ضروری است.

در سال ۱۹۸۰، یک سیستم کامپیوتری به‌اشتباه تشخیص داد که بیش از ۲۰۰۰ موشک شوروی به سمت آمریکای شمالی در حال حرکت‌اند. این خطای فنی تقریباً منجر به یک بحران جهانی شد، اما راستی‌آزمایی انسانی توانست از وقوع فاجعه جلوگیری کند.

اگر تصمیم‌گیری به‌طور کامل به سیستم‌های خودمختار واگذار شده بود، ممکن بود نتیجه‌ای جبران‌ناپذیر رقم بخورد.

چگونه می‌توان این خطرات را مدیریت کرد؟

برخی معتقدند که مزایای عامل‌های هوش مصنوعی ارزش پذیرش این خطرات را دارد، اما ما باور داریم که نیازی به واگذاری کامل کنترل به ماشین‌ها نیست. در عوض، باید توسعه این سیستم‌ها هم‌زمان با ایجاد سازوکارهای نظارتی قوی برای حفظ کنترل انسانی صورت گیرد.

یکی از راه‌های کاهش این خطرات، استفاده از سیستم‌های منبع‌باز است، زیرا این سیستم‌ها شفافیت بیشتری دارند و امکان نظارت انسانی را فراهم می‌کنند. در Hugging Face، ما در حال توسعه smolagents هستیم؛ چارچوبی که محیط‌های ایمن و ایزوله‌ای را برای اجرای عوامل هوش مصنوعی فراهم می‌کند و اجازه می‌دهد گروه‌های مستقل نظارت دقیق‌تری بر آن‌ها داشته باشند.

در نهایت، مهم‌ترین ویژگی یک فناوری نباید فقط افزایش بهره‌وری باشد، بلکه باید تضمین امنیت، حریم خصوصی و رفاه انسانی را نیز در نظر بگیرد.

هوش مصنوعی باید به‌عنوان یک ابزار در کنار انسان باشد، نه جایگزین آن. تصمیم‌گیری نهایی همچنان باید در دستان انسان باقی بماند.


Credits: "Why handing over total control to AI agents would be a huge mistake" By Margaret Mitchell, Avijit Ghosh, Sasha Luccioni, Giada Pistilli, published in MIT Technology Review.

Read full article here: https://www.technologyreview.com/2025/03/24/1113647/why-handing-over-total-control-to-ai-agents-would-be-a-huge-mistake/