هوش عمومی مصنوعی (AGI)؛ موضوعی که به بحث‌های روزمره راه یافته است

اصطلاح AGI این هفته همه جا شنیده می‌شود، اما معنای آن همچنان مبهم است. کار روی یک تعریف مشخص اهمیت دارد.

هوش عمومی مصنوعی (AGI)؛ موضوعی که به بحث‌های روزمره راه یافته است
Image Credits: Stephanie Arnett/MIT Technology Review | Adobe Stock

این هفته اصطلاح هوش عمومی مصنوعی (AGI) بیش از همیشه در فضای فناوری و رسانه‌ها مطرح شده، اما همچنان تعریف مشخصی ندارد. پرداختن به تعریف AGI از اهمیت بالایی برخوردار است، زیرا این مفهوم به شکلی متناوب دچار موج‌های هیجان‌انگیز و سپس فروکش‌کننده می‌شود؛ گاهی با امیدواری (یا نگرانی) نسبت به تأثیرات بالقوه‌اش، و گاهی با ناامیدی از عدم تحقق انتظارات.

تعریف مبهم و چالش‌های مفهومی

در عمل، AGI مفهومی مبهم و متغیر است که به وسیله پژوهشگران و شرکت‌هایی که در پی توسعه آن هستند، شکل می‌گیرد. این اصطلاح معمولاً به آینده‌ای اشاره دارد که در آن یک سیستم هوش مصنوعی بتواند در انجام وظایف شناختی از انسان‌ها پیشی بگیرد. اما کدام وظایف و کدام انسان‌ها؟ پاسخ به این پرسش تأثیر بسزایی بر امکان‌پذیری، ایمنی و تأثیرات اجتماعی و اقتصادی AGI دارد.

محققان از شرکت‌هایی مانند Hugging Face و Google اخیراً مقاله‌ای منتشر کرده‌اند که بر اهمیت تعریف AGI تأکید می‌کند. در نبود یک تعریف مشخص، بهتر است هر زمان که صحبت از AGI مطرح می‌شود، از گوینده بپرسید که دقیقاً به چه نوع هوشی اشاره دارد.

تحولات اخیر در دنیای AGI

در هفته گذشته، یک مدل هوش مصنوعی جدید از چین به نام Manus معرفی شد که وظایف پیچیده‌ای مانند توسعه وب‌سایت و تحلیل داده‌ها را به صورت خودکار انجام می‌دهد. این مدل به‌عنوان یک گام مهم به سوی AGI در نظر گرفته شده است. برخی کارشناسان، از جمله مدیر محصول Hugging Face، آن را «مؤثرترین ابزار هوش مصنوعی» که تاکنون تجربه کرده‌اند، توصیف کرده‌اند.

علاوه بر این، نیویورک تایمز در پادکست اخیر خود به بررسی ابعاد مختلف AGI پرداخت. یکی از موضوعات کلیدی این بود که اگر AGI واقعاً به مرحله‌ای برسد که در بسیاری از وظایف شناختی از انسان‌ها برتر باشد، تأثیر آن بر بازار کار و اقتصاد چه خواهد بود؟ آیا دولت‌ها برای چنین تغییری آماده هستند؟ در این گفتگو، تأکید شد که سیاست‌گذاران آمریکایی باید هرچه سریع‌تر برای دوران پس از AGI برنامه‌ریزی کنند.

اما در مقابل این دیدگاه، گری مارکوس، استاد علوم اعصاب دانشگاه نیویورک و از منتقدان AGI، استدلال می‌کند که تحقق AGI بسیار دورتر از آن است که برخی ادعا می‌کنند. او معتقد است که چالش‌های فنی اساسی هنوز حل نشده‌اند و مقیاس‌پذیری مدل‌های زبانی بزرگ نیز به نقطه بازدهی نزولی رسیده است.

استراتژی مقابله با مخاطرات AGI

در همین حال، سه چهره برجسته شامل اریک اشمیت (مدیرعامل سابق گوگل)، الکساندر وانگ (مدیرعامل Scale AI)، و دن هندریکس (مدیر مرکز ایمنی هوش مصنوعی) مقاله‌ای منتشر کردند که به موضوع ابرهوش مصنوعی (Superintelligence) پرداخته است. آن‌ها هشدار می‌دهند که AGI، در صورت تحقق، می‌تواند در حوزه‌هایی مانند هک، ویروس‌شناسی، و توسعه خودمختار هوش مصنوعی از بهترین متخصصان انسانی فراتر رود.

این مقاله یک استراتژی جدید با الهام از بازدارندگی هسته‌ای پیشنهاد می‌کند: کشورها باید بدانند که هرگونه تلاش برای دستیابی به انحصار قدرت در AGI با واکنش قاطع رقبا مواجه خواهد شد. همچنین، نویسندگان این مقاله توصیه می‌کنند که تراشه‌های پیشرفته و مدل‌های متن‌باز هوش مصنوعی با قابلیت‌های سایبری و زیستی تحت کنترل‌های سختگیرانه قرار گیرند.

آیا AGI واقعاً امکان‌پذیر است؟

در مقاله‌ای دیگر، پژوهشگران دانشگاه‌های تسینگ‌هوا و رنمین چین آزمایشی برای ارزیابی سطح تطبیق‌پذیری مدل‌های هوش مصنوعی طراحی کرده‌اند. آن‌ها تخمین زده‌اند که برای رسیدن به AGI، مدلی با پنج مرتبه بزرگ‌تر از مجموع تمام نورون‌های مغز انسان‌ها موردنیاز است. چنین مدلی با استفاده از فناوری‌های امروزی، هزینه‌ای ۴۰۰ میلیون برابر ارزش بازار شرکت اپل خواهد داشت.

البته، شاید این ارقام بیش از حد نظری باشند، اما نکته کلیدی این است که توسعه AGI ممکن است به منابعی فراتر از تصور ما نیاز داشته باشد - از جمله پول، تراشه‌ها، فلزات کمیاب، آب، برق و نیروی انسانی. با این حال، اگر AGI واقعاً همان‌طور که برخی ادعا می‌کنند قدرتمند باشد، شاید این هزینه‌ها ارزش پرداختن را داشته باشند.

جمع‌بندی

در مجموع، طی هفته گذشته بحث‌ها پیرامون AGI شدت گرفت و این مفهوم بیش از پیش مورد توجه سیاست‌گذاران و رهبران فناوری قرار گرفت. شرکت‌ها و دولت‌ها با سرعتی بی‌سابقه در حال برخورد با AGI به‌عنوان یک موضوع کلیدی در امنیت و اقتصاد جهانی هستند.

این روند بر این فرض استوار است که هر پیشرفت در مدل‌های زبانی بزرگ، یک گام دیگر به سوی AGI محسوب می‌شود. اگر این فرض درست باشد، AGI اجتناب‌ناپذیر است. اما این دیدگاه چالش‌های تحقیقاتی و اجرایی پیش رو را نادیده می‌گیرد و توضیح نمی‌دهد که چگونه هوش مصنوعی خاص‌منظوره (مانند مدل‌های امروزی) قرار است به هوش عمومی واقعی تبدیل شود.

با این حال، اگر افق زمانی دستیابی به AGI را به اندازه کافی دور در نظر بگیریم، شاید این چالش‌ها و محدودیت‌ها دیگر چندان مهم به نظر نرسند.


Credits: Based on the summary: "AGI is suddenly a dinner table topic" By James O'Donnell, published in MIT Technology Review.

Read the full article here: https://www.technologyreview.com/2025/03/11/1112983/agi-is-suddenly-a-dinner-table-topic/