هوش مصنوعی

August 22, 2025
17:31 جمعه، 31ام مردادماه 1404
کد خبر: 199954

زنگ خطر برای آینده هوش مصنوعی

منبع: زومیت

وقتی مرز میان انسان و ماشین کمرنگ شود، پرسش‌های تازه‌ای درباره‌ی آینده‌ی هوش مصنوعی و جایگاه ما در برابر آن مطرح خواهد شد.

شرکت‌های بزرگ فناوری میلیاردها دلار روی هوش مصنوعی سرمایه‌گذاری می‌کنند، اما پرسش اصلی این است: مقصد نهایی این سرمایه‌گذاری‌ها چیست؟ بسیاری پاسخ را رسیدن به هوش مصنوعی پیشرفته (AGI) می‌دانند؛ مفهومی که هر بار با معنای متفاوتی مطرح می‌شود.

AGI در ساده‌ترین تعریف، سامانه‌ای است که فراتر از توانایی‌های شناختی انسان عمل می‌کند. اما در توافق چندمیلیارددلاری مایکروسافت و OpenAI، این واژه به‌عنوان سیستمی تعریف شده است که می‌تواند تا ۱۰۰ میلیارد دلار سودآوری داشته باشد. همین تعریف، OpenAI را تحت فشار سرمایه‌گذاران برای حرکت به‌سمت سودآوری قرار داده و خطر دخالت‌های بیرونی یا حتی تصاحب‌های خصمانه را افزایش داده است.

مصطفی سلیمان، مدیرعامل واحد هوش مصنوعی مایکروسافت هشدار می‌دهد که پیشرفت فناوری در سرعتی بی‌سابقه رخ خواهده داد؛ تا جایی که امکان دارد مدرک دکترا پیش از اتمام تحصیل بی‌ارزش شود. او در یادداشتی با عنوان «باید هوش مصنوعی برای انسان بسازیم، نه به‌عنوان یک انسان» از خطر ظهور چیزی به نام «زامبی فلسفی» سخن گفته است؛ موجودی که تمام نشانه‌های آگاهی را تقلید می‌کند، اما در درون کاملاً تهی است. چنین هوشی نه واقعاً آگاهی دارد و نه می‌تواند تجربه‌ای انسانی داشته باشد، اما به‌قدری قانع‌کننده عمل می‌کند که مرز میان انسان و ماشین را از بین می‌برد.

سلیمان بزرگ‌ترین نگرانی خود را «خطر روان‌پریشی» می‌نامد؛ وضعیتی که در آن افراد زیادی به توهم آگاه بودن هوش مصنوعی باور پیدا می‌کنند و حتی احتمال دارد به‌دنبال اعطای حقوق شهروندی یا رفاه برای مدل‌های هوش مصنوعی باشند. سلیمان هشدار می‌دهد چنین روندی می‌تواند آینده‌ی این فناوری را به مسیر خطرناکی بکشاند.

مدیرعامل مایکروسافت AI تأکید می‌کند هدفش ساخت هوشی ایمن و مفید است؛ سیستمی مانند کوپایلت که به‌عنوان یک دستیار و حتی یک همراه واقعی به انسان‌ها کمک کند. بااین حال، او باور دارد جامعه هنوز برای مواجهه با هوش مصنوعی آگاه آماده نیست و باید چارچوب‌های سخت‌گیرانه‌ای ایجاد شود تا این فناوری صرفاً در نقش ابزار باقی بماند و هیچ‌گاه در هیبت یک موجود آگاه ظاهر نشود.

این درحالی است که پیش‌بینی‌ها از جمله دیدگاه دمیس هاسابیس مدیرعامل دیپ‌مایند و رومن یامپولسکی پژوهشگر ایمنی هوش مصنوعی نشان می‌دهد خطرات جدی در کمین است. یامپولسکی حتی احتمال نابودی بشر به‌دست هوش مصنوعی را ۹۹٫۹۹۹۹۹۹ درصد می‌داند و تنها راه جلوگیری را نساختن آن معرفی کرده است.

با وجود هشدارها، برخی مدیران مثل سم آلتمن مدیرعامل OpenAI نگاه خوش‌بینانه‌تری دارند و معتقدند رسیدن به AGI طی ۵ سال آینده رخ خواهد داد، آن هم بدون تغییرات تکان‌دهنده در جامعه. اما با اعتراف داریا آمودی مدیرعامل آنتروپیک مبنی‌بر اینکه حتی شرکتش از نحوه‌ی کار مدل‌های خود اطمینان ندارد، این پرسش پررنگ‌تر می‌شود کخ آیا جامعه واقعاً آماده‌ی مواجهه با زامبی‌های فلسفی است یا خیر؟

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.