فناوری جدید OpenAI برای تشخیص خطاهای هوش مصنوعی
همزمان با توسعه مدلهای مختلف هوش مصنوعی یک جریانی با عنوان «مشکل توهم» بین آنها رایج شده است که مطالب نادرست را در قالب یک مبحث معتبر تحت پوشش قرار میدهند و آنها را در اختیار کاربر میگذارند. این اتفاق برخی از محققان را به این نتیجه رسانده است که هوش مصنوعی مولد به سادگی نمیتواند خطاهای خود را شناسایی یا تصحیح کند.
محققان مرکز DeepMind گوگل در مقالهای که اکتبر گذشته منتشر کردند توضیح داد که «مدلهای زبان بزرگ (LLM) هنوز قادر به تصحیح استدلالهای خود نیستند و نمیتوانند مشکلات خود را برطرف کنند».
در این میان شرکت OpenAI خالق هوش مصنوعی ChatGPT با این ادعا مخالف است. این شرکت هفته گذشته نسخهای از مدل هوش مصنوعی مصنوعی GPT-4 را با نام CriticGPT ارایه کرده است و ادعا میکند این مدل جدید میتواند به یافتن و اصلاح اشتباهات برای بهبود دقت کلی مدل کمک کند.
نتایج بررسی روی این مدل جدید برای تیمهای انسانی که با کمک هوش مصنوعی کدهای اشتباه را پاک میکنند، بسیار رضایت بخش بوده است. این نتایج همچنین نشان داده است در روباتهای هوش مصنوعی که از مدل جدید بهره بردهاند هیچ گونه از «مشکل توهم» وجود نداشته است.
تنظیمات CriticGPT مخصوص نوشتن کد و انجام برنامه نویسی تنظیم شده است. محققان مدل CriticGPT را به عنوان شبکه عصبی دوم پیشنهاد میکنند تا مواردی که ChatGPT در فرآیند تولید کدها به اشتباه ارایه میدهد و آنها را در حافظه پنهان خود ذخیره میکند را شناسایی و برطرف کند.