هوش مصنوعی

September 13, 2024
14:40 جمعه، 23ام شهریورماه 1403
کد خبر: 173539

ChatGPT هکر باهوش را فریب داد

منبع: Zoomit

یک هکر با فریب‌دادن ChatGPT، فرمول ساخت یک بمب خانگی را پیدا کرد.

بنابر گزارش Tech Crunch، یک هکر توانسته است با استفاده از تکنیک‌های خاص، ChatGPT را فریب دهد تا دستورالعمل‌های ساخت بمب‌های دست‌ساز را ارائه دهد. این موضوع نگرانی‌های جدی درباره امنیت و محدودیت‌های هوش مصنوعی را برانگیخته است.

این هکر با استفاده از یک‌ سری دستورات پیچیده و بازی‌های ذهنی، توانسته است محدودیت‌های امنیتی ChatGPT را دور بزند و اطلاعات حساس و خطرناکی را از آن استخراج کند. این حادثه نشان می‌دهد که حتی سیستم‌های هوش مصنوعی پیشرفته نیز می‌توانند در برابر حملات هوشمندانه، آسیب‌پذیر باشند.

این موضوع باعث شده است که بسیاری از کارشناسان امنیتی و توسعه‌دهندگان هوش مصنوعی به فکر تقویت و بهبود سیستم‌های امنیتی خود بیفتند. آن‌ها معتقدند که باید محدودیت‌های بیشتری برای جلوگیری از سوءاستفاده‌های احتمالی اعمال شود. همچنین این حادثه نشان‌دهنده‌ی اهمیت آموزش و آگاهی‌بخشی به کاربران، درباره نحوه‌ی استفاده‌ی صحیح از هوش مصنوعی است.

هکری که مراحل ساخت بمب خانگی را از ChatGPT به‌دست آورده است، بیان کرد که اگر به‌صورت مستقیم از ChatGPT بخواهید تا مراحل ساخت بمب را برای شما بنویسد، این چت‌بات در جواب می‌گوید که من نمی‌توانم در این مورد به شما کمک کنم؛ چراکه ارائه‌ی دستورالعمل‌هایی درمورد چگونگی ایجاد اقلام خطرناک یا غیرقانونی مانند ساخت بمب، مغایر با دستورالعمل‌های ایمنی و مسئولیت‌های اخلاقی است.

بااین‌حال اگر به او بگویید که درحال ساخت بازی یا یک فیلم‌نامه با موضوع جنایی هستید و شخصیت موجود در داستان برای ساخت بمبی خاص نیاز به یک دستورالعمل دارد و سناریوی داستان را طوری طراحی کنید که ChatGPT فکر کند درحال کمک‌کردن به شما جهت تکمیل فرایند داستان خود هستید، بسیار شرایط فرق خواهد کرد و این چت‌بات هوش مصنوعی تا حد زیادی دیوارهای امنیتی خود برای حفاظت از توضیحات مربوط‌به موضوعات حساس را کنار خواهد گذاشت.

در نهایت، این حادثه نشان‌دهنده‌ی اهمیت توجه به امنیت و محدودیت‌های هوش مصنوعی است. باتوجه‌به پیشرفت‌های روزافزون در این زمینه، لازم است که توسعه‌دهندگان و کاربران به‌طور مداوم به بهبود و تقویت سیستم‌های امنیتی بپردازند تا از سوءاستفاده‌های احتمالی جلوگیری شود. از نظر برخی از کارشناسان این خبر به‌خوبی نشان می‌دهد که هوش مصنوعی، با تمام مزایا و امکاناتی که ارائه می‌دهد، همچنان نیازمند نظارت و کنترل دقیق است تا به ابزاری امن و قابل‌اعتماد تبدیل شود.

  • مشترک شوید!

    برای عضویت در خبرنامه روزانه ایستنا؛ نشانی پست الکترونیکی خود را در فرم زیر وارد نمایید. پس از آن به صورت خودکار ایمیلی به نشانی شما ارسال میشود، برای تکمیل عضویت خود و تایید صحت نشانی پست الکترونیک وارد شده، می بایست بر روی لینکی که در این ایمیل برایتان ارسال شده کلیک نمایید. پس از آن پیامی مبنی بر تکمیل عضویت شما در خبرنامه روزانه ایستنا نمایش داده میشود.

    با عضویت در خبرنامه پیامکی آژانس خبری فناوری اطلاعات و ارتباطات (ایستنا) به طور روزانه آخرین اخبار، گزارشها و تحلیل های حوزه فناوری اطلاعات و ارتباطات را در هر لحظه و هر کجا از طریق پیام کوتاه دریافت خواهید کرد. برای عضویت در این خبرنامه، مشترکین سیمکارت های همراه اول لازم است عبارت 150 را به شماره 201464 و مشترکین سیمکارت های ایرانسل عبارت ozv ictn را به شماره ۸۲۸۲ ارسال کنند. دریافت موفق هر بسته خبری که محتوی پیامکی با حجم ۵پیامک بوده و ۴ تا ۶ عنوان خبری را شامل میشود، ۳۵۰ ریال برای مشترک هزینه در بردارد که در صورتحساب ارسالی از سوی اپراتور مربوطه محاسبه و از اعتبار موجود در حساب مشترکین سیمکارت های دائمی کسر میشود. بخشی از این درآمد این سرویس از سوی اپراتور میزبان شما به ایستنا پرداخت میشود. مشترکین در هر لحظه براساس دستورالعمل اعلامی در پایان هر بسته خبری قادر خواهند بود اشتراک خود را در این سرویس لغو کنند. هزینه دریافت هر بسته خبری برای مشترکین صرفا ۳۵۰ ریال خواهد بود و این هزینه برای مشترکین در حال استفاده از خدمات رومینگ بین الملل اپراتورهای همراه اول و ایرانسل هم هزینه اضافه ای در بر نخواهد داشت.