به گزارش پیوست، نورالینک در اقدامی مهم برای اولین بار چیپ مغزی خود را روی یک انسان آزمایش کرد. شرکت تحت مالکیت ایلان ماسک در تلاش است تا با استفاده از چیپهای رابط مغزی، امکان استفاده از کامپیوتر با ذهن را فراهم کرده و راهکاری برای درمان یک سری محدودیتهای ناشی از بیماری مغزی باشد.
این استارتآپ که از سال ۲۰۱۷ فعالیت خود را آغاز کرده با تکیه بر چند دهه پیشبرد فناوری و نصب الکترود در مغز انسان به دنبال ساخت یک رابط کاربری است که به افراد ناتوان اجازه دهد تنها با استفاده از افکار خود گوشی یا کامپیوتر را کنترل کنند. این الکترودها داخل مغز قرار گرفته و میتوانند سیگنالهای مغزی را تفسیر کنند.
اولین مورد استفاده از این نوع فناوری به سال ۲۰۰۴ و ابزاری به نام Utah array بر میگردد و شرکتهای دیگری مثل سینکرون (Synchron) و پرسیشن نوروساینس (Precision Neuroscience) در این حوزه با شرکت ماسک رقابت دارند.
چیپ ساخته نورالینک که ماسک از آن با نام تلهپاتی (Telepathy) در شبکه اجتماعی اکس یاد کرده است بیش از یک هزار الکترود را در خود جای میدهد. این چیپ هرکدام از نورونها را به صورت جداگانه هدف میگیرد و این در حالی است که نمونههای رقیب با تعداد الکترودهای کمتر، تنها سیگنالهای مربوط به گروهی از نورونها را هدف میگیرند.
تلهپاتی که داخل جمجه فرد قرار میگیرد با استفاده از ارتباطات بیسیم دادههای خود را به اپلیکیشین نورالینک منتقل میکند. این اپلیکیشن سپس دادهها را رمزگشایی کرده و خواسته و اقدامات مرتبط را به اجرا میگذارد. این چیپ همچنین به صورت بیسیم شارژ میشود و روبات ویژهای در نورالینک برای نصب آن طراحی شده است.
سازمان غذا و داروی ایالات متحده اولین بار در ماه مه سال گذشته مجوز آزمایش چیپ نورالینک روی انسانها را پس از چند آزمایش موفق روی حیوانات صادر کرد.
باید دید که آیا نورالینک میتواند آنچه مد نظر ماسک و محققان شرکت است را به واقعیت بدل کند. ماسک میگوید این دستگاه اول از همه با هدف کمک به افراد از کار افتاده حرکتی طراحی شده و پس از آن هم به یاری کسانی میرود که در حوزه دیداری و شنیداری با ناتوانیهایی روبرو هستند.
آزمایشهای انسانی معمولا روی ۵ تا ۱۰ بیماری و در حدود یک سال به اجرا گذاشته میشود و سپس فاز عملیاتی آن مورد بررسی قرار میگیرد.
هوش مصنوعی جدید متا عملکرد بهتری در کدنویسی دارد
وبسایت ورج گزارش میدهد که متا مدل مولد کد خود به نام Code Llama 70B را بروزرسانی کرده و حالا «بزرگترین و بهترین مدل» این شرکت فاصله خود را با پیشتاز بازار یا GPT-4 کاهش میدهد.
ابزارهای کدنویسی Llama در ماه آگوست و به صورت رایگان برای استفاده تحقیقاتی و تجاری عرضه شدند و حالا طبق پست وبلاگی متا، Code Llama 70B پرسوجوهای بیشتری را نسبت به نسخههای پیشین پشتیبانی می:ند و توسعه دهندگان میتوانند پرامپتهای بیشتری را حین برنامهنویسی در اختیار آن بگذارند و دقت آن نیز افزایش یافته است.
این مدل زبانی حالا براساس بنچمارک HumanEval به دقت ۵۳ درصدی دست یافته و عملکرد بهترین نسبت به GPT-3.5 (با دقت ۴۸.۱) درصدی دارد اما همچنان از GPT-4، آخرین مدل زبانی اوپنایآی، با دقت ۶۷ درصدی عقب است.
توسعه دهندگان میتوانند با استفاده از مولد کد متا که براساس مدل زبانی Llama 2 ساخته شده با ارائه پرامپها به کدنوسی بپردازند و کدهای نوشتهشده را با استفاده از این ابزار رفع اشکال کنند.
متا پاییز سال گذشته دو ابزار خاص کدنویسی دیگر را در نیز دسته ابزارهای Code Llama منتشر کرد که با نامهای Code Llama-Python و Code Llama- Instruct، هرکدام بر زبانهای کدنوسی خاصی تمرکز دارد.
ابزار جدید این شرکت (Code Llama 70B) از طریق هرسه نسخه مولد کد قابل دسترسی است و همچنان برای استفاده تجاری و تحقیقاتی رایگان است. مدل متا براساس یک ترابایت کد و دادههای مرتبط با کد آموزش دیده است.
ابزار مولد تصویر مایکروسافت پس از تولید تصاویر مستهجن رفع اشکال شد
پس از آنکه تصاویر مستهجن ساخته هوش مصنوعی از تیلور سوئیفت، خواننده و سلبریتی محبوب آمریکایی، در شبکههای اجتماعی و به ویژه اکس (توییتر) وایرال شد، چارچوب و محدودیتهایی که قرار بود از آسیب و سو استفاده جلوگیری کنند زیر سوال رفت. به نظر میرسد شرکت مایکروسافت با وجود اینکه نقش ابزارهای خود در تولید این تصاویر خاص را اثبات شده نمیداند اما برای جلوگیری از روزنههای امنیتی و احتمال سو استفاده به عیبیابی ابزار خود روی آورده است.
گزارشی از وبسایت 404 Media نشان میدهد که چطور کاربران میتوانند از ابزار مولد تصویر Designer AI، متعلق به مایکروسافت، برای ساخت و اشتراکگذاری تصاویر غیراخلاقی استفاده کنند.
مایکروسافت پس از انتشار این گزارش گفت همواره اینگونه مسائل را زیر نظر دارد و با اینکه مطمئن نیست از Designer AI برای تولید تصاویر تیلور سوئیفت اسفتاده شده باشد اما مسئولیت شرکت است تا تمهیداتی را برای محتوای خطرناک در نظر بگیرد. ساتیا نادلا در همین رابطه به NBC گفت «این مسئولیت ما است» که محافظتهای سختتری را برای جلوگیری از تولید اینگونه تصاویر و محتوا در نظر بگیریم.
با وجود اینکه ابزارهای مولد تصویر، از جمله ابزارهای مایکروسافت یک سری پرامپتهای خاص را ممنوع میکنند اما کاربران دریافتند که تنها با تغییر املای نام و بدون استفاده مستقیم از کلمات غیراخلاقی میتوانند محدودیتهای ابزار را دور بزنند، اقدامی که بسیار ساده به نظر میرسد.
حال به گفته نادلا و مایکروسافت، محدودیتهای بیشتری برای تولید محتوا از طریق ابزارهای این شرکت در نظر گرفته است، اما تجربه پیشین نشان داده که ابزارهای هوش مصنوعی عملکردی غیرقابل پیشبینی دارند و کاربران چندین مرتبه توانستهاند از مولد تصویر و یا متن شرکتهای مختلف، از جمله اوپنایآی، برای تولید محتواهایی استفاده کنند که شرکت آنها را ممنوع کرده است. از چنین راهکارهایی معمولا با نام جیل بریک یاد میشود.