رگولاتوری ایتالیا هشدار داد: OpenAI با ChatGPT قوانین حریم خصوصی اروپا را نقض میکند
مقام حفاظت از دادههای ایتالیا اعلام کرده که OpenAI با چتبات هوش مصنوعی ChatGPT خود قوانین حفاظت از دادهها را نقض میکند.
رگولاتور ایتالیا که یکی از فعالترین سازمانهای اتحادیه اروپا در زمینه هوش مصنوعی است، در فروردین ماه دسترسی به ChatGPT را به دلیل نقض قوانین حریم خصوصی اتحادیه اروپا برای مدت کوتاهی ممنوع کرد. این سازمان اکنون طی بیانیهای اعلام کرده که تحقیقات آنها یک یا چند مورد نقض احتمالی حریم خصوصی دادهها را در ابزارهای OpenAI نشان میدهد.
براساس گزارش TechCrunch، پس از بررسی چندماهه چتبات هوش مصنوعی ChatGPT توسط مقام حفاظت از دادههای ایتالیا، به OpenAI گفته شده است که مظنون به نقض قوانین حریم خصوصی اتحادیه اروپا است. حالا به این شرکت 30 روز مهلت داده شده است تا به این اتهامات پاسخ دهد. ایتالیا اولین کشور اروپای غربی بود که ChatGPT را محدود کرد؛ توسعه سریع این هوش مصنوعی توجه قانونگذاران و رگولاتورهای مختلف را به خود جلب کرده است.
رگولاتوری ایتالیا و نقض قوانین حریم خصوصی توسط OpenAI
براساس مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) که در سال 2018 معرفی شد، هر شرکتی که این قوانین را نقض کند تا 4 درصد از گردش مالی جهانی خود را جریمه میشود. در دسامبر 2023 (آذرماه) نیز قانونگذاران اتحادیه اروپا با طرح اولیه قوانین سیستمهای هوش مصنوعی مانند ChatGPT موافقت کردند و یک گام به تنظیم قوانین حاکم بر این فناوری نزدیکتر شدند.
در فروردینماه رگولاتوری ایتالیا اتهامات زیادی به OpenAI وارد کرد؛ به گفته رگولاتوری، این شرکت از دادههای شخصی برای آموزش الگوریتمهای مدل ChatGPT استفاده میکند. همچنین این چتبات اطلاعات غلط بسیاری دارد که برای افراد کمسنوسال مناسب نیست.
بهرغم شناسایی این لیست از تخلفات مشکوک، OpenAI در آن زمان توانست ChatGPT را دوباره در ایتالیا راهاندازی کند. اکنون مقامات ایتالیایی هنوز نگفتهاند که کدام یک از موارد این لیست، در این بررسیهای جدید تأیید شده است؛ بااینحال پردازش دادههای شخصی برای آموزش مدلهای هوش مصنوعی، میتواند یک اتهام اساسی باشد.