ChatGPT قوانین حریم خصوصی اروپا را نقض میکند
[ad_1]
مقام حفاظت از دادههای ایتالیا اظهار کرده که OpenAI با چتبات هوش مصنوعی ChatGPT خود قوانین حفاظت از دادهها را نقض میکند. رگولاتور ایتالیا که یکی از فعالترین سازمانهای اتحادیه اروپا در عرصه هوش مصنوعی است، در فروردین ماه دسترسی به ChatGPT را به علت نقض قوانین حریم خصوصی اتحادیه اروپا برای زمان کوتاهی ممنوع کرد. این سازمان اکنون طی بیانیهای اظهار کرده که تحقیقات آنها یک یا چند مورد نقض احتمالی حریم خصوصی دادهها را در ابزارهای OpenAI مشخص می کند.
بر پایه گزارش TechCrunch، بعد از بازدید چندماهه چتبات هوش مصنوعی ChatGPT توسط مقام حفاظت از دادههای ایتالیا، به OpenAI حرف های شده است که مظنون به نقض قوانین حریم خصوصی اتحادیه اروپا است. اکنون به این شرکت ۳۰ روز مهلت داده شده است تا به این اتهامات جواب دهد. ایتالیا اولین سرزمین اروپای غربی می بود که ChatGPT را محدود کرد؛ گسترش سریع این هوش مصنوعی دقت قانونگذاران و رگولاتورهای گوناگون را به خود جلب کرده است.
رگولاتوری ایتالیا و نقض قوانین حریم خصوصی توسط OpenAI
بر پایه مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) که در سال ۲۰۱۸ معارفه شد، هر شرکتی که این قوانین را نقض کند تا ۴ درصد از گردش مالی جهانی خود را جریمه میبشود. در دسامبر ۲۰۲۳ (آذرماه) نیز قانونگذاران اتحادیه اروپا با مطرح اولیه قوانین سیستمهای هوش مصنوعی همانند ChatGPT موافقت کردند و یک قدم به تنظیم قوانین حاکم بر این فناوری نزدیکتر شدند.
در فروردینماه رگولاتوری ایتالیا اتهامات بسیاری به OpenAI داخل کرد؛ به حرف های رگولاتوری، این شرکت از دادههای شخصی برای آموزش الگوریتمهای مدل ChatGPT منفعت گیری میکند. این چنین این چتبات اطلاعات غلط تعداد بسیاری دارد که برای افراد کمسنوسال مناسب نیست.
بهرغم شناسایی این لیست از تخلفات مشکوک، OpenAI در آن زمان توانست ChatGPT را مجدد در ایتالیا راهاندازی کند. اکنون مقامات ایتالیایی تا این مدت نگفتهاند که کدام یک از موارد این لیست، در این بازدیدهای تازه قبول شده است؛ بااینحال پردازش دادههای شخصی برای آموزش مدلهای هوش مصنوعی، میتواند یک تهمت اساسی باشد.
[ad_2]
منبع