ChatGPT قوانین حریم خصوصی اروپا را نقض می‌کند

ChatGPT قوانین حریم خصوصی اروپا را نقض می‌کند.webp

[ad_1]

مقام حفاظت از داده‌های ایتالیا اظهار کرده که OpenAI با چت‌بات هوش مصنوعی ChatGPT خود قوانین حفاظت از داده‌ها را نقض می‌کند. رگولاتور ایتالیا که یکی از فعال‌ترین سازمان‌های اتحادیه اروپا در عرصه هوش مصنوعی است، در فروردین ماه دسترسی به ChatGPT را به علت نقض قوانین حریم خصوصی اتحادیه اروپا برای زمان کوتاهی ممنوع کرد. این سازمان اکنون طی بیانیه‌ای اظهار کرده که تحقیقات آن‌ها یک یا چند مورد نقض احتمالی حریم خصوصی داده‌ها را در ابزارهای OpenAI مشخص می کند.

بر پایه گزارش TechCrunch، بعد از بازدید چندماهه چت‌بات هوش مصنوعی ChatGPT توسط مقام حفاظت از داده‌های ایتالیا، به OpenAI حرف های شده است که مظنون به نقض قوانین حریم خصوصی اتحادیه اروپا است. اکنون به این شرکت ۳۰ روز مهلت داده شده است تا به این اتهامات جواب دهد. ایتالیا اولین سرزمین اروپای غربی می بود که ChatGPT را محدود کرد؛ گسترش سریع این هوش مصنوعی دقت قانون‌گذاران و رگولاتورهای گوناگون را به خود جلب کرده است.

رگولاتوری ایتالیا و نقض قوانین حریم خصوصی توسط OpenAI

بر پایه مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) که در سال ۲۰۱۸ معارفه شد، هر شرکتی که این قوانین را نقض کند تا ۴ درصد از گردش مالی جهانی خود را جریمه می‌بشود. در دسامبر ۲۰۲۳ (آذرماه) نیز قانون‌گذاران اتحادیه اروپا با مطرح اولیه قوانین سیستم‌های هوش مصنوعی همانند ChatGPT موافقت کردند و یک قدم به تنظیم قوانین حاکم بر این فناوری نزدیک‌تر شدند.

در فروردین‌ماه رگولاتوری ایتالیا اتهامات بسیاری به OpenAI داخل کرد؛ به حرف های رگولاتوری، این شرکت از داده‌های شخصی برای آموزش الگوریتم‌های مدل ChatGPT منفعت گیری می‌کند. این چنین این چت‌بات اطلاعات غلط تعداد بسیاری دارد که برای افراد کم‌سن‌وسال مناسب نیست.

به‌رغم شناسایی این لیست از تخلفات مشکوک، OpenAI در آن زمان توانست ChatGPT را مجدد در ایتالیا راه‌اندازی کند. اکنون مقامات ایتالیایی تا این مدت نگفته‌اند که کدام یک از موارد این لیست، در این بازدید‌های تازه قبول شده است؛ بااین‌حال پردازش داده‌های شخصی برای آموزش مدل‌های هوش مصنوعی، می‌تواند یک تهمت اساسی باشد.

[ad_2]

منبع