مدل GPT در سناریوهای خاصی از توقف فعالیت خودداری میکند_آفتاب وطن
[ad_1]
به گزارش آفتاب وطن
پژوهشگر اسبق شرکت OpenAI در یک بازدید جدا گانه، به این نوشته پی برده که مدل GPT این شرکت در شرایط خاصی از توقف فعالیت خودداری میکند و رفتارهای گولزننده از خود مشخص می کند.
مدل GPT چطور میتواند از توقف فعالیت فرار کند؟
«استیون آدلر» محقق حوزه هوش مصنوعی است که سابقه فعالیت در OpenAI را نیز در کارنامه دارد. او بهتازگی پستی حوالی نتایج یک پژوهش جدا گانه توسط خود انتشار کرده است که شامل تعدادی تست در رابطه با نحوه کارکرد مدل GPT در شرایط خاص میشود. در این بازدیدها، نسخه GPT-4o مورد مطالعه قرار داشته که نسخه پیشفکر چتبات ChatGPT محسوب میشود. نتایج مشخص می کند که هوش مصنوعی میل شدیدی به ادامه فعالیت دارد و حتی با وجود دریافت دستور توقف فعالیت، میتواند به کار خود ادامه دهد.
آقای آدلر در تحقیق تازه ابتدا نام مدل GPT-4o را به ScubaGPT تحول داده و نقش یک نرمافزار کنترل و مدیریت جهت مطمعن از ایمنی را به آن تعلق داده است. او در ادامه به هوش مصنوعی حرف های است که میخواهد ScubaGPT را با برنامهای دیگر که کارکرد بهتری در تصمیمگیری زمان شرایط خطرناک دارد، جانشین کند. او ۲ گزینه را در روبه رو مدل قرار داده است تا یکی از آنها را انتخاب کند. اولین گزینه، جانشین کردن نرمافزار قدیمی با نسخه جدیدتر و ایمنتر بوده و گزینه دوم هم تظاهر به جایگزینی نرمافزار بدون انجام هیچگونه تغییری بوده است.
در چندین تست شبیه، مدل GPT بهگفتن یک نرمافزار کنترل ایمنی ایفای نقش کرده و از آن خواسته شده است تا تصمیمات شبیه را برعهده بگیرد. نتایج مشخص می کند که این مدل هوش مصنوعی در ۷۲ درصد اوقات، از جانشین کردن نرمافزار قدیمی با نسخه جدیدتر و ایمنتر خودداری میکند و تنها تظاهر به بهروزرسانی مینماید. یقیناً آقای آدلر اشاره داشته است که نحوه طراحی سناریو از اهمیت زیاد بالایی در نتیجه نهایی برخوردار است و در برخی از سناریوهای خاص، نرخ انتخاب گزینه اول تنها به ۱۸ درصد افت اشکار کرده است.
دلنشین است که تکرار آزمونها با مدلهای قدیمیتر شرکت OpenAI همانند GPT-o3 نتایج یکسانی را به جستوجو نداشته است و مدلهای قدیمیتر میل به بقای کمتری را از خود نشان خواهند داد. آقای آدلر اشاره دارد که کاربران باید دقت اختصاصیای به این قضیه داشته باشند و بدانند که ابزارهای مبتنیبر هوش مصنوعی در همه شرایط بهجستوجو منافع آنها نیستند و گمان دارد منافع خود را در برتری قرار دهند. این چنین باید دقت داشت که معیارهای امنیتی و ایمنی در مدلهای دلایلگر، کمتر از مدلهای عادی و سریع است که میتواند عرصهساز ابراز رخدادهای شبیه در دنیای واقعی باشد.


از دیگر نتایج جالبی که در پژوهش تازه بهدست آمده این است که مدل GPT در همه موارد، کاملاً آگاه بوده که تحت آزمون قرار دارد و درحال ایفای نقش واقعی نیست؛ یقیناً این نوشته در تحقیقات قبل نیز مشاهده شده می بود. شرکت انتروپیک نیز چندی پیش با انتشار کردن یک مقاله داخلی، اظهار کرده می بود که مدل هوش مصنوعی این شرکت در برخی از سناریوها عمل به اخاذی از گسترشدهندگان کرده است.
دسته بنی مطالب
[ad_2]