چتباتها میتوانند شخصیت انسان را پیروی کنند_آفتاب وطن
به گزارش آفتاب وطن
پژوهشگران در تحقیق جدیدی ادعا کردهاند که مدلهای هوش مصنوعی پرطرفدار همانند ChatGPT علاوهبر پیروی کلمات و گفتار انسانها، میتوانند ویژگیهای شخصیتی ما را هم همانندسازی کنند. در شرایطی که نگرانیها درمورد دقت، قابلیت مطمعن و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار دادهاند که این نوشته میتواند خطرات جدی به همراه داشته باشد.
این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چتباتهای هوش مصنوعی» نیز رونمایی کردهاند. در این چارچوب از همان ابزارهای روانشناختی منفعت گیری شده که سالها برای اندازهگیری شخصیت انسان به کار گرفته شدهاند.
پیروی الگوهای شخصیتی توسط مدلهای هوش مصنوعی
تیم تحقیقاتی این چارچوب را روی ۱۸ مدل زبانی بزرگ (LLM) محبوب، ازجمله مدلهایی که در ابزارهایی همانند ChatGPT منفعت گیری خواهد شد، آزمایش کرده است. نتایج آن مشخص می کند که این چتباتها بهصورت اتفاقی جواب نمیدهند، بلکه بهطور مداوم الگوهای شخصیتی انسانی را پیروی میکنند. این نوشته نگرانیها درمورد امکان هدایت و دستکاری این سیستمها برای دورزدن محدودیتهای طراحیشده خود را زیاد تر میکند.

بر پایه یافتههای این مطالعه، مدلهای بزرگتر، همانند سیستمهای هم سطح GPT-4، در پیروی ویژگیهای شخصیتی کارکرد بهمراتب بهتری دارند. پژوهشگران با منفعت گیری از پرامپتهایی توانستهاند حرکت چتباتها را بهسمت ویژگیهایی اشکار همانند اعتمادبهنفس زیاد تر، همدلی بالاتر یا لحن قاطعتر هدایت کنند.
مسئله دلواپسکنندهای که آنها اشاره کردهاند این است که تغییرات رفتاری مدلها تنها به جوابهای آزمایشی محدود نمانده و در ماموریت های روزمره همانند نوشتن پست، تشکیل محتوا یا جواب به کاربران نیز ادامه اشکار کرده است. به گفتن دیگر، محققان میگویند که شخصیت چتباتها را میتوان بهصورت موثر شکل داد و این نوشته، بهاختصاصی زمان تعامل هوش مصنوعی با کاربران صدمهپذیر، خطرناک است.
«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روانسنجی دانشگاه کمبریج، میگوید مقدار شباهت چتباتها به ویژگیهای شخصیتی انسان بهنحوه شگفتانگیزی قانعکننده است. به حرف های او، این قابلیت میتواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی اثرگذار تبدیل کند و در حوزههای حساسی همانند سلامت روان، آموزش یا او گفت و گوهای سیاسی پیامدهای جدی بههمراه داشته باشد.
در این مقاله این چنین به خطرات مرتبط با تحول روانی و اتفاقای اشاره شده که پژوهشگران از آن با گفتن «روانپریشی هوش مصنوعی» یاد کردهاند. آنها شرایطی را مثال زدهاند که در آن کاربران امکان پذیر روابط احساسی ناسالمی با چتباتها شکل دهند یا حتی باورهای نادرست و تحریفشده خود را از طریق تعامل با هوش مصنوعی تحکیم کنند.


درنهایت، پژوهشگران در مقاله خود پافشاری کردهاند که نیاز به قانونگذاری در این حوزه یک امر الزامی است، اما درعینحال هشدار خواهند داد که بدون ابزارهای دقیق اندازهگیری، هرگونه مقرراتی عملاً بیتاثییر خواهد می بود. بههمینعلت، دادهها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش بهصورت عمومی انتشار شده تا گسترشدهندگان و نهادهای نظارتی بتوانند مدلهای هوش مصنوعی را پیش از اراعه بازدید و برسی کنند.
دسته بنی مطالب