چت‌بات‌ها می‌توانند شخصیت انسان را پیروی کنند_آفتاب وطن

چت‌بات‌ها می‌توانند شخصیت انسان را پیروی کنند آفتاب وطن.webp


به گزارش آفتاب وطن

پژوهشگران در تحقیق جدیدی ادعا کرده‌اند که مدل‌های هوش مصنوعی پرطرفدار همانند ChatGPT علاوه‌بر پیروی کلمات و گفتار انسان‌ها، می‌توانند ویژگی‌های شخصیتی ما را هم همانند‌سازی کنند. در شرایطی که نگرانی‌ها درمورد دقت، قابلیت مطمعن و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار داده‌اند که این نوشته می‌تواند خطرات جدی به همراه داشته باشد.

این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چت‌بات‌های هوش مصنوعی» نیز رونمایی کرده‌اند. در این چارچوب از همان ابزارهای روان‌شناختی منفعت گیری شده که سال‌ها برای اندازه‌گیری شخصیت انسان به کار گرفته شده‌اند.

پیروی الگوهای شخصیتی توسط مدل‌های هوش مصنوعی

تیم تحقیقاتی این چارچوب را روی ۱۸ مدل زبانی بزرگ (LLM) محبوب، ازجمله مدل‌هایی که در ابزارهایی همانند ChatGPT منفعت گیری خواهد شد، آزمایش کرده است. نتایج آن مشخص می کند که این چت‌بات‌ها به‌صورت اتفاقی جواب نمی‌دهند، بلکه به‌طور مداوم الگوهای شخصیتی انسانی را پیروی می‌کنند. این نوشته نگرانی‌ها درمورد امکان هدایت و دستکاری این سیستم‌ها برای دورزدن محدودیت‌های طراحی‌شده خود را زیاد تر می‌کند.

هوش مصنوعی GPT-4

بر پایه یافته‌های این مطالعه، مدل‌های بزرگ‌تر، همانند سیستم‌های هم سطح GPT-4، در پیروی ویژگی‌های شخصیتی کارکرد به‌مراتب بهتری دارند. پژوهشگران با منفعت گیری از پرامپت‌هایی توانسته‌اند حرکت چت‌بات‌ها را به‌سمت ویژگی‌هایی اشکار همانند اعتمادبه‌نفس زیاد تر، همدلی بالاتر یا لحن قاطع‌تر هدایت کنند.

مسئله دلواپس‌کننده‌ای که آنها اشاره کرده‌اند این است که تغییرات رفتاری مدل‌ها تنها به جواب‌های آزمایشی محدود نمانده و در ماموریت های روزمره همانند نوشتن پست، تشکیل محتوا یا جواب به کاربران نیز ادامه اشکار کرده است. به گفتن دیگر، محققان می‌گویند که شخصیت چت‌بات‌ها را می‌توان به‌صورت موثر شکل داد و این نوشته، به‌اختصاصی زمان تعامل هوش مصنوعی با کاربران صدمه‌پذیر، خطرناک است.

«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روان‌سنجی دانشگاه کمبریج، می‌گوید مقدار شباهت چت‌بات‌ها به ویژگی‌های شخصیتی انسان به‌نحوه شگفت‌انگیزی قانع‌کننده است. به حرف های او، این قابلیت می‌تواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی اثرگذار تبدیل کند و در حوزه‌های حساسی همانند سلامت روان، آموزش یا او گفت و گو‌های سیاسی پیامدهای جدی به‌همراه داشته باشد.

در این مقاله این چنین به خطرات مرتبط با تحول روانی و اتفاق‌ای اشاره شده که پژوهشگران از آن با گفتن «روان‌پریشی هوش مصنوعی» یاد کرده‌اند. آنها شرایطی را مثال زده‌اند که در آن کاربران امکان پذیر روابط احساسی ناسالمی با چت‌بات‌ها شکل دهند یا حتی باورهای نادرست و تحریف‌شده خود را از طریق تعامل با هوش مصنوعی تحکیم کنند.

کار با ChatGPTکار با ChatGPT

درنهایت، پژوهشگران در مقاله خود پافشاری کرده‌اند که نیاز به قانون‌گذاری در این حوزه یک امر الزامی است، اما درعین‌حال هشدار خواهند داد که بدون ابزارهای دقیق اندازه‌گیری، هرگونه مقرراتی عملاً بی‌تاثییر خواهد می بود. به‌همین‌علت، داده‌ها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش به‌صورت عمومی انتشار شده تا گسترش‌دهندگان و نهادهای نظارتی بتوانند مدل‌های هوش مصنوعی را پیش از اراعه بازدید و برسی کنند.

دسته بنی مطالب

خبرهای ورزشی

اخبار پزشکی

اخبار اجتماعی

اخبار فرهنگی

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزش، حوادث، فرهنگ و گردشگری را در آفتاب وطن بخوانید.

کسب وکار

اخبار فناوری