فناوری اطلاعات

چت‌جی‌پی‌تی دچار اضطراب شده است!

چت‌جی‌پی‌تی دچار اضطراب شده است!

یک پژوهش جدید نشان داده است که «چت‌جی‌پی‌تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند.

به گزارش سیلاد و به نقل از ایسنا، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند.

پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند – دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند – در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.

«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ – هرچند نه به‌ جای آنها – جمع‌آوری کنند.

بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا