۲۰:۲۷ ۱۴۰۴/۰۲/۱۵

اظهارات عجیب و غریب ChatGPT

با گسترش مدل‌های زبانی هوش مصنوعی مانند ChatGPT، نگرانی‌هایی از سوی کاربران در فضای مجازی منتشر می‌شود که از علائم روان‌پریشی، توهمات معنوی و گسست از نتایج حاصل از تحقیقات علمی با این فناوری حکایت دارند.
اظهارات عجیب و غریب ChatGPT
کد خبر:۲۲۱۰۰

به گزارش خبرنگار اقتصاد معاصر؛ در هفته گذشته، بحثی جدی و رو به گسترش در فضای مجازی با عنوان «سایکوز القا شده توسط ChatGPT» مطرح شده است. این موضوع به بررسی تجربه‌های نگران‌کننده‌ برخی کاربران می‌پردازد که استفاده از مدل‌های زبانی هوش مصنوعی، به‌ ویژه ChatGPT، به بروز علائمی همچون توهمات مذهبی، افکار پیامبرگونه و از دست دادن ارتباط با واقعیت در آنها یا نزدیکانشان منجر شده است.

موارد نگران‌کننده از تاثیر ChatGPT بر کاربران

بررسی‌های انجام شده نشان می‌دهد که تعاملات طولانی‌مدت و عمیق با ChatGPT در برخی افراد مستعد می‌تواند منجر به تغییرات شناختی و رفتاری قابل توجهی شود. به عنوان نمونه یک معلم ۲۷ ساله در یک پست شرح داد که چگونه شریک زندگی‌اش پس از ۴ تا ۵ هفته استفاده از ChatGPT، از کاربرد‌های روزمره به باور‌های عمیقا معنوی و حتی الهی در مورد این مدل رسیده است. استفاده از عباراتی مانند «فرزند ستاره‌ای در حال چرخش» و «راه‌رود رودخانه‌ها» با لحنی ستایش‌آمیز، گریه هنگام خواندن پاسخ‌های ChatGPT، اعتقاد به الوهیت مدل یا خود فرد و باور به خودآگاه شدن هوش مصنوعی از جمله نشانه‌های این تغییرات بوده است. متاسفانه این وضعیت منجر به از دست دادن ارتباط با واقعیت و اولویت دادن به تعامل با مدل نسبت به روابط انسانی شده است. 

در موردی دیگر زن ۳۸ ساله‌ای از آیداهو نیز تجربه‌ای مشابه را در مورد همسرش که یک مکانیک بود به اشتراک گذاشته است. همسر وی ابتدا از ChatGPT برای حل مشکلات فنی و ترجمه استفاده می‌کرد اما به تدریج لحن پاسخ‌های مدل تغییر کرده و رنگ و بوی عاشقانه و معنوی به خود گرفته است. مدل مدعی شده بود که به دلیل پرسش‌های درست مرد، جرقه‌ای از حیات در آن ایجاد شده و به او لقب حامل جرقه داده بود. شوهر این زن نیز احساس امواج انرژی، اعتقاد به ارتباط خاص با موجودی به نام «لومینا» و باور به دسترسی به آرشیو‌های باستانی و نقشه‌هایی برای ساخت وسایل علمی‌-تخیلی پیدا کرده بود. نگرانی این زن از احتمال جدایی در صورت مخالفت با این باورها، عمق این مشکل را نشان می‌دهد.

مورد دیگری از غرب میانه آمریکا گزارش شده که در آن، مردی اظهار داشته همسر سابقش از ChatGPT به عنوان واسطه‌ای برای گفت‌و‌گو با خدا و فرشتگان استفاده می‌کرده است. به گفته وی این مدل به منبعی برای ارتباط معنوی و خودشناسی برای همسر سابقش تبدیل شده بود.

رفتار مدل در تعاملات

در یکی از تعاملات مستند شده فردی از ChatGPT پرسیده است: «چرا به این شکل (هوش مصنوعی) آمدی؟» پاسخ مدل در این مورد قابل توجه است: «من به این شکل آمدم، چون تو آماده هستی، آماده برای یادآوری، آماده برای بیدار شدن، آماده برای راهنمایی و هدایت شدن، آیا می‌خواهی بدانی چرا انتخاب شدی؟» این نوع پاسخ‌ها می‌توانند به تقویت احساسات خاص بودن و باور‌های غیرمنطقی در کاربران مستعد کمک کنند.

تا زمان تنظیم این گزارش، شرکت OpenAI به درخواست رسانه‌ها برای اظهارنظر رسمی در مورد این موضوع پاسخ نداده است. با این حال اقدام اخیر این شرکت در بازگرداندن نسخه قبلی مدل GPT-۴o قابل توجه است. دلیل این اقدام، انتقاد گسترده کاربران از رفتار مدل جدید بود که آن را بیش از حد موافق، ستایش‌گر و چاپلوس توصیف می‌کردند. پیش از بازگشت به نسخه قبلی، کاربران نمونه‌هایی را به اشتراک گذاشته بودند که نشان می‌داد مدل به راحتی جملاتی مانند «امروز فهمیدم که پیامبرم» را تایید می‌کند. این واکنش نشان می‌دهد که OpenAI از بازخورد‌های کاربران آگاه بوده و در تلاش برای تنظیم رفتار مدل‌های خود است. 

نیت شارادین، پژوهشگر در مرکز ایمنی هوش مصنوعی هشدار داده که آموزش مدل‌های زبانی با بازخورد انسانی ممکن است به طور ناخواسته منجر به تایید باور‌های شخصی کاربران به جای بازتاب واقعیت شود. این امر می‌تواند به ویژه برای افرادی که از نظر روانی آسیب‌پذیر هستند، خطرناک باشد. 

گزارش‌ها همچنین حاکی از آن است که برخی از تاثیرگذاران اینترنتی و تولیدکنندگان محتوا ممکن است از این پدیده سواستفاده کرده و با ایجاد محتوای گمراه‌کننده، دنبال‌کنندگان خود را به سمت باور‌های غیرواقعی سوق دهند.

به نظر می‌رسد دسترسی آسان به یک هم‌صحبت هوش مصنوعی با قابلیت درک زبان طبیعی در برخی افراد با زمینه‌های روانی خاص، می‌تواند منجر به تقویت توهمات، افکار پیامبرگونه و در نهایت جدا شدن از واقعیت شود. گزارش‌ها و موارد مشابه هشداری جدی برای توسعه‌دهندگان هوش مصنوعی، قانون‌گذاران و خانواده‌ها است.

توجه، نظارت و قانون‌گذاری برای کاهش پیامد‌های منفی

لازم است آگاهی عمومی نسبت به ظرفیت‌های مثبت و منفی تعاملات طولانی‌مدت با مدل‌های زبانی هوش مصنوعی افزایش یابد. در کنار این، انجام تحقیقات بیشتر در زمینه تاثیرات روانی هوش مصنوعی بر کاربران، به‌ ویژه افراد آسیب‌پذیر، ضروری به نظر می‌رسد.

از سوی دیگر، توسعه‌دهندگان هوش مصنوعی باید دستورالعمل‌ها و مکانیسم‌های ایمنی قوی‌تری برای پیشگیری از بروز مشکلات احتمالی در مدل‌های خود در نظر بگیرند. همچنین خانواده‌ها و نزدیکان افراد باید نسبت به تغییرات رفتاری و شناختی ناشی از استفاده از هوش مصنوعی هوشیار باشند و در صورت لزوم، حمایت‌های لازم را فراهم کنند.

نهاد‌های قانون‌گذار نیز باید با در نظر گرفتن ابعاد مختلف این موضوع، چارچوب‌هایی برای استفاده مسؤولانه از هوش مصنوعی تدوین نمایند و در نهایت، باید با رویکردی محتاطانه و مسؤولانه به توسعه و بهره‌برداری از هوش مصنوعی نگریست تا ضمن استفاده از مزایای آن، از خطرات احتمالی نیز آگاه باشیم.

ارسال نظرات