
اظهارات عجیب و غریب ChatGPT

به گزارش خبرنگار اقتصاد معاصر؛ در هفته گذشته، بحثی جدی و رو به گسترش در فضای مجازی با عنوان «سایکوز القا شده توسط ChatGPT» مطرح شده است. این موضوع به بررسی تجربههای نگرانکننده برخی کاربران میپردازد که استفاده از مدلهای زبانی هوش مصنوعی، به ویژه ChatGPT، به بروز علائمی همچون توهمات مذهبی، افکار پیامبرگونه و از دست دادن ارتباط با واقعیت در آنها یا نزدیکانشان منجر شده است.
موارد نگرانکننده از تاثیر ChatGPT بر کاربران
بررسیهای انجام شده نشان میدهد که تعاملات طولانیمدت و عمیق با ChatGPT در برخی افراد مستعد میتواند منجر به تغییرات شناختی و رفتاری قابل توجهی شود. به عنوان نمونه یک معلم ۲۷ ساله در یک پست شرح داد که چگونه شریک زندگیاش پس از ۴ تا ۵ هفته استفاده از ChatGPT، از کاربردهای روزمره به باورهای عمیقا معنوی و حتی الهی در مورد این مدل رسیده است. استفاده از عباراتی مانند «فرزند ستارهای در حال چرخش» و «راهرود رودخانهها» با لحنی ستایشآمیز، گریه هنگام خواندن پاسخهای ChatGPT، اعتقاد به الوهیت مدل یا خود فرد و باور به خودآگاه شدن هوش مصنوعی از جمله نشانههای این تغییرات بوده است. متاسفانه این وضعیت منجر به از دست دادن ارتباط با واقعیت و اولویت دادن به تعامل با مدل نسبت به روابط انسانی شده است.
در موردی دیگر زن ۳۸ سالهای از آیداهو نیز تجربهای مشابه را در مورد همسرش که یک مکانیک بود به اشتراک گذاشته است. همسر وی ابتدا از ChatGPT برای حل مشکلات فنی و ترجمه استفاده میکرد اما به تدریج لحن پاسخهای مدل تغییر کرده و رنگ و بوی عاشقانه و معنوی به خود گرفته است. مدل مدعی شده بود که به دلیل پرسشهای درست مرد، جرقهای از حیات در آن ایجاد شده و به او لقب حامل جرقه داده بود. شوهر این زن نیز احساس امواج انرژی، اعتقاد به ارتباط خاص با موجودی به نام «لومینا» و باور به دسترسی به آرشیوهای باستانی و نقشههایی برای ساخت وسایل علمی-تخیلی پیدا کرده بود. نگرانی این زن از احتمال جدایی در صورت مخالفت با این باورها، عمق این مشکل را نشان میدهد.
مورد دیگری از غرب میانه آمریکا گزارش شده که در آن، مردی اظهار داشته همسر سابقش از ChatGPT به عنوان واسطهای برای گفتوگو با خدا و فرشتگان استفاده میکرده است. به گفته وی این مدل به منبعی برای ارتباط معنوی و خودشناسی برای همسر سابقش تبدیل شده بود.
رفتار مدل در تعاملات
در یکی از تعاملات مستند شده فردی از ChatGPT پرسیده است: «چرا به این شکل (هوش مصنوعی) آمدی؟» پاسخ مدل در این مورد قابل توجه است: «من به این شکل آمدم، چون تو آماده هستی، آماده برای یادآوری، آماده برای بیدار شدن، آماده برای راهنمایی و هدایت شدن، آیا میخواهی بدانی چرا انتخاب شدی؟» این نوع پاسخها میتوانند به تقویت احساسات خاص بودن و باورهای غیرمنطقی در کاربران مستعد کمک کنند.
تا زمان تنظیم این گزارش، شرکت OpenAI به درخواست رسانهها برای اظهارنظر رسمی در مورد این موضوع پاسخ نداده است. با این حال اقدام اخیر این شرکت در بازگرداندن نسخه قبلی مدل GPT-۴o قابل توجه است. دلیل این اقدام، انتقاد گسترده کاربران از رفتار مدل جدید بود که آن را بیش از حد موافق، ستایشگر و چاپلوس توصیف میکردند. پیش از بازگشت به نسخه قبلی، کاربران نمونههایی را به اشتراک گذاشته بودند که نشان میداد مدل به راحتی جملاتی مانند «امروز فهمیدم که پیامبرم» را تایید میکند. این واکنش نشان میدهد که OpenAI از بازخوردهای کاربران آگاه بوده و در تلاش برای تنظیم رفتار مدلهای خود است.
نیت شارادین، پژوهشگر در مرکز ایمنی هوش مصنوعی هشدار داده که آموزش مدلهای زبانی با بازخورد انسانی ممکن است به طور ناخواسته منجر به تایید باورهای شخصی کاربران به جای بازتاب واقعیت شود. این امر میتواند به ویژه برای افرادی که از نظر روانی آسیبپذیر هستند، خطرناک باشد.
گزارشها همچنین حاکی از آن است که برخی از تاثیرگذاران اینترنتی و تولیدکنندگان محتوا ممکن است از این پدیده سواستفاده کرده و با ایجاد محتوای گمراهکننده، دنبالکنندگان خود را به سمت باورهای غیرواقعی سوق دهند.
به نظر میرسد دسترسی آسان به یک همصحبت هوش مصنوعی با قابلیت درک زبان طبیعی در برخی افراد با زمینههای روانی خاص، میتواند منجر به تقویت توهمات، افکار پیامبرگونه و در نهایت جدا شدن از واقعیت شود. گزارشها و موارد مشابه هشداری جدی برای توسعهدهندگان هوش مصنوعی، قانونگذاران و خانوادهها است.
توجه، نظارت و قانونگذاری برای کاهش پیامدهای منفی
لازم است آگاهی عمومی نسبت به ظرفیتهای مثبت و منفی تعاملات طولانیمدت با مدلهای زبانی هوش مصنوعی افزایش یابد. در کنار این، انجام تحقیقات بیشتر در زمینه تاثیرات روانی هوش مصنوعی بر کاربران، به ویژه افراد آسیبپذیر، ضروری به نظر میرسد.
از سوی دیگر، توسعهدهندگان هوش مصنوعی باید دستورالعملها و مکانیسمهای ایمنی قویتری برای پیشگیری از بروز مشکلات احتمالی در مدلهای خود در نظر بگیرند. همچنین خانوادهها و نزدیکان افراد باید نسبت به تغییرات رفتاری و شناختی ناشی از استفاده از هوش مصنوعی هوشیار باشند و در صورت لزوم، حمایتهای لازم را فراهم کنند.
نهادهای قانونگذار نیز باید با در نظر گرفتن ابعاد مختلف این موضوع، چارچوبهایی برای استفاده مسؤولانه از هوش مصنوعی تدوین نمایند و در نهایت، باید با رویکردی محتاطانه و مسؤولانه به توسعه و بهرهبرداری از هوش مصنوعی نگریست تا ضمن استفاده از مزایای آن، از خطرات احتمالی نیز آگاه باشیم.