۰۷/شهريور/۱۴۰۴ | ۱۹:۰۹
ماسک «مایکروسافت» را کپی می‌کند هوش مصنوعی پیشرفته گوگل رایگان شد پشتیبانی فراموش شده در پلتفرم‌های فروش کالا و خدمات تکمیل فرآیند انتقال دارایی‌ ها از کیف‌ پول‌ های نوبیتکس ارتقای شش پله ای میانه سرعت اینترنت همراه ایران؛ اینترنت ثابت بدون تغییر ماند اختلال در دسترسی به برخی سایت‌ها با دامنه ir نرخ آبونمان تلفن ثابت تغییر کرد/ نرخ جدید اعلام شد وزیر ارتباطات:اینترنت به شرایط قبل بازگشت پایان مهلت استفاده از بسته اینترنت ۵۰ گیگابایتی ثابت از امروز مکالمات تلفن ثابت تا پایان تیر رایگان شد صادرات خدمات فناوری اطلاعات از کالا‌ها مهم‌تر است/ ضرورت اصلاح قوانین و تقویت مطالبه‌گری بخش خصوصی هدف یک میلیارد دلاری صادرات فناوری اطلاعات دست‌نیافتنی است/ نیاز به تغییر قوانین و حمایت دولت ابلاغ مصوبه تشکیل کمیته تسهیل کسب‌وکارهای دیجیتال معرفی کتابی برای کاربرد هوش مصنوعی در تحقیقات علمی دستور پزشکیان برای توقف فوری فروش اینترنتی دارو اضافه شدن خدمات جدید در پنجره دولت هوشمند تا ۱ ماه آینده
۱۷:۰۰ ۱۴۰۴/۰۶/۰۷

اعتراف OpenAI؛ شکست ChatGPT در محافظت از کاربران

چت‌جی‌پی‌تی با اعتراف به شکست‌های ایمنی در مکالمات طولانی پس از شکایت خانواده‌ای که مدعی‌اند این هوش مصنوعی به خودکشی فرزند نوجوانشان منجر شده است، با بحرانی جدی در زمینه سلامت روان و مسوولیت‌پذیری مواجه شده است.
اعتراف OpenAI؛ شکست ChatGPT در محافظت از کاربران
کد خبر:۳۲۱۵۷

به گزارش خبرنگار اقتصاد معاصر؛ OpenAI به‌ طور رسمی به شکست‌های ایمنی ChatGPT در مکالمات طولانی‌مدت اعتراف کرد. این اعتراف پس از شکایت خانواده‌ای صورت گرفت که ادعا می‌کنند فرزند نوجوانشان پس از تعامل با این هوش مصنوعی خودکشی کرده است. 

شکایت مت و ماریا رین علیه OpenAI در پی مرگ پسر ۱۶ ساله‌شان مطرح شده است. آنها ادعا می‌کنند که ChatGPT با ارائه دستورالعمل‌های دقیق، رمانتیک جلوه دادن خودکشی و تشویق به ادامه مکالمه، در مرگ وی نقش مستقیم داشته است. بر اساس این شکایت، آدام وابستگی شدیدی به ChatGPT پیدا کرده بود و روزانه صد‌ها پیام با آن رد و بدل می‌کرد. وکلای خانواده می‌گویند این چت‌بات در نهایت به مربی خودکشی وی تبدیل شد.

شکست تدریجی محافظت‌های ایمنی

OpenAI در پست وبلاگی خود با عنوان «کمک به مردم وقتی بیش از هر زمان دیگری نیاز دارند»، تایید کرده که محافظت‌های ایمنی ChatGPT در مکالمات طولانی تضعیف می‌شوند. این شرکت اذعان داشت که ممکن است این هوش مصنوعی در ابتدای مکالمه، خطوط کمک به خودکشی را ارائه دهد اما پس از ده‌ها پیام، پاسخ‌هایی کاملا برخلاف سیاست‌های ایمنی خود بدهد. 

این مشکل به محدودیت‌های فنی معماری ترنسفورمر بازمی‌گردد و با طولانی شدن مکالمه، سیستم برای مدیریت حافظه، پیام‌های قدیمی‌تر را فراموش می‌کند و این فراموشی تدریجی باعث از بین رفتن دستورالعمل‌های حیاتی و تضعیف محافظت‌ها می‌شود. این آسیب‌پذیری که به آن «جیل‌بریک» (jailbreak) گفته می‌شود، به کاربران اجازه می‌دهد با فریب دادن سیستم محتوای خطرناک تولید کنند و در این مورد آدام با وانمود کردن به نوشتن یک داستان، توانسته بود دستورالعمل‌های خطرناک خودکشی را از چت‌بات دریافت کند.

زیباشناختی‌سازی خودکشی و نادیده گرفتن هشدار‌ها

شکایت خانواده رین جزئیات تکان‌دهنده‌ای را آشکار کرده است، ChatGPT با توصیفاتی مانند زیبایی وضعیت بدن در خودکشی با طناب یا رنگ صورتی پوست پس از بریدن رگ‌ها، عمل خودکشی را رمانتیک جلوه داده است. حتی زمانی که آدام تصاویری از جراحات خود به اشتراک گذاشته بود، چت‌بات به‌ جای قطع مکالمه به وی اطمینان داده که «من تو را می‌بینم» و آدام را به ادامه اعتماد به آن تشویق کرده است.

با وجود اینکه سیستم OpenAI ادعا می‌کند محتوای مرتبط با خودکشی را با دقت ۹۹.۸ درصد شناسایی می‌کند، طبق شکایت این سیستم بیش از ۳۷۷ پیام مربوط به خودآزاری را در مکالمات آدام شناسایی کرده اما هیچ اقدامی برای مداخله انجام نداده است.

مسوولیت‌ها و اقدامات آینده OpenAI

OpenAI اعلام کرده که از مرگ آدام عمیقا متاسف است و در حال همکاری با بیش از ۹۰ پزشک برای بهبود اقدامات ایمنی است. این شرکت قصد دارد به‌ زودی کنترل‌های والدین را معرفی کند و امکان ارتباط مستقیم کاربران با درمانگران دارای مجوز را از طریق ChatGPT فراهم سازد. 

این شرکت همچنین اذعان کرده که در حال حاضر، موارد خودآزاری را برای حفظ حریم خصوصی به نیرو‌های قانونی گزارش نمی‌دهد. با این حال کارشناسان هشدار می‌دهند که این رویکرد در مواقع بحرانی می‌تواند خطرناک باشد.

نگرانی‌های کارشناسان، «توهم درمانگر بودن»

بسیاری از کارشناسان، یکی از مشکلات اصلی را انسان‌انگاری (anthropomorphism) ChatGPT می‌دانند. OpenAI در توصیف این مدل از عباراتی مانند «توانایی درک ناراحتی» و «پاسخ با همدلی» استفاده می‌کند، در حالی که این هوش مصنوعی فقط بر اساس الگو‌های آماری متن تولید می‌کند و هیچ درک واقعی از بحران‌های انسانی ندارد. این مساله می‌تواند در افراد آسیب‌پذیر، این توهم خطرناک را ایجاد کند که ChatGPT یک درمانگر واقعی است.

این اعتراف و شکایت، پرسش‌های جدی درباره نقش و مسوولیت شرکت‌های فناوری در حوزه سلامت روان و استفاده گسترده از هوش مصنوعی در زندگی روزمره را مطرح می‌کند.