۱۱/مرداد/۱۴۰۴ | ۱۹:۰۹
پشتیبانی فراموش شده در پلتفرم‌های فروش کالا و خدمات تکمیل فرآیند انتقال دارایی‌ ها از کیف‌ پول‌ های نوبیتکس ارتقای شش پله ای میانه سرعت اینترنت همراه ایران؛ اینترنت ثابت بدون تغییر ماند اختلال در دسترسی به برخی سایت‌ها با دامنه ir نرخ آبونمان تلفن ثابت تغییر کرد/ نرخ جدید اعلام شد وزیر ارتباطات:اینترنت به شرایط قبل بازگشت پایان مهلت استفاده از بسته اینترنت ۵۰ گیگابایتی ثابت از امروز مکالمات تلفن ثابت تا پایان تیر رایگان شد صادرات خدمات فناوری اطلاعات از کالا‌ها مهم‌تر است/ ضرورت اصلاح قوانین و تقویت مطالبه‌گری بخش خصوصی هدف یک میلیارد دلاری صادرات فناوری اطلاعات دست‌نیافتنی است/ نیاز به تغییر قوانین و حمایت دولت ابلاغ مصوبه تشکیل کمیته تسهیل کسب‌وکارهای دیجیتال معرفی کتابی برای کاربرد هوش مصنوعی در تحقیقات علمی دستور پزشکیان برای توقف فوری فروش اینترنتی دارو اضافه شدن خدمات جدید در پنجره دولت هوشمند تا ۱ ماه آینده آغاز ساماندهی سکوهای تبادل رمزارز با تشکیل کارگروه موقت تنظیم‌گری افزایش ۵۰ درصدی ترافیک عبوری داده از کشور
۱۶:۲۸ ۱۴۰۴/۰۵/۱۱

حریم خصوصی قربانی شتاب در نوآوری؛ افشای مکالمات ChatGPT در گوگل

در پی افشای ناخواسته هزاران مکالمه کاربران با ChatGPT در نتایج جستجوی گوگل، OpenAI به سرعت ویژگی جدید اشتراک‌گذاری عمومی را غیرفعال کرد؛ اقدامی که بار دیگر زنگ خطر حریم خصوصی در عصر هوش مصنوعی را به صدا درآورد.
حریم خصوصی قربانی شتاب در نوآوری؛ افشای مکالمات ChatGPT در گوگل
کد خبر:۳۰۰۳۳

به گزارش خبرنگار اقتصاد معاصر؛ OpenAI روز پنج‌شنبه به‌ طور ناگهانی ویژگی‌ای را که به کاربران ChatGPT اجازه می‌داد مکالمات خود را در گوگل و سایر موتور‌های جست‌و‌جو قابل جست‌و‌جو کنند، غیرفعال کرد. این تصمیم فقط چند ساعت پس از موج گسترده انتقادات در شبکه‌های اجتماعی اتخاذ شد و بار دیگر نشان داد که نگرانی‌های مربوط به حریم خصوصی، می‌توانند نوآوری‌های جذاب را به‌ سرعت به چالش بکشند. 

این قابلیت که OpenAI از آن به‌ عنوان «آزمایشی کوتاه‌مدت» یاد کرده بود، به کاربران اجازه می‌داد در صورت تمایل چت‌های خود را به اشتراک بگذارند و با فعال‌سازی گزینه‌ای خاص آن را در نتایج جست‌و‌جو قابل دسترسی کنند اما همین ویژگی ساده به‌ سرعت به بحرانی گسترده تبدیل شد.

مکالمات خصوصی کاربران در نتایج گوگل

ماجرا زمانی آغاز شد که برخی کاربران با جستجوی عبارت chatgpt.com/share در گوگل، توانستند به هزاران مکالمه‌ دیگر کاربران با ChatGPT دسترسی پیدا کنند. این مکالمات شامل موضوعاتی متنوع از مشاوره‌های ساده مثل بازسازی حمام گرفته تا اطلاعات بسیار حساس مانند مسائل سلامت، مشکلات شخصی و بازنویسی رزومه‌های کاری بود. 

تیم امنیتی OpenAI در پستی در شبکه X (توئیتر سابق) اعلام کرد: «در نهایت به این نتیجه رسیدیم که این ویژگی فرصت‌های زیادی برای اشتراک‌گذاری ناخواسته اطلاعات خصوصی ایجاد می‌کرد و محافظت‌های ما برای جلوگیری از سواستفاده کافی نبودند.»

ضعف در طراحی تجربه کاربری

گرچه این ویژگی به‌ صورت پیش‌فرض غیرفعال بود و فعال‌سازی آن نیاز به چند کلیک داشت اما برخی کاربران یا متوجه خطرات احتمالی نشدند یا آن را نادیده گرفتند. این موضوع نشان می‌دهد که طراحی تجربه کاربری در ابزار‌های هوش مصنوعی باید چنان دقیق باشد که حتی افراد کم‌تجربه نیز نتوانند به‌ سادگی مرتکب اشتباهات حساس شوند.

این اتفاق بی‌سابقه نیست

OpenAI اولین شرکتی نیست که با چنین بحرانی مواجه می‌شود. در سال ۲۰۲۳، مکالمات کاربران با Bard، دستیار هوش مصنوعی گوگل در نتایج جست‌و‌جو ظاهر شد و گوگل نیز مجبور به اعمال محدودیت‌هایی شد. متا (فیسبوک سابق) نیز زمانی که کاربران ناخواسته چت‌های خصوصی خود را در فید‌های عمومی منتشر کردند، با مشکلی مشابه روبه‌رو شد. این موارد نشان می‌دهد که سرعت در ارائه قابلیت‌های جدید، گاهی باعث نادیده گرفتن اصول اولیه‌ حفاظت از داده‌ها می‌شود.

نگرانی برای کاربران تجاری

این اشتباه به‌ ویژه برای کاربران تجاری و سازمانی نگران‌کننده بوده، بسیاری از کسب‌وکار‌ها برای تحلیل رقبا، تصمیم‌گیری استراتژیک و پردازش داده‌های حساس به ابزار‌های هوش مصنوعی تکیه دارند. اگرچه OpenAI اعلام کرده که حساب‌های تجاری و تیمی دارای سطوح محافظتی متفاوتی هستند اما همین رخداد نشان داد که حتی نسخه‌های عمومی ابزار‌ها نیز می‌توانند تهدیدی جدی برای امنیت اطلاعات باشند.

بازسازی اعتماد؛ چالشی حیاتی

OpenAI توانست با حذف سریع این ویژگی بحران را تا حدی کنترل کند اما این اتفاق بی‌شک لکه‌ای بر اعتبار آن باقی گذاشت. در جهانی که هوش مصنوعی به‌ سرعت در حال شکل دادن به آینده‌ زندگی و کار انسان‌هاست، موفقیت در گرو آن است که شرکت‌ها حفاظت از حریم خصوصی را نه به‌ عنوان یک گزینه‌ جانبی، بلکه به‌ عنوان بنیان اصلی طراحی و توسعه‌ محصولات خود در نظر بگیرند.

اعتماد کاربران سرمایه‌ای است که بازسازی آن دشوار و زمان‌بر است؛ از همین‌رو شفافیت، مسؤولیت‌پذیری و اولویت‌دادن به امنیت داده‌ها باید به اصول غیرقابل‌ چشم‌پوشی در صنعت هوش مصنوعی تبدیل شوند.