حریم خصوصی قربانی شتاب در نوآوری؛ افشای مکالمات ChatGPT در گوگل

به گزارش خبرنگار اقتصاد معاصر؛ OpenAI روز پنج‌شنبه به‌ طور ناگهانی ویژگی‌ای را که به کاربران ChatGPT اجازه می‌داد مکالمات خود را در گوگل و سایر موتور‌های جست‌و‌جو قابل جست‌و‌جو کنند، غیرفعال کرد. این تصمیم فقط چند ساعت پس از موج گسترده انتقادات در شبکه‌های اجتماعی اتخاذ شد و بار دیگر نشان داد که نگرانی‌های مربوط به حریم خصوصی، می‌توانند نوآوری‌های جذاب را به‌ سرعت به چالش بکشند. 

این قابلیت که OpenAI از آن به‌ عنوان «آزمایشی کوتاه‌مدت» یاد کرده بود، به کاربران اجازه می‌داد در صورت تمایل چت‌های خود را به اشتراک بگذارند و با فعال‌سازی گزینه‌ای خاص آن را در نتایج جست‌و‌جو قابل دسترسی کنند اما همین ویژگی ساده به‌ سرعت به بحرانی گسترده تبدیل شد.

مکالمات خصوصی کاربران در نتایج گوگل

ماجرا زمانی آغاز شد که برخی کاربران با جستجوی عبارت chatgpt.com/share در گوگل، توانستند به هزاران مکالمه‌ دیگر کاربران با ChatGPT دسترسی پیدا کنند. این مکالمات شامل موضوعاتی متنوع از مشاوره‌های ساده مثل بازسازی حمام گرفته تا اطلاعات بسیار حساس مانند مسائل سلامت، مشکلات شخصی و بازنویسی رزومه‌های کاری بود. 

تیم امنیتی OpenAI در پستی در شبکه X (توئیتر سابق) اعلام کرد: «در نهایت به این نتیجه رسیدیم که این ویژگی فرصت‌های زیادی برای اشتراک‌گذاری ناخواسته اطلاعات خصوصی ایجاد می‌کرد و محافظت‌های ما برای جلوگیری از سواستفاده کافی نبودند.»

ضعف در طراحی تجربه کاربری

گرچه این ویژگی به‌ صورت پیش‌فرض غیرفعال بود و فعال‌سازی آن نیاز به چند کلیک داشت اما برخی کاربران یا متوجه خطرات احتمالی نشدند یا آن را نادیده گرفتند. این موضوع نشان می‌دهد که طراحی تجربه کاربری در ابزار‌های هوش مصنوعی باید چنان دقیق باشد که حتی افراد کم‌تجربه نیز نتوانند به‌ سادگی مرتکب اشتباهات حساس شوند.

این اتفاق بی‌سابقه نیست

OpenAI اولین شرکتی نیست که با چنین بحرانی مواجه می‌شود. در سال ۲۰۲۳، مکالمات کاربران با Bard، دستیار هوش مصنوعی گوگل در نتایج جست‌و‌جو ظاهر شد و گوگل نیز مجبور به اعمال محدودیت‌هایی شد. متا (فیسبوک سابق) نیز زمانی که کاربران ناخواسته چت‌های خصوصی خود را در فید‌های عمومی منتشر کردند، با مشکلی مشابه روبه‌رو شد. این موارد نشان می‌دهد که سرعت در ارائه قابلیت‌های جدید، گاهی باعث نادیده گرفتن اصول اولیه‌ حفاظت از داده‌ها می‌شود.

نگرانی برای کاربران تجاری

این اشتباه به‌ ویژه برای کاربران تجاری و سازمانی نگران‌کننده بوده، بسیاری از کسب‌وکار‌ها برای تحلیل رقبا، تصمیم‌گیری استراتژیک و پردازش داده‌های حساس به ابزار‌های هوش مصنوعی تکیه دارند. اگرچه OpenAI اعلام کرده که حساب‌های تجاری و تیمی دارای سطوح محافظتی متفاوتی هستند اما همین رخداد نشان داد که حتی نسخه‌های عمومی ابزار‌ها نیز می‌توانند تهدیدی جدی برای امنیت اطلاعات باشند.

بازسازی اعتماد؛ چالشی حیاتی

OpenAI توانست با حذف سریع این ویژگی بحران را تا حدی کنترل کند اما این اتفاق بی‌شک لکه‌ای بر اعتبار آن باقی گذاشت. در جهانی که هوش مصنوعی به‌ سرعت در حال شکل دادن به آینده‌ زندگی و کار انسان‌هاست، موفقیت در گرو آن است که شرکت‌ها حفاظت از حریم خصوصی را نه به‌ عنوان یک گزینه‌ جانبی، بلکه به‌ عنوان بنیان اصلی طراحی و توسعه‌ محصولات خود در نظر بگیرند.

اعتماد کاربران سرمایه‌ای است که بازسازی آن دشوار و زمان‌بر است؛ از همین‌رو شفافیت، مسؤولیت‌پذیری و اولویت‌دادن به امنیت داده‌ها باید به اصول غیرقابل‌ چشم‌پوشی در صنعت هوش مصنوعی تبدیل شوند.