
حریم خصوصی قربانی شتاب در نوآوری؛ افشای مکالمات ChatGPT در گوگل

به گزارش خبرنگار اقتصاد معاصر؛ OpenAI روز پنجشنبه به طور ناگهانی ویژگیای را که به کاربران ChatGPT اجازه میداد مکالمات خود را در گوگل و سایر موتورهای جستوجو قابل جستوجو کنند، غیرفعال کرد. این تصمیم فقط چند ساعت پس از موج گسترده انتقادات در شبکههای اجتماعی اتخاذ شد و بار دیگر نشان داد که نگرانیهای مربوط به حریم خصوصی، میتوانند نوآوریهای جذاب را به سرعت به چالش بکشند.
این قابلیت که OpenAI از آن به عنوان «آزمایشی کوتاهمدت» یاد کرده بود، به کاربران اجازه میداد در صورت تمایل چتهای خود را به اشتراک بگذارند و با فعالسازی گزینهای خاص آن را در نتایج جستوجو قابل دسترسی کنند اما همین ویژگی ساده به سرعت به بحرانی گسترده تبدیل شد.
مکالمات خصوصی کاربران در نتایج گوگل
ماجرا زمانی آغاز شد که برخی کاربران با جستجوی عبارت chatgpt.com/share در گوگل، توانستند به هزاران مکالمه دیگر کاربران با ChatGPT دسترسی پیدا کنند. این مکالمات شامل موضوعاتی متنوع از مشاورههای ساده مثل بازسازی حمام گرفته تا اطلاعات بسیار حساس مانند مسائل سلامت، مشکلات شخصی و بازنویسی رزومههای کاری بود.
تیم امنیتی OpenAI در پستی در شبکه X (توئیتر سابق) اعلام کرد: «در نهایت به این نتیجه رسیدیم که این ویژگی فرصتهای زیادی برای اشتراکگذاری ناخواسته اطلاعات خصوصی ایجاد میکرد و محافظتهای ما برای جلوگیری از سواستفاده کافی نبودند.»
ضعف در طراحی تجربه کاربری
گرچه این ویژگی به صورت پیشفرض غیرفعال بود و فعالسازی آن نیاز به چند کلیک داشت اما برخی کاربران یا متوجه خطرات احتمالی نشدند یا آن را نادیده گرفتند. این موضوع نشان میدهد که طراحی تجربه کاربری در ابزارهای هوش مصنوعی باید چنان دقیق باشد که حتی افراد کمتجربه نیز نتوانند به سادگی مرتکب اشتباهات حساس شوند.
این اتفاق بیسابقه نیست
OpenAI اولین شرکتی نیست که با چنین بحرانی مواجه میشود. در سال ۲۰۲۳، مکالمات کاربران با Bard، دستیار هوش مصنوعی گوگل در نتایج جستوجو ظاهر شد و گوگل نیز مجبور به اعمال محدودیتهایی شد. متا (فیسبوک سابق) نیز زمانی که کاربران ناخواسته چتهای خصوصی خود را در فیدهای عمومی منتشر کردند، با مشکلی مشابه روبهرو شد. این موارد نشان میدهد که سرعت در ارائه قابلیتهای جدید، گاهی باعث نادیده گرفتن اصول اولیه حفاظت از دادهها میشود.
نگرانی برای کاربران تجاری
این اشتباه به ویژه برای کاربران تجاری و سازمانی نگرانکننده بوده، بسیاری از کسبوکارها برای تحلیل رقبا، تصمیمگیری استراتژیک و پردازش دادههای حساس به ابزارهای هوش مصنوعی تکیه دارند. اگرچه OpenAI اعلام کرده که حسابهای تجاری و تیمی دارای سطوح محافظتی متفاوتی هستند اما همین رخداد نشان داد که حتی نسخههای عمومی ابزارها نیز میتوانند تهدیدی جدی برای امنیت اطلاعات باشند.
بازسازی اعتماد؛ چالشی حیاتی
OpenAI توانست با حذف سریع این ویژگی بحران را تا حدی کنترل کند اما این اتفاق بیشک لکهای بر اعتبار آن باقی گذاشت. در جهانی که هوش مصنوعی به سرعت در حال شکل دادن به آینده زندگی و کار انسانهاست، موفقیت در گرو آن است که شرکتها حفاظت از حریم خصوصی را نه به عنوان یک گزینه جانبی، بلکه به عنوان بنیان اصلی طراحی و توسعه محصولات خود در نظر بگیرند.
اعتماد کاربران سرمایهای است که بازسازی آن دشوار و زمانبر است؛ از همینرو شفافیت، مسؤولیتپذیری و اولویتدادن به امنیت دادهها باید به اصول غیرقابل چشمپوشی در صنعت هوش مصنوعی تبدیل شوند.