به گزارش خبرنگار اقتصاد معاصر؛ طی ماههای اخیر بخشی از گفتوگوهای کاربران ChatGPT به طور ناخواسته در Google Search Console (GSC) ظاهر شده است؛ ابزاری که معمولا برای بررسی عملکرد سایتها در نتایج جستجوی گوگل استفاده میشود، این اتفاق باعث نگرانیهای گستردهای درباره حفظ حریم خصوصی کاربران شده است.
به طور معمول مدیران وبسایتها در GSC فقط فهرستی از کلمات کلیدی جستوجوشده در گوگل را میبینند اما از سپتامبر امسال، برخی از آنان با عباراتی عجیب و طولانی مواجه شدند که شباهت زیادی به مکالمات واقعی کاربران با ChatGPT داشت؛ گفتوگوهایی که شامل موضوعات شخصی و محرمانه مانند روابط عاطفی یا تصمیمهای کاری بودند.
نخستین بار جیسون پکر، بنیانگذار شرکت دادهمحور Quantable، متوجه این موضوع شد و با همکاری اسلوبودان مانیچ، متخصص سئو آن را بررسی کرد. به گفته این دو دادهها نشان میدهد ChatGPT هنگام استفاده از جستوجوی وب، احتمالا پرامپت (متن ورودی کاربر) را نیز به گوگل ارسال کرده است.
OpenAI در واکنش به این گزارش اعلام کرد که این مشکل ناشی از یک اشکال موقت فنی بوده و تنها برای تعداد محدودی از درخواستها رخ داده است. این شرکت میگوید مشکل اکنون برطرف شده اما توضیح فنی دقیقی درباره جزئیات آن ارائه نکرد T گوگل نیز از هرگونه اظهارنظر رسمی خودداری کرده است.
پکر در اینباره گفت: «خوشحالم که OpenAI سریع واکنش نشان داد، اما پاسخشان مبهم است. هنوز مشخص نیست آیا این نشت به دلیل نقص فنی بوده یا ناشی از دسترسی مستقیم ChatGPT به دادههای گوگل.» وی هشدار داد تا زمانی که جزئیات بیشتری اعلام نشود، نمیتوان اطمینان داشت مشکل کاملا رفع شده است.
طبق بررسیها منشا فنی این نشت وجود پارامتری به نام hints=search در URL بوده، این پارامتر باعث میشد ChatGPT برای پاسخ به پرسشهای کاربران، درخواست جستوجو را مستقیما به گوگل ارسال کند و در برخی موارد متن کامل گفتوگو نیز در دادههای GSC ذخیره شود.
پکر میگوید در یک وبسایت بیش از ۲۰۰ مورد از این نوع دادهها از جمله گفتوگویی درباره روابط شخصی و حتی اطلاعات کاری محرمانه مشاهده کرده است. وی تاکید میکند: «این اتفاق یادآور این نکته است که گفتوگوهای کاربران در چتباتها به آن اندازه که تصور میشود خصوصی نیستند.»
در حالی که OpenAI مدعی است این مسئله تنها تعداد اندکی از کاربران را تحت تاثیر قرار داده، کارشناسان هشدار میدهند هنوز مشخص نیست دامنه واقعی این نشت تا چه اندازه بوده است.
پکر در پایان گفت: «حتی اگر این مشکل محدود بوده باشد، باز هم نشان میدهد شرکتهای بزرگ هوش مصنوعی باید در حفظ حریم خصوصی کاربران دقت بیشتری داشته باشند. کاربران نیز باید بدانند که ورودیهایشان در چتباتها همیشه بهطور کامل محرمانه نیست.»
با وجود اطمینان OpenAI از رفع مشکل، کارشناسان تاکید دارند که این حادثه یادآور اهمیت توجه به امنیت دادهها در ابزارهای هوش مصنوعی است.
در نهایت، این رویداد بار دیگر نشان داد که حتی پیشرفتهترین فناوریها نیز از خطا و آسیبپذیری مصون نیستند اما واکنش سریع OpenAI و حساسیت جامعهی فناوری نسبت به این موضوع، نشانهای مثبت از حرکت صنعت هوش مصنوعی به سمت شفافیت و مسئولیتپذیری بیشتر است.