اقتصاد کلان

اقتصاد کلان

بانک

صنعت

کشاورزی

راه و مسکن

اقتصاد بین الملل

انرژی

بازرگانی

بورس

فناوری

سیاست و اقتصاد

کارآفرینی و تعاون

بازار

چند رسانه ای

۱۷/آبان/۱۴۰۴ | ۱۷:۱۵
۱۷:۰۹ ۱۴۰۴/۰۸/۱۷

نشت مکالمات کاربران ChatGPT در گوگل؛ زنگ خطر برای حریم خصوصی در هوش مصنوعی

در ماه‌های اخیر، مجموعه‌ای از مکالمات شخصی و حساس کاربران ChatGPT به‌طور ناخواسته در ابزار Google Search Console (GSC) ظاهر شده است؛ رخدادی عجیب که باعث نگرانی‌های گسترده درباره نقض حریم خصوصی کاربران و احتمال اسکرپ داده‌ها از سوی OpenAI شده است.
کد خبر:۳۸۱۱۷

به گزارش خبرنگار اقتصاد معاصر؛ طی ماه‌های اخیر بخشی از گفت‌و‌گو‌های کاربران ChatGPT به‌ طور ناخواسته در Google Search Console (GSC) ظاهر شده است؛ ابزاری که معمولا برای بررسی عملکرد سایت‌ها در نتایج جستجوی گوگل استفاده می‌شود، این اتفاق باعث نگرانی‌های گسترده‌ای درباره حفظ حریم خصوصی کاربران شده است.

به‌ طور معمول مدیران وب‌سایت‌ها در GSC فقط فهرستی از کلمات کلیدی جست‌وجوشده در گوگل را می‌بینند اما از سپتامبر امسال، برخی از آنان با عباراتی عجیب و طولانی مواجه شدند که شباهت زیادی به مکالمات واقعی کاربران با ChatGPT داشت؛ گفت‌و‌گو‌هایی که شامل موضوعات شخصی و محرمانه مانند روابط عاطفی یا تصمیم‌های کاری بودند.

نخستین بار جیسون پکر، بنیان‌گذار شرکت داده‌محور Quantable، متوجه این موضوع شد و با همکاری اسلوبودان مانیچ، متخصص سئو آن را بررسی کرد. به گفته این دو داده‌ها نشان می‌دهد ChatGPT هنگام استفاده از جست‌وجوی وب، احتمالا پرامپت (متن ورودی کاربر) را نیز به گوگل ارسال کرده است.

OpenAI در واکنش به این گزارش اعلام کرد که این مشکل ناشی از یک اشکال موقت فنی بوده و تنها برای تعداد محدودی از درخواست‌ها رخ داده است. این شرکت می‌گوید مشکل اکنون برطرف شده اما توضیح فنی دقیقی درباره جزئیات آن ارائه نکرد T گوگل نیز از هرگونه اظهارنظر رسمی خودداری کرده است.

پکر در این‌باره گفت: «خوشحالم که OpenAI سریع واکنش نشان داد، اما پاسخشان مبهم است. هنوز مشخص نیست آیا این نشت به دلیل نقص فنی بوده یا ناشی از دسترسی مستقیم ChatGPT به داده‌های گوگل.» وی هشدار داد تا زمانی که جزئیات بیشتری اعلام نشود، نمی‌توان اطمینان داشت مشکل کاملا رفع شده است.

طبق بررسی‌ها منشا فنی این نشت وجود پارامتری به نام hints=search در URL بوده، این پارامتر باعث می‌شد ChatGPT برای پاسخ به پرسش‌های کاربران، درخواست جست‌و‌جو را مستقیما به گوگل ارسال کند و در برخی موارد متن کامل گفت‌و‌گو نیز در داده‌های GSC ذخیره شود.

پکر می‌گوید در یک وب‌سایت بیش از ۲۰۰ مورد از این نوع داده‌ها از جمله گفت‌وگویی درباره روابط شخصی و حتی اطلاعات کاری محرمانه مشاهده کرده است. وی تاکید می‌کند: «این اتفاق یادآور این نکته است که گفت‌و‌گو‌های کاربران در چت‌بات‌ها به آن اندازه که تصور می‌شود خصوصی نیستند.»

در حالی که OpenAI مدعی است این مسئله تنها تعداد اندکی از کاربران را تحت تاثیر قرار داده، کارشناسان هشدار می‌دهند هنوز مشخص نیست دامنه واقعی این نشت تا چه اندازه بوده است.

پکر در پایان گفت: «حتی اگر این مشکل محدود بوده باشد، باز هم نشان می‌دهد شرکت‌های بزرگ هوش مصنوعی باید در حفظ حریم خصوصی کاربران دقت بیشتری داشته باشند. کاربران نیز باید بدانند که ورودی‌هایشان در چت‌بات‌ها همیشه به‌طور کامل محرمانه نیست.»

با وجود اطمینان OpenAI از رفع مشکل، کارشناسان تاکید دارند که این حادثه یادآور اهمیت توجه به امنیت داده‌ها در ابزار‌های هوش مصنوعی است.

در نهایت، این رویداد بار دیگر نشان داد که حتی پیشرفته‌ترین فناوری‌ها نیز از خطا و آسیب‌پذیری مصون نیستند اما واکنش سریع OpenAI و حساسیت جامعه‌ی فناوری نسبت به این موضوع، نشانه‌ای مثبت از حرکت صنعت هوش مصنوعی به سمت شفافیت و مسئولیت‌پذیری بیشتر است.

ارسال نظرات