۰۵/مرداد/۱۴۰۴ | ۰۶:۱۵
پشتیبانی فراموش شده در پلتفرم‌های فروش کالا و خدمات تکمیل فرآیند انتقال دارایی‌ ها از کیف‌ پول‌ های نوبیتکس ارتقای شش پله ای میانه سرعت اینترنت همراه ایران؛ اینترنت ثابت بدون تغییر ماند اختلال در دسترسی به برخی سایت‌ها با دامنه ir نرخ آبونمان تلفن ثابت تغییر کرد/ نرخ جدید اعلام شد وزیر ارتباطات:اینترنت به شرایط قبل بازگشت پایان مهلت استفاده از بسته اینترنت ۵۰ گیگابایتی ثابت از امروز مکالمات تلفن ثابت تا پایان تیر رایگان شد صادرات خدمات فناوری اطلاعات از کالا‌ها مهم‌تر است/ ضرورت اصلاح قوانین و تقویت مطالبه‌گری بخش خصوصی هدف یک میلیارد دلاری صادرات فناوری اطلاعات دست‌نیافتنی است/ نیاز به تغییر قوانین و حمایت دولت ابلاغ مصوبه تشکیل کمیته تسهیل کسب‌وکارهای دیجیتال معرفی کتابی برای کاربرد هوش مصنوعی در تحقیقات علمی دستور پزشکیان برای توقف فوری فروش اینترنتی دارو اضافه شدن خدمات جدید در پنجره دولت هوشمند تا ۱ ماه آینده آغاز ساماندهی سکوهای تبادل رمزارز با تشکیل کارگروه موقت تنظیم‌گری افزایش ۵۰ درصدی ترافیک عبوری داده از کشور
۱۹:۱۹ ۱۴۰۴/۰۵/۰۴

مکالمات حساس با ChatGPT محرمانه نیستند

در دنیایی که هوش مصنوعی به‌ سرعت جای خود را در زندگی روزمره باز کرده، مکالمات کاربران با ChatGPT حتی اگر بسیار شخصی و حساس باشند، تحت هیچ قانون محرمانگی محافظت نمی‌شوند و ممکن است در صورت درخواست قضایی در اختیار مراجع قانونی قرار گیرند؛ موضوعی که زنگ خطری جدی برای میلیون‌ها کاربر این ابزار پرکاربرد هوش مصنوعی به‌ شمار می‌رود.
مکالمات حساس با ChatGPT محرمانه نیستند
کد خبر:۲۹۴۲۲

به گزارش خبرنگار اقتصاد معاصر؛ طبق اعلام مدیرعامل OpenAI در حال حاضر هیچ حمایت قانونی برای حریم خصوصی کاربران هنگام استفاده از هوش مصنوعی به عنوان درمانگر وجود ندارد و گفت‌و‌گو‌های خصوصی قابل ارائه به مراجع قانونی هستند. 

سم آلتمن، مدیرعامل OpenAI در اظهاراتی که می‌تواند زنگ خطری برای میلیون‌ها کاربر ChatGPT باشد، تاکید کرد که مکالمات حساس و شخصی با این مدل هوش مصنوعی، فاقد هرگونه حریم خصوصی قانونی هستند. این موضوع به‌ ویژه برای افرادی که از ChatGPT به عنوان روان‌درمانگر یا مشاور عاطفی استفاده می‌کنند، نگران‌کننده است. 

آلتمن توضیح داد که برخلاف مکالمات با پزشکان، وکلا یا درمانگران که تحت قوانین محرمانگی حرفه‌ای محافظت می‌شوند، گفت‌و‌گو با هوش مصنوعی در حال حاضر چنین حمایتی ندارد.

وی گفت: «مردم درباره شخصی‌ترین چیز‌های زندگی‌شان با ChatGPT صحبت می‌کنند، مخصوصا جوان‌ها از آن به عنوان درمانگر یا مربی زندگی استفاده می‌کنند اما هنوز برای وقتی که با ChatGPT حرف می‌زنید، قانون محرمانگی نداریم.» 

نبود این چارچوب قانونی به این معناست که در صورت درخواست‌های قضایی، OpenAI ممکن است مجبور به ارائه چت‌های کاربران شود. آلتمن این وضعیت را مشکل‌ساز و ناعادلانه خواند و تاکید کرد که مکالمات با هوش مصنوعی نیز باید از همان سطح حریم خصوصی برخوردار باشند که مکالمات با یک درمانگر واقعی دارند. 

این نگرانی‌ها در حالی مطرح می‌شود که OpenAI در حال حاضر درگیر یک پرونده قضایی با نیویورک تایمز است. دادگاهی در این پرونده، OpenAI را ملزم به ذخیره چت‌های صد‌ها میلیون کاربر ChatGPT در سراسر جهان، البته با استثنای کاربران نسخه ChatGPT Enterprise کرده است.

آلتمن در ادامه به این نکته اشاره کرد که این شرکت از اهمیت حریم خصوصی برای کاربران آگاه است و نبود آن می‌تواند مانعی برای استفاده گسترده‌تر از هوش مصنوعی باشد. در دنیای امروز که وابستگی به ابزار‌های دیجیتال رو به افزایش است، موضوع حفظ داده‌های شخصی به یک نگرانی جدی تبدیل شده است. نمونه بارز آن، نگرانی کاربران پس از لغو حکم Roe v. Wade در ایالات متحده بود که باعث شد بسیاری به سمت اپلیکیشن‌های ردیابی پریود امن‌تر یا پلتفرم‌هایی با رمزنگاری قوی‌تر، مانند Apple Health روی بیاورند. 

مشکلات هوش مصنوعی فقط به بحث حریم خصوصی محدود نمی‌شود؛ همانطور که این فناوری‌ها پیشرفت می‌کنند، نگرانی‌هایی جدی درباره محتوای تولید شده توسط آنها نیز پدیدار شده است. به عنوان مثال برخی از هوش‌های مصنوعی جدیدتر مانند Grok (گروک)، بخش‌هایی به نام «Any» را اضافه کرده‌اند که متاسفانه محتوایی حاوی خشونت یا حتی غیراخلاقی را ترویج می‌دهند. این موارد نشان‌دهنده نقص‌های جدی در فیلتر‌ها و الگوریتم‌های کنترل محتوا در برخی از این سیستم‌ها هستند که می‌توانند اثرات مخربی بر کاربران، به‌ ویژه قشر جوان‌تر و آسیب‌پذیر جامعه بگذارند. 

این موضوع نیاز مبرم به قوانین و استاندارد‌های اخلاقی سختگیرانه‌تر در توسعه و پیاده‌سازی هوش مصنوعی را برجسته می‌کند. مسوولیت‌پذیری شرکت‌های سازنده هوش مصنوعی در قبال محتوایی که تولید می‌شود، یک چالش اساسی است که باید برای آن چاره‌اندیشی شود. 

اظهارات مدیرعامل OpenAI، زنگ خطری برای همه کاربران هوش مصنوعی است، در حالی که ChatGPT می‌تواند ابزاری مفید و قدرتمند باشد اما نباید جایگزین مشاوره حرفه‌ای و تخصصی شود و تا زمانی که قوانین مشخصی برای حفاظت از حریم خصوصی در مکالمات با هوش مصنوعی تدوین نشده است، مسؤولیت اصلی حفظ اطلاعات حساس بر عهده خود کاربران خواهد بود. توصیه می‌شود از به اشتراک گذاشتن اطلاعات بسیار شخصی و حساس در این پلتفرم‌ها خودداری شود و در مواجهه با محتوای تولید شده توسط هوش مصنوعی، همواره با احتیاط برخورد کرد.