اقتصاد کلان

اقتصاد کلان

بانک

صنعت

کشاورزی

راه و مسکن

اقتصاد بین الملل

انرژی

بازرگانی

بورس

فناوری

سیاست و اقتصاد

کارآفرینی و تعاون

چند رسانه ای

۰۴/مرداد/۱۴۰۴ | ۱۹:۳۲
۱۹:۱۹ ۱۴۰۴/۰۵/۰۴

مکالمات حساس با ChatGPT محرمانه نیستند

در دنیایی که هوش مصنوعی به‌ سرعت جای خود را در زندگی روزمره باز کرده، مکالمات کاربران با ChatGPT حتی اگر بسیار شخصی و حساس باشند، تحت هیچ قانون محرمانگی محافظت نمی‌شوند و ممکن است در صورت درخواست قضایی در اختیار مراجع قانونی قرار گیرند؛ موضوعی که زنگ خطری جدی برای میلیون‌ها کاربر این ابزار پرکاربرد هوش مصنوعی به‌ شمار می‌رود.
کد خبر:۲۹۴۲۲

به گزارش خبرنگار اقتصاد معاصر؛ طبق اعلام مدیرعامل OpenAI در حال حاضر هیچ حمایت قانونی برای حریم خصوصی کاربران هنگام استفاده از هوش مصنوعی به عنوان درمانگر وجود ندارد و گفت‌و‌گو‌های خصوصی قابل ارائه به مراجع قانونی هستند. 

سم آلتمن، مدیرعامل OpenAI در اظهاراتی که می‌تواند زنگ خطری برای میلیون‌ها کاربر ChatGPT باشد، تاکید کرد که مکالمات حساس و شخصی با این مدل هوش مصنوعی، فاقد هرگونه حریم خصوصی قانونی هستند. این موضوع به‌ ویژه برای افرادی که از ChatGPT به عنوان روان‌درمانگر یا مشاور عاطفی استفاده می‌کنند، نگران‌کننده است. 

آلتمن توضیح داد که برخلاف مکالمات با پزشکان، وکلا یا درمانگران که تحت قوانین محرمانگی حرفه‌ای محافظت می‌شوند، گفت‌و‌گو با هوش مصنوعی در حال حاضر چنین حمایتی ندارد.

وی گفت: «مردم درباره شخصی‌ترین چیز‌های زندگی‌شان با ChatGPT صحبت می‌کنند، مخصوصا جوان‌ها از آن به عنوان درمانگر یا مربی زندگی استفاده می‌کنند اما هنوز برای وقتی که با ChatGPT حرف می‌زنید، قانون محرمانگی نداریم.» 

نبود این چارچوب قانونی به این معناست که در صورت درخواست‌های قضایی، OpenAI ممکن است مجبور به ارائه چت‌های کاربران شود. آلتمن این وضعیت را مشکل‌ساز و ناعادلانه خواند و تاکید کرد که مکالمات با هوش مصنوعی نیز باید از همان سطح حریم خصوصی برخوردار باشند که مکالمات با یک درمانگر واقعی دارند. 

این نگرانی‌ها در حالی مطرح می‌شود که OpenAI در حال حاضر درگیر یک پرونده قضایی با نیویورک تایمز است. دادگاهی در این پرونده، OpenAI را ملزم به ذخیره چت‌های صد‌ها میلیون کاربر ChatGPT در سراسر جهان، البته با استثنای کاربران نسخه ChatGPT Enterprise کرده است.

آلتمن در ادامه به این نکته اشاره کرد که این شرکت از اهمیت حریم خصوصی برای کاربران آگاه است و نبود آن می‌تواند مانعی برای استفاده گسترده‌تر از هوش مصنوعی باشد. در دنیای امروز که وابستگی به ابزار‌های دیجیتال رو به افزایش است، موضوع حفظ داده‌های شخصی به یک نگرانی جدی تبدیل شده است. نمونه بارز آن، نگرانی کاربران پس از لغو حکم Roe v. Wade در ایالات متحده بود که باعث شد بسیاری به سمت اپلیکیشن‌های ردیابی پریود امن‌تر یا پلتفرم‌هایی با رمزنگاری قوی‌تر، مانند Apple Health روی بیاورند. 

مشکلات هوش مصنوعی فقط به بحث حریم خصوصی محدود نمی‌شود؛ همانطور که این فناوری‌ها پیشرفت می‌کنند، نگرانی‌هایی جدی درباره محتوای تولید شده توسط آنها نیز پدیدار شده است. به عنوان مثال برخی از هوش‌های مصنوعی جدیدتر مانند Grok (گروک)، بخش‌هایی به نام «Any» را اضافه کرده‌اند که متاسفانه محتوایی حاوی خشونت یا حتی غیراخلاقی را ترویج می‌دهند. این موارد نشان‌دهنده نقص‌های جدی در فیلتر‌ها و الگوریتم‌های کنترل محتوا در برخی از این سیستم‌ها هستند که می‌توانند اثرات مخربی بر کاربران، به‌ ویژه قشر جوان‌تر و آسیب‌پذیر جامعه بگذارند. 

این موضوع نیاز مبرم به قوانین و استاندارد‌های اخلاقی سختگیرانه‌تر در توسعه و پیاده‌سازی هوش مصنوعی را برجسته می‌کند. مسوولیت‌پذیری شرکت‌های سازنده هوش مصنوعی در قبال محتوایی که تولید می‌شود، یک چالش اساسی است که باید برای آن چاره‌اندیشی شود. 

اظهارات مدیرعامل OpenAI، زنگ خطری برای همه کاربران هوش مصنوعی است، در حالی که ChatGPT می‌تواند ابزاری مفید و قدرتمند باشد اما نباید جایگزین مشاوره حرفه‌ای و تخصصی شود و تا زمانی که قوانین مشخصی برای حفاظت از حریم خصوصی در مکالمات با هوش مصنوعی تدوین نشده است، مسؤولیت اصلی حفظ اطلاعات حساس بر عهده خود کاربران خواهد بود. توصیه می‌شود از به اشتراک گذاشتن اطلاعات بسیار شخصی و حساس در این پلتفرم‌ها خودداری شود و در مواجهه با محتوای تولید شده توسط هوش مصنوعی، همواره با احتیاط برخورد کرد.

ارسال نظرات