به گزارش خبرنگار اقتصاد معاصر؛ طبق اعلام مدیرعامل OpenAI در حال حاضر هیچ حمایت قانونی برای حریم خصوصی کاربران هنگام استفاده از هوش مصنوعی به عنوان درمانگر وجود ندارد و گفتوگوهای خصوصی قابل ارائه به مراجع قانونی هستند.
سم آلتمن، مدیرعامل OpenAI در اظهاراتی که میتواند زنگ خطری برای میلیونها کاربر ChatGPT باشد، تاکید کرد که مکالمات حساس و شخصی با این مدل هوش مصنوعی، فاقد هرگونه حریم خصوصی قانونی هستند. این موضوع به ویژه برای افرادی که از ChatGPT به عنوان رواندرمانگر یا مشاور عاطفی استفاده میکنند، نگرانکننده است.
آلتمن توضیح داد که برخلاف مکالمات با پزشکان، وکلا یا درمانگران که تحت قوانین محرمانگی حرفهای محافظت میشوند، گفتوگو با هوش مصنوعی در حال حاضر چنین حمایتی ندارد.
وی گفت: «مردم درباره شخصیترین چیزهای زندگیشان با ChatGPT صحبت میکنند، مخصوصا جوانها از آن به عنوان درمانگر یا مربی زندگی استفاده میکنند اما هنوز برای وقتی که با ChatGPT حرف میزنید، قانون محرمانگی نداریم.»
نبود این چارچوب قانونی به این معناست که در صورت درخواستهای قضایی، OpenAI ممکن است مجبور به ارائه چتهای کاربران شود. آلتمن این وضعیت را مشکلساز و ناعادلانه خواند و تاکید کرد که مکالمات با هوش مصنوعی نیز باید از همان سطح حریم خصوصی برخوردار باشند که مکالمات با یک درمانگر واقعی دارند.
این نگرانیها در حالی مطرح میشود که OpenAI در حال حاضر درگیر یک پرونده قضایی با نیویورک تایمز است. دادگاهی در این پرونده، OpenAI را ملزم به ذخیره چتهای صدها میلیون کاربر ChatGPT در سراسر جهان، البته با استثنای کاربران نسخه ChatGPT Enterprise کرده است.
آلتمن در ادامه به این نکته اشاره کرد که این شرکت از اهمیت حریم خصوصی برای کاربران آگاه است و نبود آن میتواند مانعی برای استفاده گستردهتر از هوش مصنوعی باشد. در دنیای امروز که وابستگی به ابزارهای دیجیتال رو به افزایش است، موضوع حفظ دادههای شخصی به یک نگرانی جدی تبدیل شده است. نمونه بارز آن، نگرانی کاربران پس از لغو حکم Roe v. Wade در ایالات متحده بود که باعث شد بسیاری به سمت اپلیکیشنهای ردیابی پریود امنتر یا پلتفرمهایی با رمزنگاری قویتر، مانند Apple Health روی بیاورند.
مشکلات هوش مصنوعی فقط به بحث حریم خصوصی محدود نمیشود؛ همانطور که این فناوریها پیشرفت میکنند، نگرانیهایی جدی درباره محتوای تولید شده توسط آنها نیز پدیدار شده است. به عنوان مثال برخی از هوشهای مصنوعی جدیدتر مانند Grok (گروک)، بخشهایی به نام «Any» را اضافه کردهاند که متاسفانه محتوایی حاوی خشونت یا حتی غیراخلاقی را ترویج میدهند. این موارد نشاندهنده نقصهای جدی در فیلترها و الگوریتمهای کنترل محتوا در برخی از این سیستمها هستند که میتوانند اثرات مخربی بر کاربران، به ویژه قشر جوانتر و آسیبپذیر جامعه بگذارند.
این موضوع نیاز مبرم به قوانین و استانداردهای اخلاقی سختگیرانهتر در توسعه و پیادهسازی هوش مصنوعی را برجسته میکند. مسوولیتپذیری شرکتهای سازنده هوش مصنوعی در قبال محتوایی که تولید میشود، یک چالش اساسی است که باید برای آن چارهاندیشی شود.
اظهارات مدیرعامل OpenAI، زنگ خطری برای همه کاربران هوش مصنوعی است، در حالی که ChatGPT میتواند ابزاری مفید و قدرتمند باشد اما نباید جایگزین مشاوره حرفهای و تخصصی شود و تا زمانی که قوانین مشخصی برای حفاظت از حریم خصوصی در مکالمات با هوش مصنوعی تدوین نشده است، مسؤولیت اصلی حفظ اطلاعات حساس بر عهده خود کاربران خواهد بود. توصیه میشود از به اشتراک گذاشتن اطلاعات بسیار شخصی و حساس در این پلتفرمها خودداری شود و در مواجهه با محتوای تولید شده توسط هوش مصنوعی، همواره با احتیاط برخورد کرد.