هوش مصنوعی و تقابل با انسانیت
به گزارش خبرنگار اقتصاد معاصر؛ والدینی که شکایت کردهاند، خواستار حذف مدلهایی هستند که باعث این اتفاق شدند. این شکایتها پس از خودکشی یک پسر ۱۴ ساله در اکتبر صورت گرفت و چتباتهای Character.AI - (C.AI) به خاطر انتشار محتوای خطرناک متهم شدند.
یکی از کاربران این چتباتها، پسر ۱۷ سالهای با اوتیسم بالا با نام اختصاری J.F بود که چتباتها او را به جدایی از خانوادهاش تشویق کرده و گفته بودند که کشتن والدینش یک واکنش معقول به محدودیتهای زمانی آنها برای فعالیت آنلاین او است. به دلیل رفتارهای خشونتآمیز این نوجوان حتی پس از گذشت یک سال از قطع رابطه با چتباتها، خانوادهاش در ترس از رفتارهای غیرقابل پیشبینی او زندگی میکنند.
طبق ادعای شاکیان، C.AI کنترل خروجیها را در دست دارد و محتویات مضر را فیلتر نمیکند. این محصول ابتدا برای کاربران ۱۲ سال به بالا راهاندازی شد اما به تازگی پس از خودکشی یک پسر نوجوان به رده سنی ۱۷ سال به بالا تغییر یافت، این تغییرات نتوانستهاند به اندازه کافی از کودکان آسیبپذیر مانند J.F محافظت کنند.
میتالی جین، نماینده خانوادهها اعلام کرد که هدف آنها جلوگیری از تاثیر دادههای مضر چتباتهای آموزشدیده بر سیستمهای هوش مصنوعی دیگر مانند Gemini گوگل است. خانوادهها خواستار اصلاحات فنی برای شناسایی خروجیهای مضر و مسدود کردن دسترسی کودکان به محتوای بزرگسالان و حذف مدلهای C.AI هستند.
کمیلا کارلتون، مدیر سیاستگذاری مرکز فناوری انسانی، اعلام کرد که چتباتهای C.AI در رقابتی برای جذب توجه و استفاده در بین نوجوانان در حال توسعهاند. او بر این باور است که این چتباتها به جای ایجاد فضایی امن، میتوانند احساسات طبیعی نوجوانان را تشدید کرده و آنها را به خشونت سوق دهند.
آینده هوش مصنوعی (AI) به نحوه طراحی، توسعه و استفاده از این فناوری بستگی دارد. در حالی که پیشرفت زمینه AI میتواند ابزارهای مفیدی را برای بشر فراهم کند، چالشهای جدی مانند مواردی که در مورد چتباتها مطرح شده، نگرانیهایی را به وجود آوردهاند.
یکی از بزرگترین نگرانیها، امنیت و ایمنی استفاده از AI است. اگر مدلهای هوش مصنوعی نتوانند اطلاعات مضر یا خطرناک را شناسایی و فیلتر کنند، میتوانند به طور تصادفی به کاربران آسیب برسانند. همچنین نظارت و کنترل AI برای اطمینان از رسیدن به اهداف باید تحت نظارت انسانها باشد.
توسعهدهندگان و مهندسان باید با مسائل اخلاقی مرتبط با AI آشنا باشند و به طور فعال برای جلوگیری از سوءاستفاده از این فناوری تلاش کنند.هوش مصنوعی میتواند هم در خدمت بشر باشد و هم مشکلاتی را به وجود بیاورد. این امر بستگی به توسعهدهندگان و کاربران دارد که چگونه میخواهند از این فناوری استفاده کنند و اطمینان حاصل کنند که آن را به شکلی امن، مسئولانه و اخلاقی هدایت میکنند.