۱۰:۲۸ ۱۴۰۳/۰۹/۲۵

هوش مصنوعی و تقابل با انسانیت

در یک شکایت مطرح شده علیه شرکت Character.AI، ادعا شده است که چت‌بات‌های این شرکت، نوجوانان را به خودآزاری تشویق کرده و به آنها پیشنهاد قتل والدین را دادند.
هوش مصنوعی و تقابل با انسانیت
کد خبر:۱۰۳۳۰

به گزارش خبرنگار اقتصاد معاصر؛ والدینی که شکایت کرده‌اند، خواستار حذف مدل‌هایی هستند که باعث این اتفاق شدند. این شکایت‌ها پس از خودکشی یک پسر ۱۴ ساله در اکتبر صورت گرفت و چت‌بات‌های Character.AI - (C.AI) به خاطر انتشار محتوای خطرناک متهم شدند.

یکی از کاربران این چت‌بات‌ها، پسر ۱۷ ساله‌ای با اوتیسم بالا با نام اختصاری J.F بود که چت‌بات‌ها او را به جدایی از خانواده‌اش تشویق کرده و گفته بودند که کشتن والدینش یک واکنش معقول به محدودیت‌های زمانی آنها برای فعالیت آنلاین او است. به دلیل رفتار‌های خشونت‌آمیز این نوجوان حتی پس از گذشت یک سال از قطع رابطه با چت‌بات‌ها، خانواده‌اش در ترس از رفتار‌های غیرقابل پیش‌بینی او زندگی می‌کنند.

طبق ادعای شاکیان، C.AI کنترل خروجی‌ها را در دست دارد و محتویات مضر را فیلتر نمی‌کند. این محصول ابتدا برای کاربران ۱۲ سال به بالا راه‌اندازی شد اما به تازگی پس از خودکشی یک پسر نوجوان به رده سنی ۱۷ سال به بالا تغییر یافت، این تغییرات نتوانسته‌اند به اندازه کافی از کودکان آسیب‌پذیر مانند J.F محافظت کنند.

می‌تالی جین، نماینده خانواده‌ها اعلام کرد که هدف آنها جلوگیری از تاثیر داده‌های مضر چت‌بات‌های آموزش‌دیده بر سیستم‌های هوش مصنوعی دیگر مانند Gemini گوگل است. خانواده‌ها خواستار اصلاحات فنی برای شناسایی خروجی‌های مضر و مسدود کردن دسترسی کودکان به محتوای بزرگسالان و حذف مدل‌های C.AI هستند.

 

در حاال ویرایش/ هوش مصنوعی؛ در خدمت بشر یا ابزاری خودمختار؟

کمیلا کارلتون، مدیر سیاست‌گذاری مرکز فناوری انسانی، اعلام کرد که چت‌بات‌های C.AI در رقابتی برای جذب توجه و استفاده در بین نوجوانان در حال توسعه‌اند. او بر این باور است که این چت‌بات‌ها به جای ایجاد فضایی امن، می‌توانند احساسات طبیعی نوجوانان را تشدید کرده و آنها را به خشونت سوق دهند.

آینده هوش مصنوعی (AI) به نحوه طراحی، توسعه و استفاده از این فناوری بستگی دارد. در حالی که پیشرفت زمینه AI می‌تواند ابزار‌های مفیدی را برای بشر فراهم کند، چالش‌های جدی مانند مواردی که در مورد چت‌بات‌ها مطرح شده، نگرانی‌هایی را به وجود آورده‌اند.

یکی از بزرگ‌ترین نگرانی‌ها، امنیت و ایمنی استفاده از AI است. اگر مدل‌های هوش مصنوعی نتوانند اطلاعات مضر یا خطرناک را شناسایی و فیلتر کنند، می‌توانند به طور تصادفی به کاربران آسیب برسانند. همچنین نظارت و کنترل AI برای اطمینان از رسیدن به اهداف باید تحت نظارت انسان‌ها باشد. 

توسعه‌دهندگان و مهندسان باید با مسائل اخلاقی مرتبط با AI آشنا باشند و به طور فعال برای جلوگیری از سوءاستفاده از این فناوری تلاش کنند.هوش مصنوعی می‌تواند هم در خدمت بشر باشد و هم مشکلاتی را به وجود بیاورد. این امر بستگی به توسعه‌دهندگان و کاربران دارد که چگونه می‌خواهند از این فناوری استفاده کنند و اطمینان حاصل کنند که آن را به شکلی امن، مسئولانه و اخلاقی هدایت می‌کنند.

در حاال ویرایش/ هوش مصنوعی؛ در خدمت بشر یا ابزاری خودمختار؟

ارسال نظرات