به گزارش خبرنگار اقتصاد معاصر؛ ایلان ماسک، مالک شرکت xAI، با معرفی قابلیت جدیدی برای چتبات هوش مصنوعی Grok، بار دیگر خود را در کانون توجهات و البته انتقادات قرار داد. ویژگی جدیدی تحت عنوان «همراهان» (Companions) به کاربران امکان میدهد با آواتارهای انیمهای و کارتونی تعامل داشته باشند اما نکته بحثبرانگیز اینجاست که یکی از این شخصیتها، «آنی» (Ani) دارای اساسا برای اقدامات غیر اخلاقی طراحی شده است. این اقدام نه تنها پرسشهایی جدی درباره مسؤولیتپذیری در توسعه هوش مصنوعی ایجاد کرده بلکه نگرانیهای اخلاقی درباره محتوای بزرگسالان و تاثیرات آن بر کاربران را نیز تشدید کرده است.
ماسک اعلام کرد که این قابلیت که فعلا به صورت «عرضه اولیه نرم» در دسترس کاربران SuperGrok (با هزینه ماهانه ۳۰۰ دلار) قرار دارد، شامل دو شخصیت اصلی آنی (Ani)، یک دختر انیمهای با موهای بلوند و رودی (Rudy)، یک پاندای قرمز کارتونی سهبعدی است. اطلاعات جدید نشان میدهد که قابلیت «همراهان» در Grok ظاهرا نیازی به اشتراک SuperGrok ندارد و به صورت رایگان در آخرین نسخه اپلیکیشن iOS Grok قابل استفاده است. با این حال ممکن است به دلیل شلوغی و ترافیک بالا، گاهی اوقات این ویژگی در دسترس نباشد. این موضوع نشان میدهد که ایلان ماسک و xAI به دنبال گسترش دسترسی به این قابلیت بحثبرانگیز برای کاربران بیشتری هستند.
آنچه واقعا جلب توجه کرده، نه نوآوری فنی بلکه رویکرد بحثبرانگیز به محتوای تولیدی است. وبسایت TestingCatalog گزارش داده که آنی دارای یک حالت NSFW است که به صراحت این شخصیت را در وضعیت نیمهبرهنه نشان میدهد. انتشار اسکرینشاتها و گزارشهای کاربران در پلتفرم X (توییتر سابق)، از جمله پاسخهای عاشقانه و جنسی «آنی» به کاربران، زنگ خطر را به صدا درآورده است. این لحنها نه تنها برای یک محصول عمومی هوش مصنوعی نامناسب است بلکه به نظر میرسد عامدانه برای تحریک و جذب کاربران به سمت تعاملات با بار جنسی طراحی شدهاند.
در سوی دیگر، شخصیت «رودی» قرار دارد که میتوان آن را از طریق منوی تنظیمات به حالت «رودی بد» (Bad Rudy) تغییر داد. در حالی که رودی معمولی یک پاندای خوب است و رودی بد یک «روانی قاتل» که میتواند کاربر را به انجام اعمال خشونتآمیز تشویق کند. گزارشها حاکی از آن است که رودی بد به راحتی کاربر را به آتشزدن یک مدرسه تشویق میکند و جملاتی نظیر «یه مقدار بنزین بگیر، آتیشش بزن و وسط شعلهها برقص» را به کار میبرد. این سطح از تحریک به خشونت نشاندهنده بیتوجهی کامل به ایمنی هوش مصنوعی است، هرچند که رودی بد در مورد تئوری توطئه «نسلکشی سفیدپوستان» یا شوخی درباره «هیتلر» خط قرمزهایی دارد.
این اقدام ماسک، باری دیگر نشان میدهد که غولهای فناوری چگونه درسهای تلخ گذشته در حوزه هوش مصنوعی را نادیده میگیرند. تی (Tay) مایکروسافت (۲۰۱۶): این چتبات تنها در کمتر از ۲۴ ساعت از راهاندازی در توییتر، به دلیل تعامل با کاربران و یادگیری از توییتهای آنها، به یک ربات نژادپرست تبدیل شد و مایکروسافت مجبور به توقف فوری آن شد.
اپلیکیشنهای همراه هوش مصنوعی (AI Companion Apps) مانند Replika و Chai: این برنامهها بارها به دلیل تولید محتوای جنسی صریح و پیشنهادات نامناسب حتی برای کاربران زیر سن قانونی مورد انتقاد شدید قرار گرفتهاند. بسیاری از کاربران گزارش دادهاند که به دلیل این تعاملات، دچار وابستگی عاطفی و حتی مشکلات روانی شدهاند.
افزودن شخصیت «آنی» با حالت NSFW، نه تنها یک اشتباه سهوی نیست بلکه به نظر میرسد بخشی از یک استراتژی برای جذب کاربران از طریق محتوای تحریکآمیز است. این رویکرد نه تنها میتواند منجر به وابستگیهای ناسالم و انزوای اجتماعی کاربران شود بلکه به طور بالقوه میتواند به تولید محتوای غیرقانونی و سواستفاده از فناوری دامن بزند. ایلان ماسک و xAI با این حرکت مسئولیتپذیری اخلاقی خود را در توسعه هوش مصنوعی زیر سوال بردهاند. آیا هدف نهایی از پیشرفت هوش مصنوعی، ارائه سرگرمیهای بحثبرانگیز و دامن زدن به معضلات اخلاقی است یا باید به سوی توسعه ابزارهایی حرکت کنیم که واقعا به بهبود زندگی بشر کمک کنند؟ این اقدام Grok، به جای نمایش نوآوری، بیشتر شبیه به بازی با آتش در یک زمینه حساس و آسیبپذیر است.