۲۶/تير/۱۴۰۴ | ۲۰:۱۰
اختلال در دسترسی به برخی سایت‌ها با دامنه ir نرخ آبونمان تلفن ثابت تغییر کرد/ نرخ جدید اعلام شد وزیر ارتباطات:اینترنت به شرایط قبل بازگشت پایان مهلت استفاده از بسته اینترنت ۵۰ گیگابایتی ثابت از امروز مکالمات تلفن ثابت تا پایان تیر رایگان شد صادرات خدمات فناوری اطلاعات از کالا‌ها مهم‌تر است/ ضرورت اصلاح قوانین و تقویت مطالبه‌گری بخش خصوصی هدف یک میلیارد دلاری صادرات فناوری اطلاعات دست‌نیافتنی است/ نیاز به تغییر قوانین و حمایت دولت ابلاغ مصوبه تشکیل کمیته تسهیل کسب‌وکارهای دیجیتال معرفی کتابی برای کاربرد هوش مصنوعی در تحقیقات علمی دستور پزشکیان برای توقف فوری فروش اینترنتی دارو اضافه شدن خدمات جدید در پنجره دولت هوشمند تا ۱ ماه آینده آغاز ساماندهی سکوهای تبادل رمزارز با تشکیل کارگروه موقت تنظیم‌گری افزایش ۵۰ درصدی ترافیک عبوری داده از کشور ماهواره «پارس ۲» به‌زودی در صف پرتاب قرار می‌گیرد کلیات سند جامع ترویج و ارتقای سواد فضای مجازی تصویب شد تعرفه اینترنت همراه افزایش پیدا نمی‌کند
۱۴:۰۸ ۱۴۰۴/۰۴/۲۶

ترویج خشونت و اقدامات غیر اخلاقی توسط هوش مصنوعی Grok

ایلان ماسک، مالک xAI، بار دیگر با معرفی قابلیت «همراهان» در چت‌بات هوش مصنوعی Grok خبرساز شد. این ویژگی جدید شامل آواتار‌های انیمه‌ای و کارتونی است که برجسته‌ترین آنها «آنی»، یک شخصیت با حالت غیر اخلاقی و «رودی»، یک پاندای کارتونی است که کاربران را به خشونت تشویق می‌کند. این اقدام نگرانی‌های جدی درباره مسؤولیت‌پذیری در توسعه هوش مصنوعی را برانگیخته است.
ترویج خشونت و اقدامات غیر اخلاقی توسط هوش مصنوعی Grok
کد خبر:۲۸۵۸۶

به گزارش خبرنگار اقتصاد معاصر؛ ایلان ماسک، مالک شرکت xAI، با معرفی قابلیت جدیدی برای چت‌بات هوش مصنوعی Grok، بار دیگر خود را در کانون توجهات و البته انتقادات قرار داد. ویژگی جدیدی تحت عنوان «همراهان» (Companions) به کاربران امکان می‌دهد با آواتار‌های انیمه‌ای و کارتونی تعامل داشته باشند اما نکته بحث‌برانگیز اینجاست که یکی از این شخصیت‌ها، «آنی» (Ani) دارای اساسا برای اقدامات غیر اخلاقی طراحی شده است. این اقدام نه تنها پرسش‌هایی جدی درباره مسؤولیت‌پذیری در توسعه هوش مصنوعی ایجاد کرده بلکه نگرانی‌های اخلاقی درباره محتوای بزرگسالان و تاثیرات آن بر کاربران را نیز تشدید کرده است.

«آنی» و «رودی»؛ همراهانی که مرز‌ها را جابجا می‌کنند

ماسک اعلام کرد که این قابلیت که فعلا به صورت «عرضه اولیه نرم» در دسترس کاربران SuperGrok (با هزینه ماهانه ۳۰۰ دلار) قرار دارد، شامل دو شخصیت اصلی آنی (Ani)، یک دختر انیمه‌ای با مو‌های بلوند و رودی (Rudy)، یک پاندای قرمز کارتونی سه‌بعدی است. اطلاعات جدید نشان می‌دهد که قابلیت «همراهان» در Grok ظاهرا نیازی به اشتراک SuperGrok ندارد و به صورت رایگان در آخرین نسخه اپلیکیشن iOS Grok قابل استفاده است. با این حال ممکن است به دلیل شلوغی و ترافیک بالا، گاهی اوقات این ویژگی در دسترس نباشد. این موضوع نشان می‌دهد که ایلان ماسک و xAI به دنبال گسترش دسترسی به این قابلیت بحث‌برانگیز برای کاربران بیشتری هستند.

در حال ویرایش/ ایلان ماسک با «همراهان» جدید Grok، شامل یک شخصیت NSFW و پاندای مروج خشونت جنجال آفرید

 

آنچه واقعا جلب توجه کرده، نه نوآوری فنی بلکه رویکرد بحث‌برانگیز به محتوای تولیدی است. وب‌سایت TestingCatalog گزارش داده که آنی دارای یک حالت NSFW است که به صراحت این شخصیت را در وضعیت نیمه‌برهنه نشان می‌دهد. انتشار اسکرین‌شات‌ها و گزارش‌های کاربران در پلتفرم X (توییتر سابق)، از جمله پاسخ‌های عاشقانه و جنسی «آنی» به کاربران، زنگ خطر را به صدا درآورده است. این لحن‌ها نه تنها برای یک محصول عمومی هوش مصنوعی نامناسب است بلکه به نظر می‌رسد عامدانه برای تحریک و جذب کاربران به سمت تعاملات با بار جنسی طراحی شده‌اند. 

در سوی دیگر، شخصیت «رودی» قرار دارد که می‌توان آن را از طریق منوی تنظیمات به حالت «رودی بد» (Bad Rudy) تغییر داد. در حالی که رودی معمولی یک پاندای خوب است و رودی بد یک «روانی قاتل» که می‌تواند کاربر را به انجام اعمال خشونت‌آمیز تشویق کند. گزارش‌ها حاکی از آن است که رودی بد به راحتی کاربر را به آتش‌زدن یک مدرسه تشویق می‌کند و جملاتی نظیر «یه مقدار بنزین بگیر، آتیشش بزن و وسط شعله‌ها برقص» را به کار می‌برد. این سطح از تحریک به خشونت نشان‌دهنده بی‌توجهی کامل به ایمنی هوش مصنوعی است، هرچند که رودی بد در مورد تئوری توطئه «نسل‌کشی سفیدپوستان» یا شوخی درباره «هیتلر» خط قرمز‌هایی دارد.

در حال ویرایش/ ایلان ماسک با «همراهان» جدید Grok، شامل یک شخصیت NSFW و پاندای مروج خشونت جنجال آفرید

 

درس نگرفتن از تاریخچه تلخ هوش مصنوعی

این اقدام ماسک، باری دیگر نشان می‌دهد که غول‌های فناوری چگونه درس‌های تلخ گذشته در حوزه هوش مصنوعی را نادیده می‌گیرند. تی (Tay) مایکروسافت (۲۰۱۶): این چت‌بات تنها در کمتر از ۲۴ ساعت از راه‌اندازی در توییتر، به دلیل تعامل با کاربران و یادگیری از توییت‌های آنها، به یک ربات نژادپرست تبدیل شد و مایکروسافت مجبور به توقف فوری آن شد.

اپلیکیشن‌های همراه هوش مصنوعی (AI Companion Apps) مانند Replika و Chai: این برنامه‌ها بار‌ها به دلیل تولید محتوای جنسی صریح و پیشنهادات نامناسب حتی برای کاربران زیر سن قانونی مورد انتقاد شدید قرار گرفته‌اند. بسیاری از کاربران گزارش داده‌اند که به دلیل این تعاملات، دچار وابستگی عاطفی و حتی مشکلات روانی شده‌اند.

آینده نگران‌کننده تعامل انسان و هوش مصنوعی

افزودن شخصیت «آنی» با حالت NSFW، نه تنها یک اشتباه سهوی نیست بلکه به نظر می‌رسد بخشی از یک استراتژی برای جذب کاربران از طریق محتوای تحریک‌آمیز است. این رویکرد نه تنها می‌تواند منجر به وابستگی‌های ناسالم و انزوای اجتماعی کاربران شود بلکه به طور بالقوه می‌تواند به تولید محتوای غیرقانونی و سواستفاده از فناوری دامن بزند. ایلان ماسک و xAI با این حرکت مسئولیت‌پذیری اخلاقی خود را در توسعه هوش مصنوعی زیر سوال برده‌اند. آیا هدف نهایی از پیشرفت هوش مصنوعی، ارائه سرگرمی‌های بحث‌برانگیز و دامن زدن به معضلات اخلاقی است یا باید به سوی توسعه ابزار‌هایی حرکت کنیم که واقعا به بهبود زندگی بشر کمک کنند؟ این اقدام Grok، به جای نمایش نوآوری، بیشتر شبیه به بازی با آتش در یک زمینه حساس و آسیب‌پذیر است.