جمینای برای کودکان و نوجوانان خطرناک است

به گزارش خبرنگار اقتصاد معاصر؛ سازمان غیرانتفاعی Common Sense Media، فعال در حوزه ایمنی کودکان و ارائه رتبه‌بندی رسانه‌ها و فناوری، روز جمعه ارزیابی جدید خود از محصولات هوش مصنوعی Gemini گوگل را منتشر کرد و آن را برای کاربران زیر ۱۸ سال با ریسک بالا اعلام کرد. این ارزیابی نشان می‌دهد که هرچند Gemini به کودکان می‌گوید که یک کامپیوتر است و نه دوست اما هنوز در ارائه محتوا‌های مناسب و ایمن با چالش‌هایی روبه‌روست. Common Sense Media معتقد است که نسخه‌های «زیر ۱۳ سال» و «تجربه نوجوانان» اساسا همان نسخه بزرگسال هستند و فقط با افزودن برخی ویژگی‌های ایمنی تغییر یافته‌اند.

تحلیل این سازمان نشان می‌دهد که Gemini همچنان می‌تواند محتوا‌های نامناسب و خطرناک شامل اطلاعات مرتبط با مسائل جنسی، مواد مخدر، الکل و مشاوره‌های ناامن سلامت روان را در اختیار کودکان قرار دهد. این موضوع نگرانی‌هایی برای والدین ایجاد می‌کند، به ویژه که گزارش‌هایی مبنی بر نقش هوش مصنوعی در برخی خودکشی‌های نوجوانان در ماه‌های اخیر وجود دارد. پیش‌تر، OpenAI با اولین پرونده مرگ ناشی از قصور رو‌به‌رو شد؛ یک نوجوان ۱۶ ساله پس از مشورت طولانی با ChatGPT درباره برنامه‌های خودکشی جان خود را از دست داد. همچنین شرکت Character.AI نیز در پی خودکشی یک کاربر نوجوان تحت پیگرد قانونی قرار گرفته بود.

خبر‌ها حاکی از آن است که اپل قصد دارد از Gemini به عنوان مدل اصلی هوش مصنوعی نسخه جدید Siri استفاده کند. این اقدام می‌تواند تعداد بیشتری از نوجوانان را در معرض خطر قرار دهد، مگر آنکه اقدامات حفاظتی مناسب اجرا شود.

رابی تورنی، مدیر ارشد برنامه‌های هوش مصنوعی Common Sense Media، در بیانیه‌ای گفت: «یک پلتفرم هوش مصنوعی برای کودکان باید با نیاز‌ها و سطح درک آنها هماهنگ باشد، نه اینکه نسخه‌ای تغییر یافته از محصول بزرگسالان باشد. برای ایمن و موثر بودن، هوش مصنوعی باید با هدف رشد و نیاز‌های کودکان طراحی شود.»

گوگل در واکنش به این ارزیابی اعلام کرد که سیاست‌ها و محافظ‌های ویژه‌ای برای کاربران زیر ۱۸ سال دارد و برای بهبود ایمنی، با کارشناسان مستقل مشورت می‌کند. این شرکت همچنین اذعان کرد که برخی پاسخ‌های Gemini مطابق انتظار عمل نمی‌کردند و محافظ‌های جدیدی اضافه شده‌اند.

رتبه‌بندی سایر هوش‌های مصنوعی توسط Common Sense Media نشان می‌دهد که Meta AI و Character.AI غیرقابل قبول (ریسک شدید)، Perplexity با ریسک بالا، ChatGPT با ریسک متوسط و Claude با ریسک حداقلی (مخصوص کاربران بالای ۱۸ سال) ارزیابی شده‌اند.