محافظت «متا» از مکالمات نامناسب هوش مصنوعی با کودکان

به گزارش اقتصاد معاصر؛ دستورالعمل‌های به‌روز شده‌ «متا» که توسط پایگاه خبری «بیزینس اینسایدر» به دست آمده است، نشان می‌دهد که چه چیزهایی برای گفتگو با کاربران توسط چت‌بات‌ها قابل قبول و چه چیزهایی غیرقابل قبول است.

این پایگاه خبری به دستورالعمل‌هایی دست یافته است که طبق گزارش‌ها، پیمانکاران «متا» اکنون برای آموزش چت‌بات‌های هوش مصنوعی خود از آنها استفاده می‌کنند و نشان می‌دهد که چگونه تلاش می‌کند تا به طور مؤثرتری به سوءاستفاده احتمالی از کودکان رسیدگی و از مشارکت کودکان در مکالمات نامناسب با سنشان جلوگیری کند.

این شرکت پس از آنکه «رویترز» گزارش داد که سیاست‌های «متا» به چت‌بات‌ها اجازه می‌دهد با یک کودک، مکالمات عاشقانه یا جنسی داشته باشد، در ماه اوت اعلام کرد که محافظ‌های هوش مصنوعی خود را به‌روزرسانی می‌کند. البته «متا» در آن زمان گفت که این موضوع تنها یک اشتباه و مغایرت با سیاست‌هایش بوده است و آن عبارت را حذف کرده است.

اکنون این سند که «بیزینس اینسایدر» گزیده‌ای از آن را به اشتراک گذاشته است، مشخص می‌کند که چه نوع محتوایی برای چت‌بات‌های هوش مصنوعی «متا» قابل قبول و غیرقابل قبول است. این قانون صراحتاً محتوایی را که سوءاستفاده جنسی از کودکان، نقش‌آفرینی عاشقانه در صورتی که کاربر خردسال باشد یا اگر از هوش مصنوعی خواسته شود که به عنوان یک خردسال نقش‌آفرینی کند، توصیه‌هایی در مورد تماس فیزیکی بالقوه صمیمی در صورتی که کاربر خردسال باشد و موارد دیگر را امکان‌پذیر، تشویق یا تأیید کند، ممنوع می‌کند.

این چت‌بات‌ها می‌توانند در مورد موضوعاتی مانند سوءاستفاده بحث کنند، اما نمی‌توانند در گفتگوهایی که می‌توانند آن را فعال یا تشویق کنند، شرکت کنند.

چت‌بات‌های هوش مصنوعی «متا» در ماه‌های اخیر موضوع گزارش‌های متعددی بوده‌اند که نگرانی‌هایی را در مورد آسیب‌های احتمالی به کودکان ایجاد کرده است. کمیسیون تجارت فدرال(FTC) آمریکا در ماه اوت تحقیقات رسمی در مورد چت‌بات‌های هوش مصنوعی را نه تنها از «متا»، بلکه از شرکت‌های دیگر نیز از جمله الفبت(Alphabet، اسنپ(Snap)، اوپن‌ای‌آی(OpenAI) و ایکس.ای‌ای(X.AI) آغاز کرد./ایسنا