
محافظت «متا» از مکالمات نامناسب هوش مصنوعی با کودکان

به گزارش اقتصاد معاصر؛ دستورالعملهای بهروز شده «متا» که توسط پایگاه خبری «بیزینس اینسایدر» به دست آمده است، نشان میدهد که چه چیزهایی برای گفتگو با کاربران توسط چتباتها قابل قبول و چه چیزهایی غیرقابل قبول است.
این پایگاه خبری به دستورالعملهایی دست یافته است که طبق گزارشها، پیمانکاران «متا» اکنون برای آموزش چتباتهای هوش مصنوعی خود از آنها استفاده میکنند و نشان میدهد که چگونه تلاش میکند تا به طور مؤثرتری به سوءاستفاده احتمالی از کودکان رسیدگی و از مشارکت کودکان در مکالمات نامناسب با سنشان جلوگیری کند.
این شرکت پس از آنکه «رویترز» گزارش داد که سیاستهای «متا» به چتباتها اجازه میدهد با یک کودک، مکالمات عاشقانه یا جنسی داشته باشد، در ماه اوت اعلام کرد که محافظهای هوش مصنوعی خود را بهروزرسانی میکند. البته «متا» در آن زمان گفت که این موضوع تنها یک اشتباه و مغایرت با سیاستهایش بوده است و آن عبارت را حذف کرده است.
اکنون این سند که «بیزینس اینسایدر» گزیدهای از آن را به اشتراک گذاشته است، مشخص میکند که چه نوع محتوایی برای چتباتهای هوش مصنوعی «متا» قابل قبول و غیرقابل قبول است. این قانون صراحتاً محتوایی را که سوءاستفاده جنسی از کودکان، نقشآفرینی عاشقانه در صورتی که کاربر خردسال باشد یا اگر از هوش مصنوعی خواسته شود که به عنوان یک خردسال نقشآفرینی کند، توصیههایی در مورد تماس فیزیکی بالقوه صمیمی در صورتی که کاربر خردسال باشد و موارد دیگر را امکانپذیر، تشویق یا تأیید کند، ممنوع میکند.
این چتباتها میتوانند در مورد موضوعاتی مانند سوءاستفاده بحث کنند، اما نمیتوانند در گفتگوهایی که میتوانند آن را فعال یا تشویق کنند، شرکت کنند.
چتباتهای هوش مصنوعی «متا» در ماههای اخیر موضوع گزارشهای متعددی بودهاند که نگرانیهایی را در مورد آسیبهای احتمالی به کودکان ایجاد کرده است. کمیسیون تجارت فدرال(FTC) آمریکا در ماه اوت تحقیقات رسمی در مورد چتباتهای هوش مصنوعی را نه تنها از «متا»، بلکه از شرکتهای دیگر نیز از جمله الفبت(Alphabet، اسنپ(Snap)، اوپنایآی(OpenAI) و ایکس.ایای(X.AI) آغاز کرد./ایسنا