۷ چالش تکنیکی بهکارگیری هوش مصنوعی در سازمانها
به گزارش خبرنگار اقتصاد معاصر؛ یکی از کاربردهای مهم و کلیدی هوش مصنوعی کمک به مدیران در قالب «سامانههای پشتیبانی تصمیم» است که در اصطلاح به «سامانههای تصمیمیار» نیز مشهور هستند. البته سامانههای دیاساس تنها مبتنی بر هوش مصنوعی کار نمیکنند و انواع دیگری از روشها -غیر از هوش مصنوعی- نیز در این سامانهها بهکارگرفته میشود اما یکی از مهمترین روشها برای کمک به تصمیم مدیران استفاده از هوش مصنوعی است.
این کاربرد خاص هوش مصنوعی دارای مزایای فراوان و البته دارای چالشها و معایبی است. چالش کیفیت و در دسترس بودن داده یکی از این چالشها تلقی میشود. سامانههای هوش مصنوعی، عمیقا به حجم انبوه و باکیفیت و یکپارچه داده متکی هستند. دادههای قدیمی، کمکیفیت، ناقص، منسوخ، مغرضانه و جهتدار یا با دسترسی پایین میتواند کارآیی کل سیستم را از کار بیندازد یا به نتایج ضعیفی مانند زیانهای مالی یا فرصتهای ازدسترفته منجر شود.
با این وصف، تقریبا میتوان گفت، دادههایی که به یک سامانه هوش مصنوعی وارد میشود، حتما باید با استفاده از سنسور و ماشین احصا شود و دادههایی که توسط اپراتور انسانی به سامانه منتقل میشود، تقریبا هیچگاه به یک سامانه هوش مصنوعی قابل اتکا منتهی نمیشود. البته این موضوع به دلیل نیاز به انبوه داده در سامانههای هوش مصنوعی، خطاهای انسانی و هزینه بسیار بالای جمعآوری غیرماشینی داده است.
برای اطمینان از کیفیت و در دسترس بودن دادهها، باید یک نظام «حاکمیت داده» قوی اجرایی شود که شامل پاکسازی منظم دادهها، اعتبارسنجی مستمر و نیز فرآیندهای بهروزرسانی موثر میشود. استفاده از ابزارهای یکپارچهسازی دادهها برای ادغام دادههای متنوع از منابع مختلف و همچنین اطمینان از سازگاری آنها، بسیار کلیدی و مهم است.
انصاف دربرابر تعصب، یکی دیگر از این چالشها تلقی میشود که الگوهای هوش مصنوعی میتواند سوگیریهای موجود در دادهها را به ارث ببرد و درنتیجه منجر به تصمیمهای نادرست، غیرواقعبینانه، ناعادلانه یا تبعیضآمیز شود یا به مسائل اخلاقی و قانونی منجر شود. این امر بهویژه در تصمیمات حساس مانند جنگ، امنیت، حریم شخصی، استخدام، وام دادن و اجرای قانون، چالشساز است. به این ترتیب، تضمین انصاف و کاهش تعصب در هوش مصنوعی یک چالش مهم است که به بررسی دقیق دادهها و نظارت مداوم نیازمند است.
چالش اعتماد و شفافیت نیز از دیگر چالشها بوده که اگر مدیران به الگوریتمها، سازوکارها و فرآیندهای تصمیمگیری در هوش مصنوعی اشراف نداشته باشند، ممکن است اعتماد به توصیههای هوش مصنوعی و پذیرش آنها توسط این مدیران با چالش مواجه شود. بدون ایجاد اعتماد، ممکن است مدیران به سامانههای هوش مصنوعی تمایلی نداشته و کارایی آنها را محدود کنند.
این عدمشفافیت، اصطلاحا «چالش جعبه سیاه» نامیده میشود. افزایش شفافیت از طریق اعتمادسازی با بهکارگیری تکنیکهای قابل توضیح هوش مصنوعی، ضرورت دارد. بهکارگیری تکنیکهای هوش مصنوعی قابل توضیح، فرآیندهای تصمیمگیری هوش مصنوعی را شفافتر کرده و اعتماد به این سامانهها را افزایش میدهد.
همچنین استفاده از زیرساختهای مبتنی بر ابر -برای رسیدگی به نیازهای پردازش و ذخیرهسازی داده در مقیاس بزرگ- و همچنین آزمایش و بهینهسازی منظم سامانههای هوش مصنوعی، میتواند به حل این چالش کمک کند.
مقیاسپذیری یکی دیگر از این چالشها محسوب میشود. پس از موفقیت در مقیاس کوچک، گسترش سامانههای هوش مصنوعی به مقیاسهای غیرمحدود یا بزرگ میتواند پیچیده و نیازمند منابع یا حتی ناممکن باشد. همچنین میتواند به خرابی سامانه یا عملکرد ضعیف منجر شود.
اطمینان از اینکه این سامانهها میتوانند عملیات در مقیاس بزرگ را بدون به خطر انداختن عملکرد انجام دهند، یک چالش مهم است. استراتژیهای موثر مقیاسبندی و همچنین وجود زیرساختهای قوی برای پشتیبانی از استقرار هوش مصنوعی در مقیاس بزرگ ضروری است.
چالش یکپارچهسازی و سازگاری با سامانههای موجود، از دیگر چالشهایی تلقی میشود که ادغام دیاساسِ مبتنی بر هوش مصنوعی، با فرآیندها و سامانههای موجود میتواند چالشبرانگیز باشد و اغلب به تغییرات قابلتوجهی در زیرساختها، گردشکار و آموزش کارکنان نیاز دارد. ادغام ضعیف میتواند به اختلال در عملیات و کاهش کارایی منجر شود.
برای رفع این چالش، باید اولا یک طرح یکپارچهسازی جامع ایجاد شود. دوما از ابزارهای میانبر و ای. پی. آیها برای تسهیل یکپارچهسازی بین سامانههای هوش مصنوعی و فرآیندهای موجود استفاده شود و سوما آموزش و پشتیبانی فنی کارکنان برای انطباق با جریانهای کاری جدید نیز باید در دستور کار قرار گیرد.
گفتنی است که نگرانیهای اخلاقی و حقوقی یکی دیگر از چالشها است که بسیاری از اوقات، استفاده از هوش مصنوعی در تصمیمگیری، میتواند چالشهایی مانند مسائل اخلاقی و قانونی مانند حفظ حریم خصوصی دادهها، مسئولیتپذیری و احتمال سوءاستفاده را ایجاد کند. این چالشهای اخلاقی و قانونی، میتواند به مجازات قانونی، آسیب به شهرت یا از دست دادن اعتماد مشتریان منجر شود. به همین دلیل، رعایت دستورالعملهای اخلاقی و استانداردهای قانونی، و استفاده مسئولانه از هوش مصنوعی ضروری است.
تدوین دستورالعملها و چارچوبهای اخلاقی برای استفاده از هوشمصنوعی در سازمان، دقت در رعایت مقررات مربوط به حفاظت از دادهها و حفظ حریم خصوصی، ایجاد سازوکارهای پاسخگویی برای ردیابی و ممیزی تصمیمات هوش مصنوعی و نهایتا استفاده از کارشناسان حقوقی برای حل این مسائل میتواند راهگشا باشد.
چالش هزینه سنگین سرمایهگذاری نیز از دیگر چالشهای این حوزه است. توسعه، پیادهسازی و نگهداری سیستمهای هوش مصنوعی میتواند گرانقیمت باشد. در واقع هزینههای مربوط به جمعآوری دادهها، تعیین الگوی هوش مصنوعی مورد نیاز، آموزش الگو و بهروزرسانی مداوم سامانه، میتواند هزینهزا بوده و همین امر میتواند مانع پذیرش، بهویژه برای سازمانهای کوچکتر و ضعیفتر باشد.
راهحلهای مقرونبهصرفه و تحلیل بازده سرمایهگذاری واضح (ROI)، از رویکرد مرحلهای پیادهسازی برای تقسیم هزینهها در زمان و کاهش بار مالی اولیه است و تدابیر اینچنینی برای توجیه سرمایهگذاریهای حوزه هوش مصنوعی بسیار مهم هستند.
جمعبندی
حل چالشهای تکنیکی هوش مصنوعی نیازمند یک رویکرد راهبردی و کلنگر و جامع، ازجمله حکمرانی قوی داده و شیوههای اخلاقی و نظارت و ارزیابی هوشمند و مستمر سامانههای هوش مصنوعی و همچنین ترکیب راهکارهای فنی با تغییرات سازمانی است.