تعصب AI چیست و توسعه دهندگان چگونه می توانند از آن جلوگیری کنند؟


امکانات هوش مصنوعی به طور تصاعدی در حال گسترش است و اکنون هوش مصنوعی در صنایع از تبلیغات تا تحقیقات پزشکی مورد استفاده قرار می گیرد. استفاده از هوش مصنوعی در مناطق حساس تر ، مانند نرم افزار تشخیص چهره ، الگوریتم های استخدام و ارائه خدمات بهداشتی ، بحث در مورد سوگیری و انصاف را تقویت کرده است.

تعصب یکی از جنبه های روانشناسی انسانی است که به خوبی مطالعه شده است. تحقیقات به طور منظم ترجیحات و تعصبات ناخودآگاه ما را نشان می دهد ، و اکنون می بینیم که چگونه AI برخی از این تعصبات را در الگوریتم های آنها منعکس می کند.

بنابراین چگونه هوش مصنوعی معتاد می شود؟ و چرا این مهم است؟

هوش مصنوعی چگونه معتاد می شود؟

برای سادگی ، در این مقاله به الگوریتم های یادگیری ماشین و یادگیری عمیق به عنوان الگوریتم ها یا سیستم های هوش مصنوعی اشاره خواهیم کرد.

محققان و توسعه دهندگان می توانند از دو طریق تعصب را در سیستم های هوش مصنوعی وارد کنند.

اول ، تعصبات شناختی محققان می تواند به طور تصادفی در الگوریتم های یادگیری ماشین قرار گیرد. سوگیری شناختی برداشت های انسان ناخودآگاه است که می تواند بر نحوه تصمیم گیری افراد تأثیر بگذارد. این مسئله وقتی مسئله مهمی می شود که تعصبات بر افراد یا گروه هایی از مردم تأثیر بگذارد و به آنها آسیب برساند.

این تعصبات می توانند مستقیماً اما به طور تصادفی معرفی شوند ، یا محققان می توانند هوش مصنوعی را روی مجموعه داده هایی که خود تحت تأثیر سوگیری قرار گرفته اند ، آموزش دهند. به عنوان مثال ، هوش مصنوعی را می توان برای شناسایی چهره ها با استفاده از یک مجموعه داده که فقط شامل چهره هایی با پوست روشن است ، آموزش داد. در این حالت عملکرد هوش مصنوعی بهتر از برخورد با افراد جوان پوست است. این شکل از سوگیری AI به عنوان وراثت منفی شناخته می شود.

دوم ، تعصب زمانی می تواند رخ دهد که هوش مصنوعی روی مجموعه داده های ناقص آموزش ببیند. به عنوان مثال ، اگر هوش مصنوعی در یک مجموعه داده آموزش دیده شود که فقط شامل دانشمندان کامپیوتر باشد ، این نمایانگر کل جامعه نخواهد بود. این منجر به الگوریتم هایی می شود که در پیش بینی دقیق موفق نیستند.

نمونه های واقعی تعصب AI

نمونه های اخیر بسیاری از سوگیری های AI وجود دارد که به خوبی گزارش شده است و نشانگر خطر ورود این سوگیری ها است.

مراقبت های بهداشتی را در ایالات متحده اولویت بندی کنید

در سال 2019 ، الگوریتم یادگیری ماشین برای کمک به بیمارستان ها و شرکت های بیمه ایجاد شد که بیماران از برنامه های خاص بهداشتی بیشتر بهره مند می شوند. الگوریتم مبتنی بر پایگاه داده ای نزدیک به 200 میلیون نفر ، بیماران سفید پوست را به سیاه پوستان ترجیح می دهد.

مشخص شد که این امر به دلیل تصور غلط در الگوریتم در مورد هزینه های متغیر مراقبت های بهداشتی بین افراد سفید پوست و سیاه است و در نهایت تعصب 80٪ کاهش یافته است.

قطب نما

مشخصات مدیریت مجرم برای مجازاتهای جایگزین یا COMPAS ، الگوریتمی برای هوش مصنوعی است كه برای پیش بینی بازگشت برخی افراد به سو abuse استفاده طراحی شده است. الگوریتم دو برابر مثبت کاذب برای مجرمان سیاه در مقایسه با جنایتکاران سفید تولید می کند. در این حالت ، هر دو مجموعه داده و مدل معیوب هستند و منجر به سوگیری جدی می شوند.

آمازون

مشخص شده است که الگوریتم جذب نیرو توسط آمازون برای تعیین مناسب بودن نامزدها در سال 2015 به طور قابل توجهی برای مردان بیش از زنان سودمند است. دلیل این امر این بود که این مجموعه داده تقریباً منحصراً شامل مردان و CV آنها بود ، زیرا بیشتر کارمندان آمازون مرد هستند.

چگونه جلوی سوگیری AI را بگیریم

هوش مصنوعی در حال حاضر انقلابی در نحوه کار ما در هر صنعت ایجاد می کند. وجود سیستم های مغرضانه که فرایندهای حساس تصمیم گیری را کنترل می کنند ، کمتر از حد مطلوب است. در بهترین حالت ، کیفیت تقاضای مبتنی بر هوش مصنوعی را کاهش می دهد. در بدترین حالت ، به طور م harmثر به گروه های اقلیت آسیب می رساند.

نمونه هایی از الگوریتم های هوش مصنوعی وجود دارد که قبلاً برای کاهش تصمیم گیری انسان با کاهش تأثیر سوگیری شناختی انسان مورد استفاده قرار گرفته است. به دلیل نحوه آموزش الگوریتم های یادگیری ماشین ، می توانند دقت و تعصب کمتری نسبت به افراد در همان وضعیت داشته باشند و منجر به راه حل های عادلانه تری شوند.

اما ، همانطور که نشان دادیم ، عکس این قضیه نیز صادق است. خطراتی که باعث می شود هوش مصنوعی درگیر شود و تعصب افراد را افزایش دهد ممکن است از برخی از مزایای بالقوه بیشتر باشد.

در پایان ، هوش مصنوعی به خوبی داده هایی است که در مورد آموزش آزمایش شده است . توسعه الگوریتم های بی طرفانه به تجزیه و تحلیل مقدماتی گسترده و عمیق مجموعه داده ها نیاز دارد ، تا اطمینان حاصل شود که داده ها دارای تعصبات ضمنی نیستند. این دشوارتر از آن است که به نظر می رسد زیرا بسیاری از تعصبات ما ناخودآگاه هستند و اغلب شناسایی آنها دشوار است.

چالش های جلوگیری از سوگیری هوش مصنوعی

هنگام توسعه سیستم های هوش مصنوعی ، هر مرحله باید از نظر توانایی گنجاندن تعصب در الگوریتم ارزیابی شود. یک عامل کلیدی در جلوگیری از تعصب ، اطمینان از “جاسازی” عدالت و نه تعصب در الگوریتم است.

تعیین عدالت

سرمایه مفهومی است که تعریف آن نسبتاً دشوار است. در واقع ، این بحثی است که در آن هیچ گاه اجماعی حاصل نشده است. برای دشوارتر کردن کارها ، هنگام توسعه سیستم های AI باید مفهوم انصاف به صورت ریاضی تعریف شود.

به عنوان مثال ، از نظر الگوریتم استخدام آمازون ، آیا انصاف یک تقسیم کامل 50/50 بین زن و مرد به نظر می رسد؟ یا درصد متفاوتی؟

انتخاب شغل

اولین قدم در توسعه هوش مصنوعی تصمیم گیری برای دستیابی دقیق به آن است. اگر از مثال Kompass استفاده شود ، الگوریتم احتمال تکرار مجدد را پیش بینی می کند. پس از آن باید ورودی داده های صریح برای کار الگوریتم تعریف شود. این امر ممکن است مستلزم شناسایی متغیرهای مهم مانند تعداد جرایم قبلی یا نوع جرایم ارتکابی باشد.

شناسایی صحیح این متغیرها گام دشوار اما مهمی در اطمینان از منصفانه بودن الگوریتم است.

ایجاد یک مجموعه داده

همانطور که بحث شد ، علت اصلی سوگیری AI اطلاعات ناقص ، غیر نمایندگی یا مغرضانه است. همانند شناسایی افراد با هوش مصنوعی ، داده های ورودی باید قبل از فرآیند یادگیری ماشین به دقت از نظر تعصب ، مناسب بودن و کامل بودن بررسی شوند.

انتخاب توابع

در الگوریتم ها ، ویژگی های خاصی ممکن است در نظر گرفته شود یا نشود. مشخصات می تواند شامل جنسیت ، قومیت ، یا تحصیلات باشد – هر چیزی که ممکن است برای مأموریت الگوریتم مهم باشد. بسته به اینکه ویژگی ها انتخاب می شوند ، می توان بر دقت پیش بینی و تعصب الگوریتم تأثیر جدی گذاشت. مسئله این است که اندازه گیری بایاس الگوریتم بسیار دشوار است.

تعصب هوش مصنوعی برای ماندن در اینجا نیست

تعصب هوش مصنوعی زمانی اتفاق می افتد که الگوریتم ها به دلیل ورودی های مغرضانه پیش بینی های مغرضانه یا نادرست انجام دهند. این امر زمانی اتفاق می افتد که داده های مغرضانه یا ناقص در هنگام توسعه و آموزش الگوریتم منعکس یا تقویت شوند.

خبر خوب این است که با افزایش بودجه برای تحقیقات هوش مصنوعی ، احتمالاً شاهد روش های جدیدی برای کاهش و حتی از بین بردن سوگیری AI هستیم.



منبع

Author: terem

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *