5 روشی که تعصب هوش مصنوعی به کسب و کار شما آسیب می رساند

به عنوان یک دانشمند پژوهشی مدعو در Spotify، شیراگ شاه مورد تجاری را برای رسیدگی به سوگیری ها در سیستم های مبتنی بر هوش مصنوعی مشاهده کرد.

شاه گفت که او و همکارانش به این نتیجه رسیدند که الگوریتم‌هایی که Spotify برای ارائه توصیه‌های موسیقی استفاده می‌کند، می‌تواند به گونه‌ای تکامل یابد که فقط محبوب‌ترین آهنگ‌ها را توصیه کند، در نتیجه هنرمندان جدید و کمتر شناخته شده و همچنین آهنگ‌های کمتر محبوبی را که کاربران همچنان دوست دارند، حذف کنند.

شاه، دانشیار دانشکده اطلاعات در دانشگاه واشنگتن، مصمم بود که الگوریتم‌ها مجموعه‌ای تکراری از آهنگ‌ها را ایجاد می‌کنند که باعث می‌شود کاربران از این سرویس خسته شوند.

توصیه های محدود همچنین به هنرمندان و شرکت های مدیریت استعداد آنها آسیب می رساند و در نهایت به مدل تجاری Spotify که به کاربران راضی متکی است آسیب می رساند.

رهبران Spotify موافقت کردند و اقدام کردند. شاه گفت مدیران اجرایی در همه جا باید همین کار را بکنند.

شاه گفت: “ما باید به موضوع تعصب و انصاف در هوش مصنوعی بپردازیم. این نه تنها کار درستی است، بلکه برای تجارت مفید است.”

تعصب هوش مصنوعی چیست؟

برای مشاغل، تعصب هوش مصنوعی یک مسئله واقعی و مهم است که از نحوه ساخت هوش مصنوعی ناشی می شود.

هوش مصنوعی برای یادگیری به انسان متکی است. یک سیستم کامپیوتری مبتنی بر هوش مصنوعی بر روی الگوریتم های طراحی شده توسط انسان اجرا می شود، با مجموعه داده های انتخاب شده توسط انسان آموزش می بیند و از داده ها برای انجام وظایف محول شده توسط انسان استفاده می کند.

سیستم‌های هوش مصنوعی به گونه‌ای طراحی شده‌اند که در حین انجام وظایف خود یاد بگیرند، الگوها را در حجم عظیمی از داده‌ها به سرعت تشخیص دهند و سپس از آن بینش‌ها برای توصیه یا انجام یک عمل استفاده کنند. این سیستم از نتایج آن اقدامات، عملکرد مداوم و تجزیه و تحلیل خود از هر منبع داده جدید دیگری برای اصلاح کل فرآیند به طور مداوم استفاده می کند.

با این حال، نقص در این فرآیند می تواند سوگیری ایجاد کند – نتایج کج که می تواند منجر به پیش بینی های نادرست شود.

اغلب، داده های آموزشی که توسط پیش داوری ها یا فرضیات انسانی نادرست ساخته می شوند، باعث تعصب هوش مصنوعی می شوند. ارائه بیش از حد انواع داده‌های خاص می‌تواند باعث شود که سیستم به جای تخصیص وزن برابر به نقاط مختلف داده، بر آن داده تأکید بیشتری داشته باشد.

Shay Hershkovitz، سرپرست تحقیقات SparkBeyond برای ابتکارات تغییر آب و هوا و متخصص در تعصب هوش مصنوعی، توضیح داد: “این هر بینشی است که واقعاً واقعیت را نشان نمی دهد.”

این نتایج مغرضانه می‌تواند پیامدهای پرهزینه‌ای برای سازمان‌ها داشته باشد – از پیامدهای قانونی گرفته تا فرصت‌های مالی از دست رفته – بنابراین درک و مدیریت سوگیری‌ها برای همه رهبران شرکت‌هایی که هوش مصنوعی را اتخاذ می‌کنند به یک امر ضروری تبدیل شده است.

Yoav Schlesinger، مدیر و مدیر بخش اخلاقی هوش مصنوعی در Salesforce گفت: “شما باید از سوگیری های بالقوه و نحوه کاهش آنها آگاهی داشته باشید، زیرا کاهش تعصب به معنای مدل های دقیق تر و دقت بیشتر به معنای نتایج کسب و کار بهتر است.”

تعصب هوش مصنوعی در عمل

کارشناسان هوش مصنوعی به یک چت بات طراحی شده توسط مایکروسافت به نام Tay به عنوان نمونه ای از نحوه عملکرد سوگیری و اینکه چگونه می تواند به یک تجارت آسیب برساند اشاره کردند.

مایکروسافت از یادگیری ماشینی و فناوری‌های پردازش زبان طبیعی برای ایجاد Tay، یک ربات چت برای یادگیری و تعامل با جامعه آنلاین به‌گونه‌ای که گویی یک دختر نوجوان است، استفاده کرد و آن را در سال 2016 در توییتر منتشر کرد.

ما باید به موضوع تعصب و انصاف در هوش مصنوعی بپردازیم. چیراگ شاه دانشیار، دانشگاه واشنگتن

ترول های آنلاین به سرعت ربات را با زبان نژادپرستانه، زن ستیزانه و ضد یهود بمباران کردند. بیان بیش از حد سخنان نفرت انگیز و فقدان قوانینی که از یادگیری و تکرار آن زبان چت بات جلوگیری می کند، Tay را به سرعت به ارسال پیام های مضر سوق داد.

در نتیجه، مایکروسافت آزمایش را در همان روز به حالت تعلیق درآورد.

کارشناسان گفتند این حادثه نشان می دهد که چگونه تعصب هوش مصنوعی می تواند به شرکت ها آسیب برساند. یک سیستم هوش مصنوعی مغرضانه می تواند به اعتبار و شهرت یک شرکت آسیب برساند و در عین حال نتایج ناعادلانه و مضر یا بی فایده ای را نیز به همراه داشته باشد.

تعصب هوش مصنوعی در تجارت

چگونه تعصب هوش مصنوعی به تجارت آسیب می زند

کارشناسان پنج راه خاص را که سوگیری هوش مصنوعی می تواند برای یک سازمان مضر باشد، برجسته کردند:

  1. مسائل اخلاقی. مجری قانون و برخی از نهادهای خصوصی در حال حاضر از فناوری تشخیص چهره برای شناسایی استفاده می کنند، حتی به عنوان فناوری ثابت کرده است که مشکل ساز است. پلیس افرادی را دستگیر کرده و به زندان انداخته است که این فناوری به اشتباه آنها را شناسایی کرده است. این موضوع باعث ایجاد سؤالاتی در مورد اخلاقیات استفاده از فناوری تشخیص چهره شده و باعث شده است که برخی از دولت‌ها و شرکت‌های محلی استفاده از آن را ممنوع کنند. گوگل همچنین یک مشکل بسیار عمومی با هوش مصنوعی. هنگامی که برای اولین بار برنامه Photos خود را در سال 2015 راه اندازی کرد، فناوری تشخیص عکس آن یک زوج سیاه پوست را به عنوان گوریل برچسب گذاری کرد. گوگل زمانی که تصمیم گرفت با حذف برچسب های مربوط به نخستی ها به جای توسعه فناوری که می تواند تمایزات دقیقی ایجاد کند، به این مشکل رسیدگی کند، انتقادهای بیشتری را به خود جلب کرد.
  2. صدمه به شهرت شیوه‌های استخدام آمازون با هوش مصنوعی در سال 2018، زمانی که مشخص شد مدل‌های رایانه‌ای آن – که عمدتاً بر روی رزومه‌های ارسال شده توسط مردان آموزش داده شده بودند- در مورد متقاضیان زن تعصب دارند، مطبوعات منفی را به همراه داشت. هرشکوویتز گفت که جامعه در برابر چنین گام های نادرستی تحمل کمتری کرده است. او افزود که بسیاری – به ویژه آنهایی که در جمعیت هزاره و نسل Z هستند – مایلند شرکت ها را به خاطر اشتباهاتشان طرد کنند.
  3. فرصت های از دست رفته هوش مصنوعی اغلب برای کمک به کسب‌وکارها در پیش‌بینی تقاضای مشتری استفاده می‌شود تا بتوانند منابع کافی از اقلام مناسب برای مخاطبان هدف داشته باشند. اما سوگیری‌ها می‌توانند چنین معادلاتی را از بین ببرند و شرکت‌ها را با محصولات و خدمات با تقاضای بسیار زیاد یا بسیار کم مواجه کنند.
  4. عدم اعتماد کاربران کارمندانی که می بینند سرمایه گذاری های هوش مصنوعی شرکتشان نتایج ضعیفی دارد، به آن اعتماد نخواهند کرد و بنابراین از آن استفاده نخواهند کرد، حتی اگر مهندسان هوش مصنوعی به تعصبات رسیدگی کنند و فرآیندها را بهبود بخشند. در نتیجه، مدیران متوجه خواهند شد که گنجاندن بینش‌های تولید شده توسط هوش مصنوعی در تصمیم‌گیری زمان بیشتری طول می‌کشد، بنابراین مشاهده بازده سرمایه‌گذاری‌های مرتبط با هوش مصنوعی مدت بیشتری طول می‌کشد. سوتلانا سیکولار، تحلیلگر گارتنر می‌گوید: «بزرگ‌ترین مانع برای موفقیت در هوش مصنوعی، پذیرش هوش مصنوعی است و بزرگترین مانع برای پذیرش هوش مصنوعی اعتماد است.
  5. مشکلات مقرراتی و انطباق. به عنوان مثال، اگر یک موسسه مالی از الگوریتم یا داده های مشکل زا استفاده می کند که نژاد یا جنسیت را در تصمیم گیری های وام معرفی می کند، در نظر بگیرید. سیکولار گفت، آنها حتی ممکن است آگاه نباشند که دارند این کار را انجام می دهند. او توضیح داد که برخی از اطلاعات، مانند اسامی، می‌تواند به‌عنوان نیابتی برای دسته‌بندی و شناسایی متقاضیان به روش‌های غیرقانونی باشد. با این حال، حتی اگر سوگیری غیرعمدی باشد، همچنان سازمان را در تضاد با الزامات نظارتی قرار می‌دهد و می‌تواند منجر به محرومیت ناعادلانه گروه‌های خاصی از مردم از وام یا خطوط اعتباری شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا
به بالای صفحه بردن