به گزارش پایگاه خبری دانا، گروه دانش و فناوری:
یک سیستم هوش مصنوعی که برای غربالگری رزومه متقاضیان کار استفاده میشود، به طور سیستماتیک رزومه زنان را برای پستهای مدیریتی رد میکند. یا یک نرمافزار تشخیص چهره که در شناسایی افراد با پوست تیره دقت بسیار کمتری دارد. این داستانهای علمی-تخیلی نیستند؛ اینها واقعیتهای نگرانکننده دنیای امروز ما هستند. هوش مصنوعی، این میهمان پرزرق و برق عصر دیجیتال، گاهی میتواند آینهای از تاریکترین تعصبهای جامعه ما باشد. اما چرا این اتفاق میافتد و مهمتر از آن، چگونه میتوانیم نقشه فنی این هوش را به گونهای بازنویسی کنیم که عادلانه، منصفانه و اخلاقی باشد؟
ریشه مشکل: هوش مصنوعی آینه ماست
حقیقت اساسی و کمی ترسناک این است: هوش مصنوعی ذاتاً نژادپرست یا جنسیتزده به دنیا نمیآید. این ما هستیم که این ویژگیها را به آن تزریق میکنیم. الگوریتمهای یادگیری ماشین مانند کودکانی تشنه دانش هستند که با "داده" تغذیه میشوند. اگر دادههای آموزشی ما مملو از کلیشهها و پیشداوریهای تاریخی باشد، هوش مصنوعی نیز آنها را میآموزد و حتی تقویت میکند.
به عنوان مثال، اگر یک الگوریتم با مجموعهای از رزومههای ۵۰ سال گذشته یک صنعت خاص آموزش ببیند که در آن مردان بر پستهای فنی و مدیریتی تسلط داشتهاند، به طور ناخودآگاه یاد میگیرد که بین "مدیریت" و "مرد بودن" ارتباط برقرار کند. یا اگر دادههای مربوط به وامدهی بانکی از یک منطقه خاص با پیشینه قومی مشخصی به دلیل تبعیضهای گذشته، نرخ بالاتری را نشان دهد، الگوریتم ممکن است به اشتباه نتیجه بگیرد که این نژاد یا قومیت است که خطرناک است، نه شرایط اجتماعی-اقتصادی حاکم بر آن منطقه. مشکل از "یادگیری" است، اما از چیزهای اشتباهی که ما به آن میآموزیم.
پیامدهای ملموس: وقتی خطای الگوریتم زندگی را تغییر میدهد
این تعصبها تنها یک بحث آکادمیک نیست. آنها consequences واقعی و ملموسی دارند. این موضوع میتواند به معنای محروم شدن یک فرد شایسته از یک شغل رویایی، رد درخواست وام یک خانواده سختکوش، یا حتی worse از آن، متهم شدن اشتباه یک فرد به جرمی که مرتکب نشده، تنها به خاطر عملکرد ضعیف یک نرمافزار تشخیص چهره باشد. اینجا دیگر پای جان و آزادی مردم در میان است. وقتی هوش مصنوعی در سیستم قضایی، پزشکی، مالی و استخدامی نفوذ میکند، بیطرفی آن به یک مسئله امنیتی و انسانی تبدیل میشود. ما نمیتوانیم اجازه دهیم یک "جعبه سیاه" الگوریتمی، آینده و فرصتهای میلیونها انسان را قربانی تعصبهای ناخواسته کند.
راه حل: ساختن آیندهای عادلانه، با قصد و غرض
خوشبختانه، جامعه فناوری و پژوهشگران اخلاق هوش مصنوعی بیکار ننشستهاند. راهکارهای عملی برای کاهش این تعصبها و ساخت الگوریتمهای منصفانهتر وجود دارد. این راه یک شبه طی نمیشود، اما مسیر آن مشخص است:
تنوع بخشیدن به دادهها (Diversify the Data):
اولین و حیاتیترین قدم، استفاده از مجموعه دادههای گسترده، متنوع و فراگیر است. ما باید دادههایی جمعآوری کنیم که تمامی جنبههای جامعه از جمله نژادها، جنسیتها، سنین، قومیتها، تواناییها و طبقات اجتماعی مختلف را به درستی نمایندگی کند. داده، غذای هوش مصنوعی است و ما باید برای آن یک رژیم غذایی متعادل فراهم کنیم.
تنوع در تیمهای سازنده (Diversify the Teams):
هوش مصنوعی را چه کسانی میسازند؟ اگر تیمهای توسعهدهنده فقط از یک جنسیت یا یک نژاد خاص تشکیل شده باشند، به طور ناخودآگاه دیدگاهها و تجربیات محدودی در طراحی و تست محصولات خواهند داشت. گنجاندن افراد با پیشینههای گوناگون (اعم از جامعهشناسان، فیلسوفان اخلاق و فعالان اجتماعی) در کنار مهندسان، میتواند به شناسایی زودهنگام تعصبهای پنهان کمک شایانی کند.
شفافیت و توضیحپذیری (Transparency and Explainability):
ما باید از مدلهای "جعبه سیاه" فاصله بگیریم. الگوریتمها باید تا حد امکان قابلیت توضیح و داشته باشند. یعنی بتوان فهمید که یک تصمیم خاص بر چه اساسی و با چه وزنهایی گرفته شده است. این شفافیت نه تنها اعتماد عمومی را جلب میکند، بلکه به توسعهدهندگان اجازه میدهد خطاها و تعصبها را ردیابی و اصلاح کنند.
نظارت مستمر و (Continuous Auditing a Monitoring):
کار با استقرار یک مدل تمام نمیشود. ما نیاز به فرآیندهای نظارتی و مستمر داریم. باید عملکرد الگوریتمها در دنیای واقعی به طور دائم زیر ذرهبین باشد تا در صورت بروز رفتارهای تبعیضآمیز، سریعاً شناسایی و اصلاح شوند. این یک فرآیند "یادگیری مادامالعمر" برای خود سیستم و سازندگان آن است.
تدوین چارچوبهای اخلاقی و مقرراتی (Ethical Frameworks and Regulations):
نمیتوان تنها به اراده خوب شرکتها تکیه کرد. دولتها و نهادهای بینالمللی باید چارچوبهای حقوقی و استانداردهای اجباری برای توسعه و استقرار هوش مصنوعی تدوین کنند. قوانینی که رعایت اصولی مانند حریم خصوصی، انصاف، شفافیت و مسئولیتپذیری را تضمین کند.
جمعبندی: هوش مصنوعی، آزمونی برای انسانیت ما
هوش مصنوعی یک تکنولوژی خنثی نیست؛ آن بازتابی از ارزشها، انتخابها و البته تعصبهای ماست. چالش تعصب در الگوریتمها، در حقیقت، یک چالش فنی عمیقاً انسانی است. این فناوری پتانسیل فوقالعادهای برای بهبود زندگی بشر دارد، اما تنها در صورتی این پتانسیل محقق میشود که با مسئولیتپذیری، آگاهی و تعهد به برابری هدایت شود. ساختن یک هوش مصنوعی اخلاقی، تنها به معنای نوشتن کد بهتر نیست؛ به معنای درک بهتر از خودمان و ساختن جامعهای عادلانهتر است. این بار بر دوش همه ماست: توسعهدهندگان، قانونگذاران، پژوهشگران و به عنوان شهروندانی که از این فناوری استفاده میکنیم. بیایید با همکاری یکدیگر، آیندهای را بسازیم که در آن هوش مصنوعی نه تنها باهوش باشد، بلکه خردمند و عادلانه نیز باشد.