[ad_1]

مروری بر تعصب الگوریتمی می گوید ، دولت باید نهادهای بخش دولتی را وادار کند تا در مورد استفاده از الگوریتم هایی که “زندگی را تحت تأثیر قرار می دهند” درباره افراد شفاف تر عمل کنند.

منتشر شده توسط مرکز اخلاق و نوآوری در داده ها (CDEI) ، نهاد مشورتی دولت انگلیس در زمینه استفاده مسئولانه از هوش مصنوعی (هوش مصنوعی) و سایر فناوری های مبتنی بر داده ، در این بازبینی 151 صفحه ای اقدامات مختلفی را پیشنهاد می کند که دولت ، نهادهای نظارتی و صنعت می تواند برای کاهش خطرات مرتبط با تعصب در تصمیم گیری الگوریتمی در کار باشد.

آدریان ولر ، عضو هیئت مدیره CDEI ، گفت: “بسیار حیاتی است که ما اکنون سخت تلاش می کنیم تا این حق را به دست آوریم زیرا تصمیم گیری الگوریتمی افزایش می یابد.” “دولت ، نهادهای نظارتی و صنعت باید با متخصصان میان رشته ای ، ذینفعان و مردم همکاری کنند تا اطمینان حاصل کنند که الگوریتم ها برای ارتقا fair انصاف استفاده می شوند ، نه اینکه آن را تضعیف کنند.

“مرکز اخلاق داده ها و نوآوری امروز با تمرکز بر افزایش شفافیت و پاسخگویی در فرایندهای تصمیم گیری که تأثیر قابل توجهی بر افراد دارند ، طیف وسیعی از اقدامات را برای کمک به انگلستان در جهت دستیابی به این هدف تعیین کرده است. این گزارش نه تنها یک نقشه راه برای مقابله با خطرات پیشنهاد می کند ، بلکه فرصتی را که استفاده خوب از داده ها برای رفع بی انصافی تاریخی و جلوگیری از سوگیری های جدید در زمینه های اصلی زندگی ارائه می دهد ، برجسته می کند. “

این بررسی خاطر نشان می کند که تعصب می تواند به روشهای مختلفی به سیستمهای تصمیم گیری الگوریتمی وارد شود. اینها شامل تعصب تاریخی است ، که در آن داده هایی که منعکس کننده تصمیمات انسان مغرضانه قبلی یا نابرابری های اجتماعی تاریخی برای ساخت مدل استفاده می شود ؛ سوگیری انتخاب داده ، که در آن روشهای جمع آوری داده استفاده می شود ، نماینده نیست. و تعصب طراحی الگوریتمی ، که در آن طراحی الگوریتم خود به معرفی بایاس منجر می شود.

تعصب همچنین می تواند به دلیل خطای انسانی وارد فرآیند تصمیم گیری الگوریتمی شود زیرا بسته به نحوه تفسیر یا استفاده انسان از خروجی های یک الگوریتم ، خطر ورود مجدد تعصب به فرآیند وجود دارد زیرا تعصبات خودآگاه یا ناخودآگاه خود را اعمال می کنند تصمیم نهایی

در این بررسی می گوید: “همچنین این خطر وجود دارد که با گذشت زمان توسط حلقه های بازخورد ، تعصب افزایش یابد ، زیرا مدل ها به تدریج بر روی داده های جدید تولید شده ، به طور کامل یا جزئی ، با استفاده از نسخه های قبلی مدل در تصمیم گیری ، آموزش می یابند.” “به عنوان مثال ، اگر از الگویی برای پیش بینی میزان جرم و جنایت براساس داده های دستگیری تاریخی برای اولویت بندی منابع پلیس استفاده شود ، در این صورت دستگیری در مناطق پر خطر می تواند بیشتر شود و عدم تعادل را تقویت کند.”

CDEI همچنین خاطرنشان کرد که “تصمیم گیری در مورد افراد مسئولیت اصلی بسیاری از بخشهای دولتی است” ، و به همین ترتیب ، دولت باید یک وظیفه شفافیت اجباری را برای کلیه سازمانهای بخش دولتی با استفاده از الگوریتم ها برای انجام این مسئولیت تعیین کند ، که کمک به “ایجاد و حفظ اعتماد عمومی” ، و همچنین معرفی سطح بالاتری از پاسخگویی.

“دولت برای اجرای دقیق این تعهد و اجرای آزمایشی اجرای آن باید پروژه ای را انجام دهد ، اما باید به انتشار فعال اطلاعات مربوط به نحوه تصمیم گیری برای استفاده از الگوریتم ، نوع الگوریتم ، چگونگی آن نیاز داشته باشد. در مراحل تصمیم گیری کلی و اقدامات انجام شده برای اطمینان از برخورد عادلانه با افراد استفاده شده است. “

“دفتر کابینه و خدمات بازرگانی تاج باید قراردادهای مدل و توافق نامه های چارچوبی را برای خریدهای بخش عمومی به روز کنند تا مجموعه ای از حداقل استانداردها در مورد استفاده اخلاقی از هوش مصنوعی را در خود بگنجانند ، با تمرکز ویژه بر سطح انتظارات شفافیت و توضیح ، و آزمایش های مداوم برای انصاف.”

اما CDEI گفت اگر این اطلاعات قابل فهم نباشد ، ممکن است در اطلاع رسانی عمومی ناتوان باشد و نگرانی بیشتری را ایجاد کند. بنا بر این ، هر نشریه مرتبط با شفافیت باید آسان باشد ، درک شود و از آن استفاده شود ، و کاملاً باید از استفاده در خدمت اهداف باریک ارتباطات یا دستکاری هدفمند مخاطبان جلوگیری شود.

CDEI گفت: “اگر شفافیت را در چارچوب تصمیماتی كه توسط بخش عمومی اتخاذ می شود در نظر بگیریم و اگر به خودی خود هدف تلقی نشود ، باید بتوانیم این خطرات را كاهش دهیم.” .

این دولت خواستار صدور رهنمودهایی شد که کاربرد قانون برابری در تصمیم گیری الگوریتمی را روشن می کند ، که باید شامل اطلاعاتی در مورد جمع آوری داده ها برای اندازه گیری تعصب و همچنین قانونی بودن تکنیک های مختلف کاهش تعصب باشد که می تواند منجر به مثبت شود تبعیض

سازمان ها در بخش های دولتی و خصوصی همچنین باید از داده ها برای شناسایی و کاهش تعصب فعالانه استفاده کنند ، به این معنی که آنها باید توانایی ها و محدودیت های ابزار الگوریتمی خود را درک کنند و به دقت بررسی کنند که چگونه رفتار منصفانه با افراد را تضمین می کنند.

اما CDEI هشدار داد: “با كاهش سوگیری نمی توان به عنوان یك مسئله كاملاً فنی برخورد كرد. این مستلزم بررسی دقیق سیاست های گسترده تر ، زمینه های عملیاتی و قانونی است. “

این بررسی توصیه می کند که دولت و نهادهای نظارتی راهنمایی روشنی در مورد چگونگی استفاده سازمانها از داده ها برای مقابله با سوگیری فعلی و تاریخی ارائه دهند ، این باید به این باور غلط بپردازد که قانون حفاظت از داده ها از جمع آوری یا استفاده از داده ها برای نظارت و کاهش تبعیض جلوگیری می کند.

Gemma Galdon Clavell ، مدیر مشاور ممیزی الگوریتمی الكترونیك مستقر در بارسلونا ، اتیكاس قبلاً به Computer Weekly گفته است كه چگونه الگوریتم های مجهز به هوش مصنوعی به عنوان ابزاری برای «تشخیص بایاس» استفاده شده است ، كه نشان می دهد چگونه می توان از همان فن آوری برای اجرای دوباره مثبت استفاده كرد در صورت وجود انگیزه ، نتایج اجتماعی.

“این شرکت هوش مصنوعی وجود داشت [Ravel Law] در فرانسه که از داده های آشکار دولت فرانسه در مورد مجازات قضایی استفاده می کرد ، و آنها دریافتند که برخی قضات تمایل واضحی به صدور احکام شدیدتر برای افراد مهاجر دارند ، بنابراین افراد به دلیل تعصب قضات برای همان جرم مجازات های مختلفی می گرفتند ، “گفت گالدون کلاول.

“این مثالی است که هوش مصنوعی می تواند به ما کمک کند تا تعصب انسانی را در گذشته متوجه گروه های خاصی از افراد کرده است ، بنابراین وقتی به روش صحیح استفاده می شود یک ابزار عالی برای تشخیص است.”

با این حال ، وی خاطرنشان کرد که واکنش دولت فرانسه در این باره رفع مشکل سوگیری قضایی نبوده بلکه منع استفاده از هوش مصنوعی برای تجزیه و تحلیل رویه های حرفه ای قاضیان و سایر اعضای دادگستری بوده است.

[ad_2]

منبع: tadrisriazi-news.ir