چگونه هوش مصنوعی می تواند تعصب را از تصمیم گیری حذف کند


دولت انگلیس اخیراً بررسی سوگیری الگوریتمی – یک موضوع مهم و حتی مهم هر چه بیشتر تصمیم گیری از نرم افزارهای مرطوب به سیلیکون می رسد. با این حال ، مفید بود اگر آنها می فهمیدند که گری بکر درمورد خود تبعیض چه چیزی به ما گفت – کاری که برنده جایزه نوبل اقتصاد شد. تقریباً تمام مواردی که آنها نگران آن هستند خودشان را در ساختار منطقی او حل می کنند.

در ابتدا ، یک ساختار زبانی – بیایید تفاوت بین الگوریتم ها و هوش مصنوعی (AI) را بررسی کنیم. اصلاً لازم نیست یک algo رمزگذاری شود ، این مجموعه قوانینی است که برای تصمیم گیری تصمیم می گیرد – معمولاً تقریباً همیشه ناشی از روشهای فعلی است که ما با استفاده از آنها چنین تصمیماتی را می گیریم ، فقط به صورت رسمی یا حتی کدگذاری شده.

هوش مصنوعی اغلب برعکس است. این داده ها است ، حالا این چه چیزی به ما می گوید؟ اغلب ، در دنیای مدرن ما ، نمی دانیم چه اتصالی وجود دارد – دستگاه فقط اصرار دارد که آنها در آنجا هستند. در بازارهای مالی کاملاً متداول است که هوش مصنوعی ارتباطاتی را تجارت می کند که هیچ کس از آنها اطلاع ندارد ، حتی کسانی که صاحب آن هستند.

نگرانی در این گزارش این است که افزایش استفاده از الگوریتم ها می تواند ، یا خواهد شد ، بی عدالتی فعلی را که می دانیم در قوانین اجتماعی و تصمیم گیری ما سخت گیر است محصور کند. حق با آن هاست. اگرچه این نکته ای است که آنها بیان نمی کنند ، اما این باید برای کار جلبک ها درست باشد.

به هر حال ما در تلاشیم یک سیستم تصمیم گیری برای جامعه فعلی خود تولید کنیم. بنابراین باید با قوانین کنونی جهان پیرامون ما کار کند. جلبکهایی که با واقعیت سر و کار ندارند کارایی ندارند. راه حل این مسئله کمی بیشتر به گری بکر نیاز دارد.

طعم و تبعیض منطقی

بکر اشاره کرد که ما می توانیم ، و باید ، بین تبعیض طعم و تبعیض منطقی تفاوت قائل شویم. یکی از یافته های مکرر این است که برنامه های شغلی با نام ظاهراً سیاه مانند جمیل تماس های کمتری برای مصاحبه نسبت به چیزی به ظاهر سفید مانند جیمز یا روپرت دارند. این عمدتا تبعیض “سلیقه ای” یا همانطور که به طور معمول تر می گوییم نژادپرستی است. منطق را با هر نمونه ای که ترجیح می دهید تکرار کنید.

نکته این است که ما کاملاً می خواهیم تبعیض طعم را از بین ببریم دقیقاً به این دلیل که – به درستی – آن را ناعادلانه می دانیم. و با این وجود تبعیض عقلانی زیادی وجود دارد که باید برای کارکرد یک سیستم حفظ کنیم. بی شماری روپرت – یا جمیل – دلیل خوبی است که بالاخره او را به عنوان مجری استخدام نکنید.

بکر در ادامه خاطر نشان کرد که تبعیض طعم و مزه – و نمونه خاص او نژادپرستی فاحش اواسط قرن 20 امریکا – برای شخصی که این کار را انجام می دهد هزینه بر است. بله ، البته برای افرادی که مورد تبعیض قرار می گیرند هزینه زیادی دارد ، بلکه برای افرادی که این کار را انجام می دهند نیز هزینه بر است. زیرا آنها با این کار مهارتها و کارمندان کاملاً مفید را رد کرده اند.

اما هر چه جامعه بیشتر این کار را با یک گروه خاص انجام دهد ، چنین کارگری برای نمادگرایان مایل به شکستن تابوها ارزان تر می شود – که سپس به رقابت با نژادپرستان ادامه می دهند. این قوانین “جیم کرو” در آن زمان و مکان تصدیق این امر بود.

تنها با اصرار قانونی که بر پایان نژادپرستی پافشاری می شود ، می توان از کنار رفتن آن برای دستیابی به سود جلوگیری کرد. حداقل در نهایت نیروهای بازار آزاد چنین الگوریتم های بی عدالتی را می شکنند.

عجیب انسان

که ما را به سمت هوش مصنوعی دنیای جدیدمان می برد. با توجه به تعریفی که من استفاده می کنم ، این منطبق بر الگوهایی است که کاملاً بدون تبعیض طعم و مزه است. هیچ انسانی قوانین تصمیم گیری را در اینجا طراحی نکرده است – طبق تعریف ، ما اجازه می دهیم ساختار ذاتی داده ها آنهایی را برای ما ایجاد کند.

بنابراین آن دسته از شخصیت های انسانی که منجر به نژادپرستی ، زن ستیزی ، تعصب ضد ترانس و بقیه شود ، وجود ندارد. اما بخشهایی که افراد باسواد را برای نوشتن کتاب استخدام می کنند ، باقی می مانند – ما یک فرایند تصمیم گیری داریم که فارغ از تبعیض طعم و مفهوم منطقی است.

به روش دیگری به این نظریه بکر نگاه کنید. بگویید ، حقوق زنان کمتر است. آن ها هستند. چرا؟ چیزی در مورد انتخاب های خانم ها؟ یا چیزی در مورد مردسالاری؟ یک الگوریتم را می توان برای فرض هر دو طراحی کرد.

هوش مصنوعی قرار است از داده هایی که حقوق کمتری به زنان می دهد ، نتیجه بگیرد. و سپس – با فرض هوش مصنوعی استخدام – توجه داشته باشید که اشتغال زنان ارزان تر است ، بنابراین زنان بیشتری را استخدام می کند. که سپس ، با گذشت زمان ، مشکل را حل می کند. یعنی اگر این مرد سالاری ، عجیب و غریب انسانی است که باعث می شود زنان کمتر حقوق بگیرند ، هوش مصنوعی آن را حل می کند. اگر این انتخاب های زنان بود ، پس چه چیزی باید حل شود؟

در کنار ما یک سرگرمی وجود دارد که ما نمی توانیم برویم و این موضوع را بررسی کنیم تا از صحت آن اطمینان حاصل کنیم. زیرا تمام هدف هوش مصنوعی یافتن الگوهایی است که نمی دانیم در آنجا وجود دارد. اگر ما در حال طراحی هستیم ، پس در حال ساخت جلبکها هستیم ، نه هوش مصنوعی. هرگونه طراحی البته آن شکستهای منطقی انسانی را به همراه دارد.

اگر کنار بگذاریم ، خوب ، کنار بگذاریم ، همانطور که بود ، یک هوش مصنوعی به سادگی در مورد آنچه که هست کار خواهد کرد ، نه بر روی آنچه که ما فکر می کنیم و نه حتی در مورد چگونگی تصور ما باید باشد. یعنی ما اکنون فیلتری ساخته ایم که فقط به تبعیض منطقی بکر اجازه می دهد زیرا قواعدی که به موجب آن تصمیم گیری می شود فقط می تواند قوانینی باشد که در واقع وجود دارد ، نه اینکه توسط عجیب و غریب فرایندهای تفکر همو ساپینس وضع شود.

فرصت از دست رفته

این نکته آخر دقیقاً به همین دلیل است که برخی از مردم با استفاده از AI در این تعریف بسیار مخالف هستند. زیرا اگر قوانین جدید تصمیم گیری در حال نگارش است ، اصرار بر این است که این قوانین باید قوانین فعلی جامعه را در مورد آنچه که باید عادلانه تلقی شود ، ترکیب کنند.

این همان چیزی است که خود گزارش بسیار مشتاقانه است – ما باید از این فرصت استفاده کنیم و استانداردهای امروز نژادپرستی ، زن ستیزی ، ضد ترانس و بقیه را در تصمیم گیری برای آینده رمزگذاری کنیم. که بهتر است فرصت پیش روی خود را از دست بدهیم.

آنچه در واقع می خواهیم انجام دهیم – حداقل لیبرال هایی مانند من امیدوارم – حذف تبعیض طعم ، هر دو طرفدار و مخالف هر گروه ، از سیستم تصمیم گیری اجتماعی است. و فقط با آن تمایز منطقی بین کسانی که میخ های گرد سوراخ های دایره ای هستند و کسانی که نیستند ، باقی مانده است.

هوش مصنوعی می تواند درمانی برای نگرانی های تبعیض آمیز در مورد الگوریتم ها باشد. زیرا آنها قواعد بدون تعصب و انتزاع شده از واقعیت هستند ، نه تحمیل تعصبات موجود. کمی حیف است که این فرصت را از دست بدهد ، مگر نه؟


منبع: tadrisriazi-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>