کیا اے آئی میں تعصب ہوسکتا ہے؟

مصنف: Laura McKinney
تخلیق کی تاریخ: 5 اپریل 2021
تازہ کاری کی تاریخ: 26 جون 2024
Anonim
مصنوعی ذہانت بعض لوگوں کے خلاف متعصب ہو سکتی ہے۔ یہ ہے کیسے۔
ویڈیو: مصنوعی ذہانت بعض لوگوں کے خلاف متعصب ہو سکتی ہے۔ یہ ہے کیسے۔

مواد


ٹیکا وے:

حالیہ برسوں میں ، خوبصورتی کا اندازہ لگانے سے لے کر تکرار پن کے خطرہ کا اندازہ لگانے تک ہر ایک پر AI تیزی سے اپنایا گیا اور لاگو کیا گیا۔ ایسا کرتے ہوئے ، اس نے ایسے معیارات کو بھی برقرار رکھا ہے جو متعدد مثالوں میں تعصب اور امتیازی سلوک کی حمایت کرتے ہیں۔

ٹکنالوجی کی پیشرفت معلومات اور مواقع تک صحیح معنوں میں رسائی کو جمہوری بنانے کی صلاحیت رکھتی ہے۔ تاہم ، جب کچھ معاملات میں ، یہ ان طریقوں سے استعمال ہورہا ہے جو اس تصور کو تقویت دیتے ہیں کہ ہمارے معاشرے میں کچھ لوگ دوسروں سے زیادہ برابر ہیں۔

یہ وہی ہے جو ہم نے مندرجہ ذیل سات واقعات سے دیکھی ہے جس میں مصنوعی ذہانت (AI) کو جان بوجھ کر کچھ قسموں کو خارج کرنے کے لئے استعمال کیا جاتا ہے یا جس میں یہ آسانی سے اس کے انسانی پروگرامروں کے ذریعہ امتیازی اثر کے ساتھ موجود تعصب کی عکاسی کرتا ہے۔

اے آئی خوبصورتی تعصب

خوبصورتی دیکھنے والے کی نگاہ میں ہوسکتی ہے ، لیکن جب یہ شخصی نظریہ اے آئی کو پروگرام کرسکتا ہے تو ، آپ کو پروگرام میں تعصب مل جاتا ہے۔ ریچل تھامس نے سنہ 2016 میں خوبصورتی ڈاٹ سے ایک خوبصورتی مقابلے میں ایسی ہی ایک قسط کے بارے میں اطلاع دی تھی۔ نتائج سے ظاہر ہوا ہے کہ ہلکے رنگوں کو تاریک رنگوں سے کہیں زیادہ پرکشش قرار دیا گیا ہے۔


اگلے سال ، "فیس ایپ ، جو فوٹو گرافروں کے لئے فلٹر بنانے کے ل ne اعصابی نیٹ ورک کا استعمال کرتا ہے ، نے ایک 'ہاٹرنس فلٹر' بنایا جس نے لوگوں کی جلد کو ہلکا کیا اور انھیں مزید یورپی خصوصیات دیئے۔"

زبانوں میں صنفی تعصب

تھامس نے ترجمے کی دستاویزی مثال بھی پیش کی جس میں کیریئر کی دقیانوسی توقعات وابستہ ہیں۔ نقطہ اغاز دو جملے ہیں: "وہ ڈاکٹر ہے۔ وہ نرس ہے۔"

اگر آپ ان کا ترک اور پھر انگریزی میں ترجمہ کرتے ہیں تو ، آپ کو ٹیلیفون کے کھیل سے اس قسم کے نتائج ملیں گے جن کی آپ توقع کر سکتے ہیں۔

اپنی شروعات کے بجائے ، آپ کو 1950 کی طرح کی توقع ملے گی ، "وہ ایک ڈاکٹر ہے۔ وہ ایک نرس ہے۔" وہ وضاحت کرتی ہے کہ ترکی زبان میں صنفی غیر جانبدار واحد ضمیر کی وجہ سے ہے جو توقعات اور دقیانوسی تعصب پر مبنی صنف تفویض کرے گی۔ (اے آئی میں خواتین پڑھیں: ٹیکسٹ کے ذریعہ سیکس ازم اور دقیانوسی تصورات کو تقویت پہنچانا۔)

جب کہ امیجز اور جنس پر مبنی تعصبات کی تصاویر اور زبان میں فلٹرنگ تشویش کا باعث ہے ، لیکن وہ ایسا ہی نہیں ہے جس کی وجہ سے وہی امتیازی سلوک ہوا ہے جس کا نتیجہ AI کے نتیجے میں ہے ، لیکن ایسا بھی ہوا ہے۔


اس کا ثبوت اشتہار کے لئے اس کی رہائش کے زمرے کے تحت رکھی گئی حدود کا اسکرین شاٹ تھا جس میں افریقی امریکی ، ایشین امریکی یا ھسپانکس جیسے زمرے کے اخراج کو روک کر سامعین کو تنگ کرنے کے آپشن کی اجازت دی گئی تھی۔ اشتہار یہاں دیکھا جاسکتا ہے۔

جیسا کہ پروپولیکا نے بتایا ہے کہ ، اس طرح کے اشتہارات کا امتیازی اثر 1968 کے فیئر ہاؤسنگ ایکٹ اور 1968 کے شہری حقوق ایکٹ دونوں کے تحت غیر قانونی ہے۔ اس معاملے میں صرف دفاع ہی یہ تھا کہ یہ اشتہار خود رہائش کے لئے نہیں تھا ، کیونکہ ایسا نہیں تھا۔ t کسی پراپرٹی یا مکان کے بارے میں فروخت یا کرایہ۔

تاہم ، نشانہ بنانے کی دوسری بھی مثالیں موجود ہیں جو نسلی تعصب کی نشاندہی کرتی ہیں اور اس نے مختلف اداروں کو سوشل نیٹ ورک کے خلاف سول سوٹ لانے کی ترغیب دی ہے۔ جیسا کہ وائرڈ نے اطلاع دی ، بالآخر پانچ قانونی مقدمات طے کرنے کے نتیجے میں اپنی اشتہاری کو نشانہ بنانے والی ٹیک کو ایڈجسٹ کرنے کا عزم کیا جس نے مارچ 2019 میں اشتہارات کے ذریعہ اقلیتوں کے ساتھ امتیازی سلوک کو قابل بنانے کا الزام عائد کیا۔

تصفیہ سے متعلق اپنی رپورٹ میں ، ACLU نے نشاندہی کی کہ اس طرح کے ھدف بنائے گئے اشتہارات کتنے کپٹی ہوسکتے ہیں ، کیوں کہ اقلیتوں اور خواتین کو بھی احساس نہیں ہوسکتا ہے کہ انھیں معلومات ، رہائش اور ملازمت کے مواقع تک ایک ہی طرح کی رسائی نہیں دی جاتی ہے جو گورے مردوں کے ساتھ بانٹ دی جاتی ہے۔

جب زیادہ سے زیادہ لوگ ملازمتوں ، اپارٹمنٹس اور قرضوں کی تلاش کے ل internet انٹرنیٹ کا رخ کرتے ہیں تو ، اس کا ایک حقیقی خطرہ ہے کہ اشتہار کو نشانہ بنانے سے معاشرے میں نسلی اور صنفی تعصبات کی موجودگی میں اضافہ ہوسکتا ہے۔ ذرا سوچیے کہ اگر کوئی آجر صرف مردوں کو انجینئرنگ کی نوکریوں کے لئے اشتہارات ظاہر کرنے کا انتخاب کرتا ہے - نہ صرف وہ صارفین جنہیں مردوں کی شناخت نہیں کی جاتی ہے وہ ان اشتہارات کو کبھی نہیں دیکھ پائیں گے ، انہیں یہ بھی نہیں معلوم ہوگا کہ انھوں نے کیا کھویا ہے۔

بہرحال ، ہمارے پاس شاذ و نادر ہی ان اشتہاروں کی شناخت کرنے کا ایک طریقہ ہے جو ہم آن لائن نہیں دیکھ رہے ہیں۔ یہ امتیازی سلوک خارج صارف کے لئے پوشیدہ ہے کہ اس کو روکنا مزید مشکل بنا دیتا ہے۔

ملازمتوں میں صنف اور عمر کی تفریق

قانونی معاملات میں رہائش میں غیرقانونی امتیازی سلوک بھی شامل تھا جس کی نشاندہی کی اجازت تھی۔ تصفیہ سے متعلق اپنی رپورٹ میں ، پروپولیکا نے کہا ہے کہ اس نے پلیٹ فارم کا تجربہ کیا ہے اور افریقی امریکیوں اور یہودیوں جیسے مستثنیٰ گروپوں پر مکانات سے متعلق اشتہارات خریدنے میں کامیابی حاصل کی ہے ، اور اس سے قبل کمپنیوں کے ذریعہ عمر اور جنس کے لحاظ سے صارفین کو چھوڑ کر ملازمت کے اشتہارات پائے گئے تھے۔ وہ گھریلو نام ہیں۔

ACLU نے متعدد نوکری کے اشتہارات پائے جن کا مقصد صرف ایک خاص عمر کے خطے کے مردوں پر ہی تھا ، کیوں کہ صارف اس جواب پر کلک کرتے ہوئے تلاش کرسکتے ہیں کہ انہیں اس مخصوص اشتہار کو کیوں دکھایا گیا ہے ، ایک اور وائرڈ مضمون میں اس کی نمائش کی گئی ہے۔ ACLU نے سوشل نیٹ ورک اور ان کمپنیوں کے خلاف مساوی روزگار مواقع کمیشن کے ساتھ الزام لگایا جس نے اشتہارات کو اس بنیاد پر رکھا کہ وہ مزدور اور شہری حقوق دونوں کے قوانین کے منافی ہیں۔

40 سے زائد افراد کی خدمات حاصل کرنے کے خلاف امتیازی سلوک قانون میں وفاقی عمر کی امتیازی سلوک (ADEA) کی خلاف ورزی ہے۔ لیکن ملازمت کے اشتہارات کو صرف اس عمر سے کم لوگوں کو نشانہ بنانا ان پلیٹ فارم کے ذریعہ قابل عمل چیزوں میں سے ایک ہے۔

پروپولیکا نے اپنی رپورٹوں میں سے ایک کی توجہ کا مرکز بناتے ہوئے کہا ہے کہ کون سے نوکری کے اشتہارات عمر کے لحاظ سے اس غیر قانونی شکل کو خارج کرتے ہیں۔ "گھریلو نام" میں ویریزون ، یو پی ایس ، اوبر ، ٹارگٹ ، اسٹیٹفارم ، نارتھ ویسٹرن باہمی ، مائیکروسافٹ ، جے اسٹریٹ ، ہسب اسپاٹ ، آئی کے ای اے ، فنڈ برائے عوامی مفاد ، گولڈمین سچ ، اوپن ورکس ، اور خود بھی شامل ہیں۔

چہرے کی شناخت ناکام

"چہرے کی شناخت درست ہے ، اگر آپ سفید فام آدمی ہو" ، نے فروری 2018 میں شائع ہونے والے نیو یارک ٹائمز کے مضمون کی سرخی کا اعلان کیا۔ اس نے ان نتائج کا حوالہ دیا جس میں جلد کے سر اور ناقص شناخت کے درمیان ایک الگ ارتباط پایا گیا:

ایک نئی تحقیق کے مطابق ، جو مختلف نسلوں اور صنف کے لوگوں پر یہ ٹیکنالوجی کام کرتی ہے اس کی پیمائش کے ذریعہ نئی زمین کو توڑنے والی ایک نئی تحقیق کے مطابق ، "گہری جلد ، زیادہ خرابیاں پیدا ہوتی ہیں - گہری چمڑی والی خواتین کی تصاویر کے ل nearly تقریبا. 35٪ تک۔"

ان نتائج کا سہرا جوئی بُولاموینی ، ایم آئی ٹی میڈیا لیب کے محقق ، اور الگوریتھم جسٹس لیگ (اے جے ایل) کے بانی کو دیا گیا ہے۔ اس کی تحقیق کا شعبہ وہ تعصب ہے جو AI کو گھٹا دیتا ہے ، جس کے نتیجے میں ایسے چیلنج ہوتے ہیں جب ان چہروں کو پہچاننے کی بات ہوتی ہے جو ماڈل کے لئے سفید مرد کے معیار کے مطابق نہیں ہوتے ہیں۔

بوماموینی نے 2017 کے ٹی ای ڈی گفتگو میں چہرے کی پہچان کے لئے نسلی اور صنفی تعصب کی پریشانی پیش کی ، جسے انہوں نے ایم آئی ٹی لیب کے جینڈر شیڈس پروجیکٹ سے متعلق ویڈیو میں اپنے ابتدائی 2018 کا حوالہ دیا:

<

ویڈیو کی وضاحت میں واضح کیا گیا ہے کہ اے آئی تعصب کو قطعیت نہ چھوڑنے سے ، "آٹومیشن کا دور ختم ہوجائے گا اور عدم مساوات کو مزید تیز کردیں گے۔" یہ خطرے "مشینری غیرجانبداری کے جھوٹے مفروضے کے تحت شہری حقوق کی تحریک اور خواتین کی تحریک کے ساتھ حاصل شدہ فوائد کو کھونے سے کم نہیں ہیں۔"

ویڈیو کی وضاحت نے مزید انتباہات کی نشاندہی کرتے ہوئے مزید انتباہات کا اضافہ کیا ہے ، جیسا کہ ہم نے خواتین میں خواتین میں دیکھا ہے: ٹیک کے ساتھ سیکس ازم اور دقیانوسی تصورات کو تقویت دینا: "خودکار نظام فطری طور پر غیرجانبدار نہیں ہیں۔ وہ ترجیحات ، ترجیحات اور تعصبات کی عکاسی کرتے ہیں۔ مصنوعی ذہانت کو مولڈ کرنے کی طاقت رکھنے والے افراد کی نگاہیں دیکھیں۔ "

25 جنوری ، 2019 کو بوملاموینی نے ایک میڈیم پوسٹ شائع کی جو ان کی اپنی تحقیق پر مبنی تھی اور اضافی محققین جو اس بات کی نشاندہی کرتے ہیں کہ ایمیزون کی شناخت میں غلطیوں کے نتیجے میں کس طرح اے آئی کی خامی ہے اور کمپنی سے مطالبہ کیا گیا ہے کہ وہ پولیس محکموں کو اے آئی سروس فروخت کرنا بند کردے۔

جب پہچان ہلکے پتلے مردوں کو پہچاننے کے لئے 100٪ درستگی اور سیاہ گہرا مردوں کے لئے 98.7 فیصد درستگی کی فخر کر سکتی ہے ، جب خواتین کی بات آتی ہے تو ، ہلکی خواتین کی درستگی 92.9 فیصد رہ گئی۔ اس سے بھی زیادہ واضح گہرا خواتین کے لئے صرف 68.6٪ درستگی کی تیز گراوٹ تھی۔

لیکن ایمیزون نے انکار کرنے سے انکار کردیا۔ وینچر بیٹ کے مضمون میں AWS میں گہری سیکھنے اور AI کے جنرل منیجر ، ڈاکٹر میٹ ووڈ کے ایک بیان کا حوالہ دیا گیا ہے ، جس میں انہوں نے تاکید کی ہے کہ محققین کی تحقیقات اس بات کی عکاسی نہیں کرتی ہیں کہ اے آئی دراصل کس طرح استعمال ہوتا ہے ، وضاحت کرتے ہیں:

"چہرے کا تجزیہ اور چہرے کی شناخت بنیادی ٹیکنالوجی اور ان کی تربیت کے لئے استعمال ہونے والے اعداد و شمار کے لحاظ سے بالکل مختلف ہے۔ چہرے کی شناخت کی درستگی کا اندازہ لگانے کے لئے چہرے کے تجزیے کو استعمال کرنے کی کوشش کو ناجائز مشورہ دیا جاتا ہے ، کیونکہ یہ اس مقصد کے لئے مطلوبہ الگورتھم نہیں ہے۔

لیکن یہ صرف وہی نہیں ہے جو بڑے بڑے تحقیقی مراکز سے وابستہ ہیں جنھوں نے الگورتھم کو بہت پریشان کن پایا ہے۔ گیزموڈو کی رپورٹ کے مطابق ، ACLU نے 12.33 ڈالر کی انتہائی مناسب قیمت پر اپنا ٹیسٹ چلایا۔ اس نے پایا کہ ریکگنیشن نے مجرموں کی تصاویر کے ساتھ کانگریس کے 28 ممبروں کا مماثلت کیا۔

"غلط شناختیں تب کی گئیں جب شمالی کیلیفورنیا کے ACLU نے کانگریس کے تمام 535 ممبروں کی مماثل 25000 عوامی طور پر دستیاب مگ شاٹ تصاویر کے مقابلہ میں شناخت کی ذمہ داری دی۔"

چونکہ 28 میں سے 11 رنگ کے لوگ تھے ، لہذا اس نے ان کے لئے نمایاں 39٪ غلطی کی عکاسی کی۔ اس کے برعکس خرابی کی شرح مجموعی طور پر زیادہ قابل قبول 5٪ تھی۔ کانگریس کے بلیک کاکس کے چھ ممبران ، جو مغشوٹ سے منسلک ان شناختوں میں شامل تھے ، نے ایمیزون کے سی ای او کو ایک کھلے خط میں اپنی تشویش کا اظہار کیا۔

بازآبادکاری تعصب

رنگ کے لوگوں کے خلاف اے آئی میں سرایت کرنے والا تعصب زیادہ سنگین مسئلہ بن جاتا ہے جب اس کی شناخت میں غلطی سے کہیں زیادہ نہیں ہے۔ یہ 2016 میں ایک اور پروپولیکا تفتیش کی کھوج تھی۔ اس طرح کے تعصب کے نتائج انفرادی آزادی سے کم نہیں ہیں اور اس کے ساتھ ہی اس شخص سے حقیقی خطرے کو نظرانداز کیا جاسکتا ہے جس کی جلد کا رنگ الگورتھم کے ساتھ موزوں ہے۔

مضمون میں دو متوازی معاملات کا حوالہ دیا گیا ہے جس میں ایک سفید فام جرم اور ایک کالا ہے۔ ایک الگورتھم کا اندازہ لگانے کے لئے استعمال کیا گیا تھا کہ کون سا دوبارہ قانون توڑنے کا امکان ہے۔ کالے کو ایک اعلی خطرہ اور سفید کو کم خطرہ قرار دیا گیا تھا۔

پیشن گوئی نے اسے بالکل غلط سمجھا ، اور وہ گورا جو آزاد ہوا اسے دوبارہ قید کرنا پڑا۔ یہ انتہائی پریشانی کا باعث ہے کیونکہ عدالتیں پیرول کے فیصلے میں اسکورنگ پر بھروسہ کرتی ہیں ، اور اس کا مطلب یہ ہے کہ پروگرام میں شامل نسلی تعصب قانون کے تحت غیر مساوی سلوک کا مطلب ہے۔

پروپولیکا نے الگورتھم کو اپنے امتحان میں ڈال دیا ، جس نے 2013 اور 2014 میں بروورڈ کاؤنٹی ، فلوریڈا میں گرفتار ہونے والے 7000 سے زیادہ افراد کے خطرات کے انکموں کا موازنہ کیا جس کے بعد اگلے دو سالوں میں ان کے خلاف نئے مجرمانہ الزامات عائد کیے گئے تھے۔

انھوں نے کیا پایا کہ متشدد نوعیت کے جرائم کو دہرانے کی محض 20 فیصد پیش گوئیاں درست ثابت ہوئیں ، اور زیادہ معمولی جرائم صرف ان 61 فیصد لوگوں کے لئے پیش آئے جو خطرے کی نشاندہی کرتے ہیں۔

اصل مسئلہ صرف درستگی کی کمی نہیں بلکہ نسلی تعصب بھی شامل ہے:

  • اس فارمولے میں خاص طور پر سیاہ فام افراد کو مستقبل کے مجرموں کے طور پر جھنڈے گاڑنے کا امکان تھا ، اور اس طرح انھیں سفید مدعا علیہ کی حیثیت سے دگنا شرح پر غلط طریقے سے لیبل لگانا۔
  • سیاہ فام ملزمان کے مقابلے میں زیادہ تر سفید خطرہ افراد کو کم خطرہ قرار دیا گیا۔

در حقیقت ، اس کا ترجمہ سیاہ فام لوگوں کے لئے 45٪ اور سفید فام لوگوں کے لئے 24٪ کی غلطی کی شرح میں ہوا۔ اس واضح اعدادوشمار کے باوجود ، تھامس نے اطلاع دی کہ وسکونسن سپریم کورٹ نے ابھی بھی اس الگورتھم کے استعمال کو برقرار رکھا ہے۔ وہ recidivism الگورتھم سے وابستہ دیگر مسائل کی بھی تفصیلات بتاتی ہے۔