اے آئی ایس نے کچھ کرنے کی وضاحت کی

مصنف: Roger Morrison
تخلیق کی تاریخ: 28 ستمبر 2021
تازہ کاری کی تاریخ: 19 جون 2024
Anonim
امریکی شہریت قدرتی کاری انٹرویو ورژن 4
ویڈیو: امریکی شہریت قدرتی کاری انٹرویو ورژن 4

مواد


ماخذ: سڈیکورٹ / ڈریم ٹائم ڈاٹ کام

ٹیکا وے:

کسی AI نظام کی پیداوار پر بھروسہ کرنے کے ل essential ، اس کے عمل کو سمجھنے کے لئے اور یہ جاننے کے لئے کہ یہ اپنے نتائج پر کیسے پہنچا ہے ، ضروری ہے۔ کسی بھی ممکنہ تعصب کو ختم کرنے کے لئے قابل فہم AI ہیں۔

کیا آپ AI پر اعتماد کرسکتے ہیں؟ کیا آپ کو اس کے نتائج کو بغیر کسی سوال کے معروضی طور پر درست ماننا چاہئے؟ مسئلہ یہ ہے کہ خود AI سے سوال کرنے سے بھی واضح جواب نہیں مل پاتے ہیں۔

اے آئی نظام عام طور پر بلیک باکس کی طرح چلاتے ہیں: ڈیٹا ان پٹ ہے ، اور ڈیٹا آؤٹ پٹ ہے ، لیکن اس عمل سے جو اعداد و شمار کو بدل دیتے ہیں وہ ایک معمہ ہے۔ اس سے دوگنا مسئلہ پیدا ہوتا ہے۔ ایک یہ کہ یہ واضح نہیں ہے کہ کون سے الگورتھم کی کارکردگی سب سے زیادہ قابل اعتماد ہے۔ دوسرا یہ ہے کہ بظاہر معروضی نتائج انسانوں کی اقدار اور تعصبات کے ذریعہ پائے جاسکتے ہیں جو نظام کو پروگرام کرتے ہیں۔ یہی وجہ ہے کہ ایسے نظاموں کے استعمال کرنے والی ورچوئل افکار کے عمل میں شفافیت کی ضرورت ہے ، یا "قابل فہم AI"۔

اخلاقی لازمی ہر ایک کے لئے جی ڈی پی آر کے تابع قانونی حیثیت اختیار کرچکا ہے ، جس کا اثر نہ صرف یوروپی یونین میں مقیم کاروباری اداروں پر پڑتا ہے بلکہ ایسے افراد پر بھی اثر پڑتا ہے جہاں کے لوگوں یا تنظیموں کے ساتھ معاملات ہوتے ہیں۔ اس میں اعداد و شمار کے تحفظ سے متعلق متعدد دفعات موجود ہیں جو یورپی یونین کے شہریوں تک پھیل جاتی ہیں "یہ حق ہے کہ کچھ خاص حالات کے علاوہ ، خود کار طریقے سے فیصلہ سازی کرنے کا پابند نہ ہو" اور "فیصلے میں شامل منطق کے بارے میں معنی خیز معلومات فراہم کرنے کا حق۔ "


دوسرے لفظوں میں ، اب یہ کہنا کافی نہیں ہے کہ ، "الگورتھم نے آپ کی درخواست کو مسترد کر دیا ہے۔" سوچنے کی بات کی وضاحت کرنے کا ایک قانونی مینڈیٹ ہے جس کے نتیجے میں لوگوں کی زندگیوں پر اثر پڑتا ہے۔ (اے آئی کے پیشہ ور افراد کے بارے میں مزید معلومات کے ل Machine ، مشین لرننگ کے وعدے اور نقصانات دیکھیں۔)

متعصب نتائج

ایک تشویش جو کچھ لوگوں نے الگورتھمک فیصلوں کے بارے میں اٹھائی ہے وہ یہ ہے کہ معقول استدلال کے لئے کھڑے ہونے کے باوجود بھی وہ تعصبات کو تقویت بخش سکتے ہیں۔ کیتھھی اونیل اس استدلال کا چہرہ ہے جو "ریاضی کی تباہی کے ہتھیاروں: کتنے بڑے اعداد و شمار سے عدم مساوات کو بڑھاتا ہے اور جمہوریت کو خطرات لاحق ہوتا ہے۔" بڑے اعداد و شمار سے وابستہ ہونے والے اعتراض کی ظاہری شکل ہی اس کی وجہ سے اس کی درخواستوں میں اتنی نقصان دہ ہوتی ہے جو حقیقت میں تعصب کو تقویت بخشتی ہے۔ .

جسے وہ "ریاضی کی تباہی" کہتے ہیں وہ "ان ماڈلز کا نتیجہ ہے جو رکاوٹوں کو تقویت بخشتے ہیں ، خاص طور پر آبادیاتی آبادی کو کریڈٹ ، تعلیم ، ملازمت کے مواقع ، پیرول ، وغیرہ کے قابل ہونے کی نشاندہی کرتے ہوئے انہیں محروم رکھتے ہیں۔"


وہ الگورتھمک تعصب تلاش کرنے میں تنہا نہیں ہے۔ 2016 میں ، پرو پبلکا نے اپنے نتائج کا اشتراک کیا کہ الگورتھم نے گوروں کے مقابلے میں کالوں کے لئے نسلی فرق کی زیادہ پیشن گوئی کی ہے ، یہ ایک ایسا عنصر ہے جس نے ایک ہی نوعیت کے جرائم کے لئے مختلف قید خانے میں ترجمہ کیا ہے۔ گارڈین کے ایک 2017 مضمون نے صنف پر بھی تعصب بڑھایا۔

مسئلہ یہ ہے کہ یہ نظام دور رس نتائج کے ساتھ پروگرام ہو رہے ہیں۔ کولبیرا کے شریک بانی اور سی ٹی او ، اسٹیجن کرسٹیئنس نے ایک فون انٹرویو میں ، اس نے وضاحت کی کہ اے آئی "خودکار فیصلہ سازی" کو قابل بناتا ہے ، جو فی سیکنڈ میں 10 ہزار سے زیادہ فیصلوں سے تجاوز کرسکتا ہے۔

کوئی کیڑے نہیں ، کوئی تناؤ نہیں - آپ کی زندگی کو تباہ کیے بغیر زندگی کو تبدیل کرنے والے سافٹ ویئر تخلیق کرنے کے لئے مرحلہ وار گائیڈ

جب آپ سافٹ ویئر کے معیار کی پرواہ نہیں کرتے ہیں تو آپ اپنی پروگرامنگ کی مہارت کو بہتر نہیں کرسکتے ہیں۔

اس کا مطلب یہ ہے کہ خراب فیصلوں پر مبنی نظام ان میں سے بہت زیادہ تیزی سے کسی بھی انسان کے مقابلے میں بہت تیزی سے کام کرے گا۔ کرسٹیئنز نے کہا کہ اگر اس نظام میں تعصب موجود ہے تو ، بہت سارے فیصلے بہت سے سنجیدہ اور وسیع پیمانے کے نتائج کے ساتھ "کچھ آبادی کے لئے نقصان دہ" ثابت ہوسکتے ہیں۔

الگورتھم کی دیکھ بھال اور کھانا کھلانا

یقینی طور پر ، ایسی غلطیاں ہیں جن کا نتیجہ نامکمل یا ناقص ڈیٹا سے ہوتا ہے۔ یہی وجہ ہے کہ بعض ماہرین نے گارڈین کے مضمون میں حوالہ دیا ہے جو متعصب الگورتھم کے نتائج کے لئے دیا گیا ہے۔ آکسفورڈ یونیورسٹی کی سینڈرا واچٹر نے اس کا خلاصہ یہ کیا: "دنیا متعصب ہے ، تاریخی اعداد و شمار متعصب ہیں ، لہذا یہ تعجب کی بات نہیں ہے کہ ہمیں متعصبانہ نتائج موصول ہوئے ہیں۔"

اسی خطوط کے ساتھ ، کرسٹیئنز نے کہا ، "جیسا کہ یہ حقیقت حقیقی دنیا کے مشاہدات پر مبنی ہے ،" اے آئی "ہمارے تعصبات کا مشاہدہ کرتی ہے ، اور جنسی پسندی یا نسل پرستانہ نتائج پیدا کرتی ہے۔" اپنی شرائط کا اطلاق جس کو کچرا ، کوڑا کرکٹ میں جانا جاتا ہے کے نام سے مشہور ہے۔ (جی آئی جی او) ) ، انہوں نے کہا کہ مسئلہ "کھانا" ہوسکتا ہے جو تربیت کا ڈیٹا بناتا ہے کیونکہ یہ غلط ، نامکمل یا خود متعصب ہے۔

نسل پرستی اور جنس پرستی کے نتائج کو اعداد و شمار سے نظام میں تربیت دی جاسکتی ہے جو آبادی میں اختلافات کی مناسب نمائندگی نہیں کرتی ہے۔ انہوں نے کانفرنسوں میں مقررین پر مبنی تربیت کے اعداد و شمار کی نقش کرنے کی پیش کش کی جس میں خواتین میں صرف 20 فیصد نمائندگی ہوسکتی ہے۔ جب اس طرح کی اسکینگ نمائندگی کے بارے میں تربیت دی جائے تو ، الگورتھم میں ایک بلٹ ان تعصب پڑے گا۔

اے آئی کیمیا

اے آئی تعصب کا مسئلہ ہمیشہ ہی ڈیٹا فیڈ کی وجہ سے نہیں ہوتا ہے بلکہ جس طرح سے یہ اپنے فیصلوں پر عمل درآمد کرتا ہے۔ ان کارروائیوں کا معمہ علی رحیمی اور بین ریکٹ کو اتنا متاثر ہوا کہ انہوں نے اس کا مقابلہ کیمیا سے کیا۔

اگرچہ کیمیا کی اپنی جگہ ہوسکتی ہے ، لیکن یہ وہی نہیں ہے جو سنگین نتائج کے ساتھ خودکار فیصلوں کے بارے میں ان کے سوالوں کے جواب کے طور پر چاہتے ہیں۔ جیسا کہ رحیمی اور ریکٹ نے کہا: "لیکن اب ہم ایسے نظام کی تشکیل کر رہے ہیں جو صحت کی دیکھ بھال اور سول بحث میں ہماری شرکت کو کنٹرول کرتا ہے۔ میں ایک ایسی دنیا میں رہنا چاہوں گا جس کا نظام سخت ، قابل اعتماد ، قابل تصدیق علم پر ہے اور نہ کہ کیمیا پر۔ "(صحت کی دیکھ بھال کے معاملے میں اے ای کے بارے میں مزید جاننے کے لئے ، صحت کی دیکھ بھال کے لئے 5 حیرت انگیز AI پیشرفت دیکھیں۔)

بلیک باکس سے پرے: دریافت کرنا کیا فیصلوں کا تعین کرتا ہے

یہی وجہ ہے کہ کچھ لوگ اے آئی سسٹم کے سوچنے کے عمل میں شفافیت متعارف کرانے کے لئے ایک راستہ پر زور دے رہے ہیں ، یہ بتاتے ہوئے کہ وہ اس نتیجے پر کیوں پہنچی کہ اس نے ایسا کیا۔ مختلف مقامات سے کوششیں ہو رہی ہیں۔

امریکی یونیورسٹیوں میں تین پروفیسرز اور محققین کے ایک گروپ نے سن 2016 میں ایک ایسے حل میں کام کیا تھا جسے انہوں نے مقامی تعبیر شدہ ماڈل-انجنوسٹک وضاحت (LIME) کہا تھا۔ انہوں نے اس ویڈیو میں اپنے نقطہ نظر کی وضاحت کی:

اگرچہ یہ درست سمت میں ایک قدم تھا ، لیکن حل بالکل کام نہیں کیا۔ اور اسی طرح یہ تحقیق جاری ہے ، اور جی ڈی پی آر کی روشنی میں ، یورپی یونین سے وابستہ افراد کو قابل وضاحت AI حاصل کرنے میں خاص دلچسپی ہے۔

برسل یونیورسٹی میں مصنوعی ذہانت لیب ، ایک ایسا ادارہ جس میں سے کرسٹیئنز کی کمپنی ابھری ہے ، ایسی جگہوں میں سے ایک ہے جو ایسی تحقیق کے لئے وقف ہے۔ انہوں نے کہا کہ لیب نے شبیہہ کی شناخت کے ساتھ کام کرنے کے طریقے ڈھونڈ لیے ہیں اور "نیٹ ورک لسانی طور پر اس کی وضاحت کرتا ہے کہ کیا دیکھا ہے اور کیوں" اس نتیجے پر پہنچتا ہے کہ تصویر میں جو کچھ ہے اس کے بارے میں وہ کیا کرتا ہے۔

کرسٹیئنز نے وضاحت کرتے ہوئے کہا ، "الگورتھم ہمیشہ اسی طرح کام کرتے ہیں۔ "ان پٹ ڈیٹا کا فیچرز میں ترجمہ ہوجاتا ہے۔" اے آئی لیب میں ، ان کے پاس یہ مطلب ہوتا ہے کہ "فیصلہ کرنے والے درخت میں کیا ہوا ہے اور دیکھو۔" اس بنیاد پر ، یہ ممکن ہے کہ "ان راستوں کو دیکھا جاسکے" جن تک دیکھیں کہ جہاں کچھ خراب ہو گیا ہے اور پھر "ایڈجسٹ اور دوبارہ ٹریننگ" کریں۔

آئی بی ایم نے بلیک باکس کے مسئلے کی طرف بھی اپنی توجہ کی ہدایت کی ، اور اس نے حال ہی میں ایک سافٹ ویئر سروس کی پیش کش کا اعلان کیا ، جس سے تعصب کا سامنا کرنا پڑے گا اور اے آئی کے فیصلوں کا احتساب ہوگا یہاں تک کہ جب یہ نظام آئی بی ایم بادل سے چل رہا ہے۔ بروقت انتباہ کے علاوہ ، یہ تجویز پیش کرتا ہے کہ متعصب نتائج کا مقابلہ کرنے کے لئے کس ڈیٹا کی ضرورت ہے۔

کلاؤڈ سروس کے علاوہ ، آئی بی ایم ان کمپنیوں کے لئے مشاورت کی پیش کش کررہی ہے جو مستقبل میں متعصبانہ نتائج کو کم کرنے کی کوشش کرنے کے لئے مشین لرننگ سسٹم تشکیل دے رہی ہیں۔ شاید اے آئی کے دیگر ماہرین بھی بہتر نظام کی تشکیل میں مدد کے لئے مشاورت میں شامل ہوں گے اور پروگرام میں آنے والے ممکنہ تعصب کی جانچ پڑتال کریں گے۔

ہمیں یہ یاد رکھنا ہوگا کہ اے آئی کے نظام اتنے ہی غلطی کا شکار ہیں جتنے انسانوں نے ان کو مرتب کیا ، اور اس لئے کوئی بھی فیصلوں کا حساب دینے سے بالاتر نہیں ہے۔