AI کے بارے میں 11 قیمتیں جو آپ کو سوچنے پر مجبور کردیں گی

مصنف: Laura McKinney
تخلیق کی تاریخ: 3 اپریل 2021
تازہ کاری کی تاریخ: 26 جون 2024
Anonim
Откровения. Массажист (16 серия)
ویڈیو: Откровения. Массажист (16 серия)

مواد


ماخذ: لن شاؤ ہوا / ڈریم ٹائم ڈاٹ کام

ٹیکا وے:

اے آئی کی پیش قدمی ناگزیر ہے ، اور جو بات انسانیت کے لئے ترجمہ کرتی ہے وہ بالکل واضح نہیں ہے۔ کچھ کا خیال ہے کہ ہم ایک عظیم مستقبل کے منتظر ہوسکتے ہیں ، جبکہ دوسروں کا خیال ہے کہ اس کا مطلب ہے کہ ہم اپنے روبوٹک مالکان کے ذریعہ سرانجام دینے کی راہ پر گامزن ہیں۔ تیسرا تناظر وہ ہے جو خطرات سے واقف ہے لیکن وہ ان کو قابل انتظام سمجھتا ہے۔

ہم AI اور اس کی تبدیلی کی صلاحیت کے بارے میں بہت کچھ سنتے ہیں۔ اس کا مطلب انسانیت کے مستقبل کے لئے کیا ہے ، یہ بالکل واضح نہیں ہے۔ کچھ مستقبل پسندوں کا خیال ہے کہ زندگی میں بہتری آئے گی ، جبکہ دوسروں کے خیال میں اس کو شدید خطرہ لاحق ہے۔ درمیان میں پوزیشنوں کا ایک سپیکٹرم بھی ہے۔ یہاں 11 ماہرین سے لیا جاتا ہے۔

1. "ابھی تک ، مصنوعی ذہانت کا سب سے بڑا خطرہ یہ ہے کہ لوگ بہت جلد نتیجہ اخذ کرتے ہیں کہ وہ اس کو سمجھتے ہیں۔" - ایلیزر یوڈکووسکی

مشین انٹلیجنس ریسرچ انسٹی ٹیوٹ (MIRI) کے لئے "عالمی خطرہ میں ایک مثبت اور منفی عنصر کے طور پر مصنوعی ذہانت" کے عنوان سے یدکوسی کی 2002 کی رپورٹ میں یہ پہلا جملہ ہے۔ اگرچہ AI کی اصطلاح اس وقت بندہ نہیں کی گئی تھی جتنی کہ اب ہے ، لیکن ابھی بھی ٹکنالوجی کی صلاحیتوں اور حدود پر تفہیم کی کمی کا مسئلہ باقی ہے۔ در حقیقت ، پچھلے کچھ سالوں میں ، AI کو نہ صرف قابل فہم بلکہ قابل فہم بنانے کے لئے مزید دباؤ ڈالا گیا۔


2. "اہم بات یہ ہے کہ اے آئی کے بارے میں کچھ بھی قابل فہم ، منصفانہ ، محفوظ اور نسب سے بنانا ہے ، مطلب یہ ہے کہ کوئی بھی آسانی سے دیکھ سکتا ہے کہ اے آئی کی کسی بھی درخواست کی ترقی کیسے اور کیوں ہوئی ہے۔" - گنی رومیٹی

آئی بی ایم کے سی ای او نے 9 جنوری ، 2019 کو سی ای ایس میں اپنے اہم خطاب کے دوران یہ بیان دیا تھا۔ قابل وضاحت اے آئی کی ضرورت کو واضح کرنے کا پس منظر یہ ہے کہ اسے سیل کر کے بلیک باکس کے طور پر رکھنا پروگراموں میں تعصبات یا دیگر مسائل کی جانچ پڑتال اور اس کا حل کرنا ناممکن بنا دیتا ہے۔ آئی بی ایم نے اپنے آپ کو اس مسئلے کو حل کرنے کی سمت کام کرنے کے کیمپ میں کھڑا کیا ہے ، نہ صرف کمپنیوں کے لئے کمپیوٹنگ خدمات پیش کررہے ہیں ، بلکہ ان لوگوں کے لئے تعصب کم کرنے کے بارے میں مشاورت کی ہے جو مشین لرننگ سسٹم بنا رہے ہیں۔ (AI کے بارے میں وضاحت کرنے والے AI کے بارے میں مزید معلومات حاصل کریں جس میں کچھ کرنے کی وضاحت کر رہے ہیں۔)


کوئی کیڑے نہیں ، کوئی تناؤ نہیں - آپ کی زندگی کو تباہ کیے بغیر زندگی کو تبدیل کرنے والے سافٹ ویئر تخلیق کرنے کے لئے مرحلہ وار گائیڈ

جب آپ سافٹ ویئر کے معیار کی پرواہ نہیں کرتے ہیں تو آپ اپنی پروگرامنگ کی مہارت کو بہتر نہیں کرسکتے ہیں۔

3. "انتھائی سرچ انجن، جو سمجھ جائے گا ، آپ جانتے ہو ، بالکل وہی جو آپ چاہتے تھے جب آپ استفسار میں ٹائپ کرتے تھے ، اور اس سے آپ کو صحیح صحیح چیز واپس مل جاتی ہے ، کمپیوٹر سائنس ہم اس مصنوعی ذہانت کو کہتے ہیں۔ اس کا مطلب یہ ہے کہ یہ ہوشیار ہوگا ، اور ہمارے پاس سمارٹ کمپیوٹر رکھنے سے بہت دور ہیں۔ - لیری پیج

اس وقت گوگل کے شریک بانی اور سی ای او نے نومبر 2002 میں پی بی ایس نیوز ہور کے ایک حصے کے دوران "گوگل: سرچ انجن جو ممکن ہے" کے عنوان سے یہ بات کہی تھی۔ میزبان نے گوگل کی بڑھتی ہوئی مقبولیت کی عکاسی کے ساتھ اس سال کھولا جس میں امریکی بولی معاشرے نے اسے استعمال میں شامل ہونے کے لئے سب سے مفید فعل قرار دیا ہے ، حالانکہ اس کو میریئم-ویبسٹر کی پسند سے پہچاننے میں مزید کچھ سال لگیں گے۔ لیکن پھر بھی ، کمپنی نے اے آئی کے استعمال میں اپنی دلچسپی کا اشارہ کیا۔

4. "اے آئی کے کسی بھی ذکر یا اس کے مضمرات سے تمام خطوط پر پرہیز کریں۔ ہتھیاروں سے بنا ہوا AI شاید سب سے حساس موضوعات میں سے ایک ہے - اگر نہیں تو زیادہ تر۔ گوگل کو نقصان پہنچانے کے تمام طریقے تلاش کرنے کے لئے میڈیا کے لئے یہ سرخ گوشت ہے۔ - پروجیکٹ میوین میں کمپنی کی شمولیت کے بارے میں ساتھیوں کو گوگل میں ای آئی کے ایک سرخیل ، فی فی لی ،

گوگل نے پایا کہ اے میں بڑے کھلاڑی ہونے کی وجہ سے اس کا منفی اثر پڑ سکتا ہے۔ جولائی 2017 میں ، محکمہ دفاع نے پروجیکٹ ماون کے لئے اپنے اہداف پیش کیے۔ سیکریٹری برائے دفاع برائے انٹیلی جنس کے دفتر میں انٹلیجنس ، سرویلنس اینڈ ریکوناسیس آپریشنز ڈائریکٹوریٹ - وارفائٹر سپورٹ میں الگوریتھمک وارفیئر کراس فنکشن ٹیم کے سربراہ میرین کور کرنل ڈریو کوکور نے سال کے لئے اپنے بیان کردہ مقصد کے بارے میں بات کی۔ کمپیوٹر اشیاء کی نشاندہی کرنے کے لئے ہتھیاروں کے نظام کی صلاحیت کو بڑھانے کے لئے علامتی کام کریں گے۔

گوگل اس منصوبے میں شراکت دار رہا تھا ، لیکن - جیسا کہ مندرجہ بالا حوالہ سے اشارہ کیا گیا ہے - گوگل کے ملازمین کو یہ پسند نہیں آیا۔ آخر کار ، کمپنی دباؤ سے دم توڑ گئی اور جون 2018 میں اعلان کیا کہ وہ محکمہ دفاع کے ساتھ اپنے معاہدے کی تجدید نہیں کرے گی۔ جیسا کہ انٹرسیپٹ نے اطلاع دی ہے:

مارچ میں گیزموڈو اور دی انٹرسیپٹ کے ذریعہ معاہدہ سامنے آنے کے بعد سے گوگل کو بڑھتے ہوئے دباؤ کا سامنا کرنا پڑا۔ ایک درجن کے قریب ملازمین نے احتجاج کرتے ہوئے استعفیٰ دے دیا ، اور کئی ہزار افراد نے ایک کھلے خط پر دستخط کیے جس میں اعلان کیا گیا تھا کہ "گوگل کو جنگ کے کاروبار میں شامل نہیں ہونا چاہئے۔" 700 سے زائد ماہرین تعلیم نے بھی ایک خط پر دستخط کیے جس میں یہ مطالبہ کیا گیا ہے کہ "گوگل نے ڈوڈ کے ساتھ اپنا معاہدہ ختم کیا ، اور یہ کہ گوگل اور اس کی بنیادی کمپنی الفبیٹ فوجی ٹیکنالوجیز تیار کرنے اور فوجی مقاصد کے لئے جمع کردہ ذاتی ڈیٹا کو استعمال نہ کرنے کا عہد کرتی ہے۔

5. "مصنوعی ذہانت 2029 کے لگ بھگ انسانی سطح پر پہنچ جائے گی۔ اس کے بعد ، 2045 تک ، اس پر عمل کریں ، ہم اپنی تہذیب کی ذہانت ، انسانی حیاتیاتی مشین انٹیلیجنس کو ایک ارب گنا بڑھا دیں گے۔" - رے کرزوییل

مستقبل کے ماہر اور موجد نے یہ بات 2012 کے ایک انٹرویو میں کہی تھی جس میں اس نے کمپیوٹنگ طاقت کے ذریعہ لافانی کے حصول کے بارے میں بات کی تھی۔ انہوں نے "ارب پتی" کے اعداد و شمار کی تصدیق کی اور اس کی وضاحت اس طرح کی: "یہ اتنی ہی واحد تبدیلی ہے کہ ہم اس استعارہ کو طبیعیات سے مستعار لیتے ہیں اور اسے سنگلتا کہتے ہیں ، جو انسانی تاریخ میں ایک گہری رکاوٹ ہے۔ ہماری سوچ حیاتیاتی اور غیر حیاتیاتی سوچ کا ایک ہائبرڈ بن جائے گی۔ ”ظاہر ہے ، وہ ایک امید پسند مستقبل میں سے ایک ہے ، جس نے ایک ایسی خلل انگیز تبدیلی کی تصویر کشی کی ہے جس سے بہت فائدہ ہوگا۔ انہوں نے مزید وضاحت کی کہ وہ کیوں یقین رکھتے ہیں کہ لافانی حد تک پہنچنے کے قابل نہیں ہے: "ہم ہر سال ایک سال سے زیادہ آپ کی بقیہ زندگی کی توقع میں شامل کریں گے ، جہاں وقت کی ریت دوڑنے کے بجائے چل رہی ہے ، جہاں آپ کی باقی زندگی متوقع طور پر پھیلا ہوا ہے۔ وقت گزرتا ہے۔

6. مصنوعی ذہانت کی آمد کا سب سے بڑا فائدہ یہ ہے کہ AIs انسانیت کی تعریف میں مدد کریں گی۔ ہمیں اے آئی کی ضرورت ہے یہ بتانے کے لئے کہ ہم کون ہیں۔ - کیون کیلی

وائرڈ کے شریک بانی نے اپنی 2016 کی کتاب ، "ناگزیر: ان 12 تکنیکی قوتوں کو سمجھنا جو ہمارے مستقبل کی تشکیل کریں گے" میں یہ واضح دعوی لکھا ہے۔ جیسے ہی وہ روبوٹ کے ذریعہ آٹومیشن اور ملازمتوں کے عہدے پر آنے کا تصور کرتے ہیں ، توقع ہے کہ وہیں انکار کا ایک بار بار دور ہوگا ، لیکن ترقی ناگزیر ہے ، اور ہمیں اس کے مطابق ڈھالنا پڑے گا۔ جیسا کہ اس نے آئی بی ایم کو دیئے گئے ایک انٹرویو میں وضاحت کی تھی: "اے آئی کے ذریعے ، ہم بہت سی نئی قسم کی سوچ ایجاد کرنے جارہے ہیں جو حیاتیاتی لحاظ سے موجود نہیں ہیں اور یہ انسانی سوچ کی طرح نہیں ہیں ،" اور کمپیوٹر کلاؤڈ میں سلور کی استر جس کی روشنی وہ اجاگر کرتی ہے۔ یہ ہے: "لہذا ، یہ ذہانت انسانی سوچ کی جگہ نہیں لیتی ، بلکہ اسے بڑھا دیتی ہے۔"

7. "AI کے ساتھ اصل خطرہ بدکاری نہیں بلکہ اہلیت ہے۔ A سپرنٹیلینگنٹ AI اپنے اہداف کو پورا کرنے میں بہت اچھا ہوگا ، اور اگر وہ اہداف ہمارے ساتھ نہیں رکھتے ہیں تو ہم پریشانی میں مبتلا ہیں۔ آپ شائد اینٹی ہٹٹر نہیں ہیں جو چیونٹیوں کو بددیانتی سے دور کرتے ہیں ، لیکن اگر آپ کو ایک پن بجلی گرین انرجی پروجیکٹ کا انچارج ہے اور اس خطے میں کوئی چیونٹی سیلاب کی زد میں ہے تو چیونٹیوں کے لئے بھی برا ہے۔ آئیے انسانیت کو ان چیونٹیوں کی پوزیشن میں نہیں رکھتے ہیں۔ - سٹیفن ہاکنگ

یہ اقتباس 2015 کے اوائل کا ہے۔ اسٹیفن ہاکنگ نے ریڈڈٹ اے ایم اے (مجھ سے کچھ بھی پوچھیں) سوال و جواب کے سیشن کے دوران پیش کردہ اس جواب کا جواب تھا جو کسی استاد سے ایک سوال کے جواب میں جانا چاہتا تھا جو اپنی کلاسوں میں آنے والے اے آئی کے کچھ خدشات کو دور کرنے کا طریقہ معلوم کرنا چاہتا تھا ، یعنی درج ذیل:

آپ کلاس میں اپنے عقائد کی نمائندگی کیسے کریں گے؟ کیا ہمارے نقطہ نظر قابل تجدید ہیں؟ کیا آپ کو لگتا ہے کہ لیپرسن ٹرمنیٹر طرز کی "بری AI" کو چھوٹ دینے کی میری عادت بولی ہے؟ اور آخر میں ، آپ کو کیا اخلاقیات ہیں کہ مجھے اے آئی میں دلچسپی رکھنے والے اپنے طلبا کو تقویت ملنی چاہئے؟

ہاکنگ انسانیت پر AI کے ممکنہ طور پر تباہ کن اثرات کے بارے میں کچھ تشویش ظاہر کرتا ہے ، حالانکہ وہ ایسا مانتا ہے کہ اگر ہم اس کے لئے منصوبہ بنا لیتے ہیں تو خطرے کو سنبھالا جاسکتا ہے ، یہ نظریہ کچھ دوسرے لوگوں کے ذریعہ بھی مشترک ہے۔ (اس کے بارے میں مزید معلومات کے لئے ، دیکھیں کہ سپراینٹیلیجنٹ اے آئس کسی بھی وقت جلد ہی انسانوں کو کیوں نہیں تباہ کریں گے۔)

8. “آپ جاننا چاہتے ہیں کہ کس قدر ذہین سائبرگس عام گوشت اور خون انسانوں کا علاج کرسکتا ہے؟ اس سے تفتیش شروع کرنا بہتر ہے کہ انسان اپنے کم ذہین جانوروں سے کزنوں کے ساتھ کس طرح سلوک کرتا ہے۔ یقینا. یہ ایک کامل مشابہت نہیں ہے ، لیکن یہ بہترین آثار قدیمہ ہے جسے ہم حقیقت میں صرف تصور کرنے کی بجائے مشاہدہ کر سکتے ہیں۔ ۔یوال نوح ہراری

پروفیسر ہراری نے یہ بات اپنی 2017 2017، book کی کتاب ، "ہومو ڈیوس: کل کی ایک مختصر تاریخ" میں دی ہے۔ ان کا نظریہ مثبت مستقبل کے نظاروں سے الگ ہے جس کو وہ ڈیٹا ازم کہتے ہیں جس میں انسان اعلی درجے کی منزل کو سنوارتا ہے مصنوعی ذہانت ہم ہاکنگ کی وضاحت میں چیونٹیوں کے سیلاب میں آنے کی پوزیشن کے پابند ہیں۔ یہ ایک ایسا مستقبل ہے جس کا زیربحث ایک جامع اور ہر جگہ موجود "کائناتی ڈیٹا پروسیسنگ سسٹم" ہے ، اور مزاحمت بیکار ہے۔

9. "ہمیں مصنوعی ذہانت کی تحقیق میں جدید تحقیق اور اخلاقی اور اخلاقی امور کو فردا and اور اجتماعی طور پر حل کرنا چاہئے بائیوٹیکنالوجی، جو زندگی میں اہم توسیع ، ڈیزائنر بچوں اور میموری کو نکالنے کے قابل بنائے گا۔ - کلوس شواب

شواب نے جنوری 2016 میں چوتھے صنعتی انقلاب کے بارے میں اپنے خیالات شائع کیے۔ مثبت مستقبل کے ماہرین کی طرح ، انہوں نے بھی تصور کیا کہ مستقبل "جسمانی ، ڈیجیٹل اور حیاتیاتی دنیاوں کو ایسے طریقوں سے اڑا دے گا جو بنیادی طور پر انسانیت کو تبدیل کر دے گا۔" لیکن اس نے اسے قبول نہیں کیا کہ اس طرح کی "تبدیلی مثبت ہے" ، اور لوگوں کو "راستے میں پیدا ہونے والے خطرات اور مواقع" دونوں سے آگاہی کے ساتھ آگے کی منصوبہ بندی کرنے کی اپیل کی۔

10. "انسانیت کی بہترین اور بدترین دونوں کی عکاسی کرنے کے AI کے امکان کے بارے میں بہت کچھ لکھا گیا ہے۔ مثال کے طور پر ، ہم نے دیکھا ہے کہ اے آئی تنہا کو گفتگو اور راحت فراہم کرتی ہے۔ ہم نے بھی AI کو نسلی امتیاز میں مبتلا دیکھا ہے۔ پھر بھی سب سے بڑا نقصان جو AI کا ممکنہ طور پر قلیل مدتی افراد میں کرنا ہے وہ ہے ملازمت کی نقل مکانی ، کیوں کہ ہم AI کے ساتھ خود کار طریقے سے کام کرنے کی مقدار پہلے کی نسبت بہت زیادہ بڑا ہے۔ بحیثیت رہنما ، ہم سب پر یہ ذمہ داری عائد ہوتی ہے کہ ہم اس بات کو یقینی بنائیں کہ ہم ایسی دنیا کی تعمیر کر رہے ہیں جس میں ہر فرد کو ترقی کی منازل طے کرنے کا موقع ملے۔ - اینڈریو این جی

یہ اقتباس "ابھی مصنوعی ذہانت کیا کرسکتا ہے اور ابھی نہیں کرسکتا ہے ،" سے آیا ہے ، مضمون ، اسٹینفورڈ مصنوعی ذہانت لیبارٹری کے سابق ڈائریکٹر ، گوگل دماغ کی ٹیم کی بانی لیڈر ، اینڈریو نگ نے 2016 میں ہارورڈ بزنس ریویو کے لئے لکھا تھا۔ بیدو کی اے آئی ٹیم کی مجموعی برتری تھی۔ (2017 میں وہ لینڈنگ اے کے بانی اور ڈائریکٹر بنے۔) یہ اے آئی کی صلاحیتوں اور حدود کی وضاحت کرتا ہے جیسا کہ اس وقت تھا ، اور آج بھی یہ متعلقہ ہے۔ اگرچہ این جی ایک اعداد و شمار کے زیر اثر ڈسٹوپین مستقبل کو مرتب نہیں کررہا ہے ، لیکن وہ اس بات سے اتفاق کرتا ہے کہ جو لوگ اس کی نشوونما کرتے ہیں ان کی ذمہ داری عائد ہوتی ہے کہ وہ اس کے مطلوبہ اور غیر ارادتا consequences نتائج کو پوری طرح سمجھتے ہوئے ذمہ داری کے ساتھ اس کا اطلاق کریں۔

11. "اس کی کوئی وجہ اور کوئی راہ نہیں کہ 2035 تک انسانی ذہن مصنوعی ذہانت کی مشین کو برقرار رکھ سکے۔" - گرے سکاٹ

اس اقتباس کی غلط ٹائپ نہیں کی گئی ہے ، حالانکہ یہ اس راستے سے ہٹ جاتی ہے جس طرح آپ اسے کہیں بھی آن لائن دیکھیں گے کیونکہ یہ ہمیشہ ظاہر ہوتا ہے کہ "اس کی کوئی وجہ نہیں ہے اور کوئی طریقہ نہیں کہ 2035 تک انسانی ذہن مصنوعی ذہانت کی مشین کو برقرار رکھ سکے۔" کہانی. یہ ڈیجیٹل ذرائع میں کتنا پیچھے دکھائی دیتا ہے اس کی بنیاد پر ، اس کا امکان 2015 میں کہا گیا تھا۔ تاہم ، میں اس عرصے سے ویڈیوز اور ویڈیوز کے ذریعے گھنٹوں تلاشی کے بعد بھی اسے کسی خاص بات پر نہیں سمجھا۔ اس ل I میں نے اسکا Scottٹ سے خود ہی رابطہ کیا تاکہ منبع پوچھیں۔ انہوں نے اعتراف کیا ، "مجھے یاد نہیں جب میں نے پہلی بار یہ کہا تھا یا یہ کہاں تھا۔" لیکن انہوں نے اپنا یہ لفظ یاد کیا: "اقتباس ہمیشہ غلط رہا ہے۔ اسے "مصنوعی ذہانت" پڑھنا چاہئے۔