مصنوعی بار بار چلنے والے اعصابی نیٹ ورکس کی تربیت کرنے میں اکثر سخت کیوں رہتے ہیں؟

مصنف: Roger Morrison
تخلیق کی تاریخ: 27 ستمبر 2021
تازہ کاری کی تاریخ: 21 جون 2024
Anonim
لیکچر 7.4 — RNN کو تربیت دینا کیوں مشکل ہے؟ [مشین لرننگ کے لیے نیورل نیٹ ورک]
ویڈیو: لیکچر 7.4 — RNN کو تربیت دینا کیوں مشکل ہے؟ [مشین لرننگ کے لیے نیورل نیٹ ورک]

مواد

سوال:

مصنوعی بار بار چلنے والے اعصابی نیٹ ورکس کی تربیت کرنے میں اکثر سخت کیوں رہتے ہیں؟


A:

مصنوعی بار بار اعصابی نیٹ ورک کی تربیت کرنے میں دشواری کا ان کی پیچیدگی سے واسطہ پڑتا ہے۔

بار بار اعصابی نیٹ ورک کی تربیت کرنا کیوں مشکل ہے اس کی وضاحت کرنے کا ایک آسان ترین طریقہ یہ ہے کہ وہ فیڈفورڈ اعصابی نیٹ ورک نہیں ہیں۔

فیڈفورڈ اعصابی نیٹ ورک میں ، سگنل صرف ایک ہی راستہ پر منتقل ہوتے ہیں۔ سگنل ایک ان پٹ پرت سے مختلف پوشیدہ پرتوں ، اور آگے ، نظام کی آؤٹ پٹ پرت میں منتقل ہوتا ہے۔

اس کے برعکس ، اکثر اعصابی نیٹ ورک اور دیگر مختلف قسم کے اعصابی نیٹ ورک میں سگنل کی زیادہ پیچیدہ حرکت ہوتی ہے۔ "فیڈ بیک" نیٹ ورک کی حیثیت سے منسلک ، بار بار چلنے والے اعصابی نیٹ ورکس میں سگنل ہوسکتا ہے جس میں آگے اور پیچھے دونوں کا سفر ہوتا ہے ، اور اس میں نیٹ ورک میں مختلف "لوپ" شامل ہوسکتے ہیں جہاں نمبروں یا قدروں کو نیٹ ورک میں کھلایا جاتا ہے۔ ماہرین اس کو ان کی میموری سے وابستہ بار بار اعصابی نیٹ ورکس کے پہلو سے جوڑ دیتے ہیں۔

اس کے علاوہ ، یہاں تک کہ اعصابی نیٹ ورک کو متاثر کرنے والی ایک اور قسم کی پیچیدگی ہے۔ اس کی ایک عمدہ مثال قدرتی زبان پروسیسنگ کے میدان میں ہے۔


نفیس قدرتی زبان کی پروسیسنگ میں ، عصبی نیٹ ورک کو چیزوں کو یاد رکھنے کے قابل ہونے کی ضرورت ہے۔ اس میں بھی آدانوں کو لینے کی ضرورت ہے۔ فرض کریں کہ کوئی پروگرام ہے جو دوسرے لفظوں کے جملے میں کسی لفظ کا تجزیہ یا پیش گوئی کرنا چاہتا ہے۔ مثال کے طور پر ، نظام کی تشخیص کے ل five پانچ الفاظ کی ایک مقررہ لمبائی ہوسکتی ہے۔ اس کا مطلب یہ ہے کہ اعصابی نیٹ ورک کو ان الفاظ میں سے ہر ایک کے لئے "یاد رکھنے" یا اس کے الفاظ کی شکل میں تربیت دینے کی صلاحیت کے ساتھ ان پٹ بھی رکھنا ہوں گے۔ ان اور اسی طرح کی دیگر وجوہات کی بناء پر ، بار بار چلنے والے اعصابی نیٹ ورکس میں عام طور پر یہ بہت کم پوشیدہ لوپ ہوتے ہیں اور نظام میں فیڈ بیک۔

ماہرین نے افسوس کا اظہار کیا کہ ان پیچیدگیاں سے نیٹ ورکس کی تربیت مشکل ہو جاتی ہے۔ اس کی وضاحت کرنے کا ایک سب سے عام طریقہ یہ ہے کہ پھٹنے اور تدریجی مسئلے کو ختم کرنا۔ بنیادی طور پر ، نیٹ ورک کا وزن یا تو پھیل جائے گا یا بڑی تعداد میں گزرے ہوئے اقدار کو مٹا دے گا۔

اعصابی نیٹ ورک کے علمبردار جیف ہنٹن نے ویب پر اس رجحان کی وضاحت کرتے ہوئے کہا ہے کہ پسماندہ خطوطی گزرنے سے چھوٹا وزن تیزی سے سکڑ جاتا ہے اور پھٹے پھٹے پھیل جاتے ہیں۔


یہ مسئلہ ، وہ جاری رکھتا ہے ، لمبے لمبے لمبے لمبے لمبے لمبے لمحے ، اور جس میں اشارے بڑھتے یا خراب ہوتے چلے جاتے ہیں ، کے ساتھ یہ بدتر ہوتا جاتا ہے۔ وزن کی ابتدا میں مدد مل سکتی ہے ، لیکن یہ چیلنج بار بار اعصابی نیٹ ورک ماڈل میں شامل ہیں۔ تھیریس ہمیشہ یہ مسئلہ بنتا ہے کہ وہ اپنے مخصوص ڈیزائن اور تعمیر سے منسلک ہوں۔ بنیادی طور پر ، کچھ پیچیدہ قسم کے اعصابی نیٹ ورک واقعی میں آسانی سے ان کو منظم کرنے کی ہماری صلاحیت سے انکار کرتے ہیں۔ ہم عملی طور پر لامحدود پیچیدگی پیدا کرسکتے ہیں ، لیکن ہم اکثر دیکھتے ہیں کہ پیش گوئی اور توسیع پذیر چیلنجز بڑھتے ہیں۔