یادگیری ماشینی و انتخاب تتا

ورودی تتا معرف برداری از پارامترهای تصوير است که در مدل استفاده می شود. برنامه يادگیری ماشینی ما سعی دارد تا مقادير پارامترها را در هنگام مواجهه با مثال های گوناگون به بهترين شکل ممکن تکمیل نمايد. در فصل دوم به چگونگی تحقق اين موضوع پرداخته خواهد شد. با ارائه يک مثال به دنبال درك بهتری نسبت به مدل يادگیری ماشینی هستیم . فرض کنید می خواهیم عملکردمان در آزمون را براساس تعداد ساعت های خواب و مطالعه روز قبل تعیین نمايیم.

اين امر مستلزم جمع آوری داده های زيادی است. هر نقطه از داده به صورت نمايش داده می شود که ساعت های خواب به صورت و تعداد ساعت های مطالعه در قالب نمايش داده می شوند. سؤال ديگر آن است که آيا ما بالاتر از متوسط کلاس عمل نموده ايم يا پايین تر از آن ها .

 

فرض ﻧﻤﺎﯾﯿﺪ ﮐﻪ ﻃﺮح ﻣﺪل ﻣﺎ ﺑﺮاي ﺑﻪ ﺻﻮرت ﺑﺎﻻ اﺳﺖ. اﯾﻦ ﻃﺮح ﻣﻌﺮف ﯾـﮏ رده ﺑﻨـﺪي  ﺧﻄﯽ اﺳﺖ ﮐﻪ ﺳﻄﺢ ﻣﺨﺘﺼﺎت را ﺑﻪ 2 ﻧﯿﻤﻪ ﺗﻘﺴﯿﻢ ﻣﯽ ﮐﻨﺪ. در اﯾﻦ ﻓﻀﺎ ﻣﯽ ﺧـﻮاﻫﯿﻢ ﺑـﺮدار ﭘـﺎراﻣﺘ ﺮθ را ﺑﻪ ﮔﻮﻧﻪ اي ﯾﺎد ﺑﮕﯿﺮﯾﻢ ﮐﻪ ﻣﺪل ﺗﻮاﻧﺎﯾﯽ ﯾﮏ ﭘﯿﺶ ﺑﯿﻨﯽ ﺻﺤﯿﺢ را داﺷﺘﻪ ﺑﺎﺷﺪ )1- ﺑـﺮاي ﻋﻤﻠﮑﺮدﻫـﺎي زﯾـﺮ ﻣﺘﻮﺳﻂ و 1+ ﺑﺮاي ﺳﺎﯾﺮ ﻋﻤﻠﮑﺮدﻫﺎ(. اﯾﻦ ﻧﻮع ﻣﺪل ﺗﺤﺖ ﻋﻨﻮان “ﭘِﺮﺳِﭙﺘِﺮون ﺧﻄﯽ1” ﺷﻨﺎﺧﺘﻪ ﻣﯽ ﺷﻮد و از ﺳﺎل 1950 ﺗﻮﺳﻂ ﻣﺤﻘﻘﺎن اﯾﻦ ﺣﻮزه ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﮔﺮﻓﺘﻪ اﺳـﺖ . ﺣـﺎل ﻓـﺮض ﻧﻤﺎﯾﯿـﺪ ﮐـﻪ داده ﻫـا ﻣﻄﺎﺑﻖ ﺷﮑﻞ4-1 اﺳﺖ.

ﺳﭙﺲ ﺑﺎ اﻧﺘﺨﺎب ﺑﻪ ﻋﻨﻮان ﺑﺮدار ﭘﺎراﻣﺘﺮي ﻣﻘﺎدﯾﺮ زﯾـﺮ ﺑـﻪ دﺳـﺖ ﻣـﯽ آﯾـﺪ و ﻣـﺪل  ﯾﺎدﮔﯿﺮي ﻣﺎﺷﯿﻨﯽ ﻣﺎ ﭘﯿﺶ ﺑﯿﻨﯽ درﺳﺘﯽ را اﻧﺠﺎم ﻣﯽ دﻫﺪ.

ﯾﮏ ﭘﺎراﻣﺘﺮ ﺑﺮدار ﺑﻬﯿﻨﻪ θ در ﻧﻘﺶ دﺳﺘﻪ ﺑﻨﺪ را ﻃﻮري ﻗﺮار ﻣﯽ دﻫﯿﻢ ﮐـﻪ ﭘـﯿﺶ ﺑﯿﻨـﯽ ﻫـﺎ ﺗـﺎ ﺣـﺪ ﻣﻤﮑﻦ ﮐﺎﻣﻞ ﺗﺮ ﺷﻮد. ﺑﺎﯾﺪ ﺗﻮﺟﻪ داﺷﺖ ﮐﻪ ﮔﺰﯾﻨﻪ ﻫﺎي ﻗﺎﺑﻞ اﻧﺘﺨﺎب زﯾﺎدي ﺑﺮاي θ وﺟﻮد دارﻧـﺪ ﮐـﻪ ﺑﻬﯿﻨـﻪ ﻫﺴﺘﻨﺪ. اﮐﺜﺮ اﯾﻦ اﻧﺘﺨﺎب ﻫﺎ ﺑﻪ ﻗﺪري ﺑﻪ ﻫﻢ ﻧﺰدﯾﮏ ﻫﺴﺘﻨﺪ ﮐﻪ ﺗﻔﺎوﺗﺸـﺎن ﻗﺎﺑـﻞ اﻏﻤـﺎض اﺳـﺖ . ﭼﻨﺎﻧﭽـﻪ ﺷﺮاﯾﻂ ﺑﻪ اﯾﻦ ﺻﻮرت ﻧﺒﺎﺷﺪ، ﻣﺎ ﺑﺎﯾـﺪ داده ﻫـﺎي ﺑﯿﺸـﺘﺮي ر ا ﺟﻤـﻊ آوري ﻧﻤـﺎﯾﯿﻢ ﺗـﺎ اﻧﺘﺨـﺎب دﻗﯿـﻖ ﺗـﺮ و ﻣﺤﺪودﺗﺮ ﺷﻮد. اﯾﻦ ﭼﯿﺪﻣﺎن ﻣﻨﻄﻘﯽ ﺑﻪ ﻧﻈﺮ ﻣﯽ رﺳﺪ. ﺑﺎ اﯾﻦ وﺟـﻮد ﻫﻨـﻮز ﻫـﻢ ﺑﺮﺧـﯽ از ﺳـﺆال ﻫـﺎي ﻣﻬـﻢ ﺑـﺎﻗﯽ ﻣﯽ ﻣﺎﻧﺪ. اول اﯾﻦ ﮐﻪ، ﭼﻄﻮر ﺑﻪ ﯾﮏ ﻣﻘﺪار ﺑﻬﯿﻨﻪ ﺑﺮاي ﺑﺮدار ﭘﺎراﻣﺘﺮ θ در ﺟﺎﯾﮕﺎه اوﻟﯿﻪ ﻣﯽ رﺳﯿﻢ؟ ﺣـﻞ اﯾـﻦ ﻣﺴﺄﻟﻪ ﻣﺴﺘﻠﺰم اﺳﺘﻔﺎده از ﺗﮑﻨﯿﮏ “ﺑﻬﯿﻨﻪ ﺳﺎزي1” اﺳـﺖ . ﻫـﺪف ﺳـﺎزوﮐﺎر ﺑﻬﯿﻨـﻪ ﺳـﺎزي ﺣـﺪاﮐﺜﺮ ﻧﻤـﻮدن ﻋﻤﻠﮑﺮد ﻣﺪل ﯾﺎدﮔﯿﺮي ﻣﺎﺷﯿﻨﯽ از ﻃﺮﯾﻖ ﭼﺮﺧﺶ ﻣﮑﺮر ﭘﺎراﻣﺘﺮﻫﺎ اﺳﺖ. اﯾﻦ ﮐﺎر ﺗﺎ زﻣﺎﻧﯽ اداﻣﻪ ﻣﯽ ﯾﺎﺑﺪ ﮐﻪ ﺧﻄﺎ ﺑﻪ ﺣﺪاﻗﻞ ﻣﻘﺪار ﻣﻤﮑﻦ ﺑﺮﺳﺪ. ﻣﻮﺿﻮع ﺑﺮدارﻫـﺎي ﭘـﺎراﻣﺘﺮي و ﻧﺤـﻮه ﯾـﺎﻓﺘﻦ راه ﻫـﺎﯾﯽ ﺑـﺮاي ﮐﺎرآﻣـﺪ ﻧﻤﻮدن اﯾﻦ ﻓﺮآﯾﻨﺪ در ﻓﺼﻞ دو ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار ﺧﻮاﻫﺪ ﮔﺮﻓﺖ. دوم اﯾﻦ ﮐﻪ، اﯾﻦ ﻣﺪل ﺧﺎص )ﻣﺪل ادراك ﺧﻄﯽ ( ﻣﺤﺪود ﺑﻪ رواﺑﻄﯽ اﺳﺖ ﮐﻪ ﻣﯽ ﺗﻮاﻧﺪ ﯾﺎد ﮔﺮﻓﺘﻪ ﺷﻮد. ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ، ﺗﻮزﯾﻊ داده ﻫﺎي ﺷﮑﻞ 5-1 را ﻧﻤﯽ ﺗﻮان ﺑﺎ ﻣﺪل ادراك ﺧﻄﯽ ﺑﻪ ﺧﻮﺑﯽ ﺗﻔﺴﯿﺮ ﻧﻤﻮد.

اﯾﻦ ﺷﺮاﯾﻂ ﺗﻨﻬﺎ ﻗﻄﺮه اي از درﯾﺎ اﺳﺖ. ورود ﺑﻪ ﻣﺴـﺄﻟﻪ ﻫـﺎي ﭘﯿﭽﯿـﺪه ﻧﻈﯿـﺮ ﺷـﻨﺎﺧﺖ اﺷـﯿﺎء و ﯾـﺎ ﺗﺤﻠﯿﻞ ﻣﺘﻦ ﻣﻮﺟﺐ ﺑﯿﺸﺘﺮ ﺷﺪن داﻣﻨﻪ داده ﻫﺎ و ﻏﯿﺮﺧﻄﯽ ﺷـﺪن رواﺑـﻂ ﺣـﺎﮐﻢ ﻣـﺎﺑﯿﻦ آن ﻫـﺎ ﻣـﯽ ﺷـﻮد. ﺑﻨﺎﺑﺮاﯾﻦ ﻣﺪل ﻫﺎي ﯾﺎدﮔﯿﺮي ﻣﺎﺷﯿﻨﯽ ﺑﻪ دﻧﺒﺎل ﺷﺒﯿﻪ ﺳﺎزي ﺳﺎﺧﺘﺎرﻫﺎﯾﯽ ﻫﺴﺘﻨﺪ ﮐﻪ ﺗﻮﺳﻂ ﻣﻐـﺰ ﻣـﺎ ﺑـﻪ ﮐـﺎر ﺑﺮده ﻣﯽ ﺷﻮﻧﺪ. اﯾﻦ ﭘﺪﯾﺪه ﺗﺤﺖ ﻋﻨﻮان “ﯾﺎدﮔﯿﺮي ﻋﻤﯿﻖ” ﺷﻨﺎﺧﺘﻪ ﻣﯽ ﺷﻮد. ﻣﺘﻦ اﯾﻦ ﮐﺘﺎب ﻧﯿﺰ ﺑﺮ اﯾﻦ ﻣﺒﻨﺎ ﻧﻮﺷﺘﻪ ﺷﺪه اﺳﺖ. ﯾﺎدﮔﯿﺮي ﻋﻤﯿﻖ ﺗﻮاﻧﺴﺘﻪ ﻣﻮﻓﻘﯿﺖ ﻫﺎي زﯾﺎدي را در ﺣﻞ ﻣﺴﺄﻟﻪ ﻫﺎي ﻣﺤﺎﺳﺒﻪ راﯾﺎﻧـﻪ اي و زﺑﺎن ﻃﺒﯿﻌﯽ ﮐﺴﺐ ﻧﻤﺎﯾﺪ. اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻫﺎ ﻧﻪ ﺗﻨﻬﺎ از ﺳﺎﯾﺮ ﻣﺪل ﻫﺎي ﯾﺎدﮔﯿﺮي ﻣﺎﺷﯿﻨﯽ ﺳﺒﻘﺖ ﮔﺮﻓﺘﻪ ﺑﻠﮑـﻪ اﻟﮕﻮي ﻣﻌﺮف ﺷﻨﺎﺳﯽ ﻣﻨﺎﺳﺒﯽ ﺑﺮاي دﻗﺖ ﻣﻐﺰ اﻧﺴﺎن ﻣﺤﺴﻮب ﻣﯽ ﺷﻮﻧﺪ.

 

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *