ﻻﯾﻪ ﻫﺎي ﺧﺮوﺟﯽ ﺳﺎﻓﺖ ﻣَﮑﺲ

در ﺑﺴﯿﺎري ﻣﻮاﻗﻊ اﻧﺘﻈﺎر ﻣﯽ رود ﮐﻪ ﺑﺮدار ﺧﺮوﺟـﯽ ﺗﻮزﯾـﻊ اﺣﺘﻤـﺎل در ﯾـﮏ ﺳـﺮي در ﺑﺮﮔﯿﺮﻧـﺪه ﺳﻄﺢ ﻫﺎي ﻧﺎﺳﺎزﮔﺎر دودوﯾﯽ ﺑﺎﺷﺪ. ﻓﺮض ﻧﻤﺎﯾﯿﺪ ﮐﻪ ﻣﯽ ﺧﻮاﻫﯿﻢ ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺑﺮاي ﺷﻨﺎﺳﺎﯾﯽ ﻋﺪدﻫﺎي دﺳﺖ ﻧﻮﺷﺘﻪ از ﻣﺠﻤﻮﻋﻪ داده MNIST اﯾﺠﺎد ﮐﻨﯿﻢ. ﻫﺮ ﺳﻄﺢ در ﺑﺮﮔﯿﺮﻧـﺪه (0 ﺗـﺎ 9) اﺳـﺖ ﮐـﻪ اﺷـﮑﺎل ﻧﺎﺳﺎزﮔﺎر ﻫﺴﺘﻨﺪ. در اﯾﻦ ﺷﺮاﯾﻂ ﻧﻤﯽ ﺗﻮاﻧﯿﻢ ﺑﺎ اﻃﻤﯿﻨﺎن 100 درﺻﺪي ﻋﺪدﻫﺎ را ﺗﺸﺨﯿﺺ دﻫﯿﻢ. ﺑﻪ ﻋﻨـﻮان ﻣﺜﺎل، در ﻣﻮرد اﻋﺪاد ﺻﻔﺮ و ﺷﺶ ﻧﻤﯽ ﺗﻮان ﺑﺎ اﻃﻤﯿﻨﺎن 100 درﺻﺪ در ﻣﻮرد ﺧﺮوﺟـﯽ اﻇﻬـﺎر ﻧﻈـﺮ ﻧﻤـﻮد. ﺗﻮزﯾﻊ اﺣﺘﻤﺎل اراﺋﻪ ﮔﺮ اﯾﺪه ﺑﻬﺘﺮي از اﻃﻤﯿﻨﺎن در ﻣﻮرد اﺣﺘﻤﺎل ﺗﺸﺨﯿﺺ ﻫﺎ اﺳﺖ. ﺑﺮاي اﯾﻦ ﻣﻨﻈـﻮر ﺑـﺮدار ﺧﺮوﺟﯽ ﻣﻮرد ﻧﻈﺮ را ﻣﯽ ﺗﻮان ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﯿﯿﻦ ﻧﻤﻮد.

ﺑﯿﺎن اﯾﻦ اﺣﺘﻤﺎل ﺑﺎ اﺳﺘﻔﺎده از ﻻﯾﻪ ﺧﺎص ﺧﺮوﺟﯽ ﺑﻪ دﺳﺖ ﻣﯽ آﯾـﺪ ﮐـﻪ “ﺳـﺎﻓﺖ ﻣَﮑـﺲ ” ﻧﺎﻣﯿـﺪه
ﻣﯽ ﺷﻮد. ﺧﺮوﺟﯽ ﯾﮏ ﻧﻮرون در ﻻﯾﻪ ﺳﺎﻓﺖ ﻣَﮑﺲ ﺑﺴﺘﮕﯽ ﺑﻪ ﺧﺮوﺟﯽ ﻫﺎي ﻧﻮرون ﻫـﺎ در ﻫﻤـﯿﻦ ﻻﯾـﻪ دارد.

 

ﻦ اﻣﺮ ﺑﺮ ﺧﻼف ﺷﺮاﯾﻄﯽ اﺳﺖ ﮐﻪ در ﺳﺎﯾﺮ ﻻﯾﻪ ﻫﺎ ﺣﺎﮐﻢ اﺳﺖ. ﺑﻪ ﻫﻤﯿﻦ دﻟﯿـﻞ ﻧﯿـﺎز دارﯾـﻢ ﮐـﻪ ﺗﻤـﺎﻣﯽ
ﺧﺮوﺟﯽ ﻫﺎﯾﯽ ﮐﻪ ﺑﺮاﺑﺮ ﺑﺎ ﯾﮏ اﺳﺖ را ﺟﻤﻊ ﻧﻤﺎﯾﯿﻢ. ﻓﺮض ﻧﻤﺎﯾﯿﺪ ﮐﻪ ﺗـﺎﺑﻊ ام ﻧـﻮرون ﺳـﺎﻓﺖ ﻣَﮑـﺲ اﺳﺖ. ﺑﺮ اﯾﻦ اﺳﺎس ﻣﯽ ﺗﻮان اﯾﻦ ﻧﺮﻣﺎل ﺳﺎزي را ﺑﺎ ﺗﻌﯿﯿﻦ ﺧﺮوﺟﯽ آن ﺑﻪ دﺳﺖ آورد

 

ﺧﻼﺻﻪ در اﯾﻦ ﻓﺼﻞ ﺗﻼش ﺷﺪ ﺗﺎ ﺑﻪ ﺑﺤﺚ ﻫﺎي ﭘﺎﯾﻪ ﯾﺎدﮔﯿﺮي ﻣﺎﺷﯿﻨﯽ و ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ ﭘﺮداﺧﺘﻪ ﺷـﻮد .
از اﯾﻦ رو ﺳﺎﺧﺘﺎر ﭘﺎﯾﻪ ﻧﻮرون، ﭼﮕﻮﻧﮕﯽ ﻋﻤﻠﮑﺮد ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ ﭘﯿﺸﺮو و ﺿﺮورت اﺳﺘﻔﺎده از ﺳﺎﺧﺘﺎرﻫﺎي ﻏﯿﺮﺧﻄﯽ در رﻓﻊ ﻣﺴﺄﻟﻪ ﻫﺎي ﭘﯿﭽﯿﺪه ﯾﺎدﮔﯿﺮي، ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار ﮔﺮﻓﺖ. در ﻓﺼﻞ ﺑﻌﺪي، ﭘﯿﺶ زﻣﯿﻨﻪ ﻫـﺎي رﯾﺎﺿﯽ ﻻزم ﺑﺮاي ﺑﻬﯿﻨﻪ ﻧﻤﻮدن ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ ﺟﻬﺖ ﺣﻞ ﻣﺴﺄﻟﻪ ﺗﺒﯿﯿﻦ ﻣﯽ ﺷﻮد. ﺑﻨﺎﺑﺮاﯾﻦ ﻧﺤـﻮه ﯾـﺎﻓﺘﻦ ﺑﺮدارﻫﺎي ﭘﺎراﻣﺘﺮي ﺑﻬﯿﻨﻪ، ﺑﻬﺘﺮﯾﻦ اﻗﺪام ﻫﺎ در ﺣﯿﻦ اﺻﻼح ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ و ﻧﯿﺰ ﭼﺎﻟﺶ ﻫﺎي اﺻـﻠﯽ اﯾـﻦ ﺣﻮزه ﻣﻮرد ﺑﺤﺚ و ﺑﺮرﺳﯽ ﻗﺮار ﺧﻮاﻫﻨﺪ ﮔﺮﻓﺖ. ﺑﺪﯾﻬﯽ اﺳﺖ ﮐﻪ اﯾﻦ اﯾﺪه ﻫﺎ ﺑﺮاي ﺳﺎﺧﺖ ﻃﺮح ﯾﮏ ﺷـﺒﮑﻪ ﻋﺼﺒﯽ ﺑﻪ ﮐﺎر ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮﻧﺪ.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *