Մի խոսքով, դուք չեք կարող կատարել հետ-տարածում, եթե չունեք օբյեկտիվ ֆունկցիա: Դուք չեք կարող ունենալ օբյեկտիվ ֆունկցիա, եթե չունեք չափում կանխատեսված արժեքի և պիտակավորված (փաստացի կամ ուսումնական տվյալների) արժեքի միջև: Այսպիսով, «չվերահսկվող ուսուցման» հասնելու համար դուք կարող եք կորցնել գրադիենտը հաշվարկելու ունակությունը:
Որո՞նք են հետևի տարածման սահմանափակումները:
Հետ տարածման ալգորիթմի թերությունները.
Այն հիմնված է մուտքագրման վրա՝ կոնկրետ խնդրի լուծման համար: Զգայուն է բարդ/աղմկոտ տվյալների նկատմամբ: Ցանցի նախագծման ժամանակի համար նրան անհրաժեշտ են ակտիվացման գործառույթների ածանցյալներ:
Ինչպե՞ս եք շտկում ետ տարածումը:
Հետ տարածման գործընթաց խորը նյարդային ցանցում
- Մուտքային արժեքներ. X1=0,05. …
- Նախնական քաշ. W1=0.15 w5=0.40. …
- Կողմնակալ արժեքներ. b1=0.35 b2=0.60.
- Թիրախային արժեքներ. T1=0.01. …
- Առաջ անցում. H1-ի արժեքը գտնելու համար մենք նախ բազմապատկում ենք մուտքային արժեքը կշիռներից որպես: …
- Հետ անցում ելքային շերտում: …
- Հետ անցում Թաքնված շերտում:
Արդյո՞ք ետ տարածումն արդյունավետ է:
Հետ տարածումը արդյունավետ է, ինչը հնարավոր է դարձնում մարզել բազմաթիվ նեյրոններ պարունակող բազմաշերտ ցանցեր՝ միաժամանակ թարմացնելով կշիռները՝ կորուստը նվազագույնի հասցնելու համար:
Ի՞նչ խնդիր է լուծում ետ տարածումը նեյրոնային ցանցերի հետ աշխատելիս:
Նյարդային ցանցի տեղադրման ժամանակ ետ տարածումը հաշվարկում է գրադիենտըկորստի ֆունկցիան՝ կապված ցանցի կշիռների հետ մեկ մուտքային-ելքային օրինակի համար, և դա անում է արդյունավետ՝ ի տարբերություն գրադիենտի միամիտ ուղղակի հաշվարկի՝ յուրաքանչյուր քաշի նկատմամբ առանձին: