您好,現(xiàn)在蔡蔡來為大家解答以上的問題。elman神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò),Elman神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)問題相信很多小伙伴還不知道,現(xiàn)在讓我們一起來看看吧!
1、你是參考別人的代碼修改的吧?報(bào)錯(cuò)信息的意思是:input_train、output_train這兩個(gè)變量沒有定義。
2、你應(yīng)該在之前對(duì)這兩個(gè)變量進(jìn)行賦值,即將訓(xùn)練數(shù)據(jù)的輸入和輸出做成矩陣形式,以一列為一個(gè)樣本,再賦值給這兩個(gè)變量。
3、訓(xùn)練Elman神經(jīng)網(wǎng)絡(luò)可以用train()或者adapt()。
4、兩個(gè)函數(shù)不同之處在于,train()函數(shù)應(yīng)用反向傳播訓(xùn)練函數(shù)進(jìn)行權(quán)值修正,通常選用traingdx訓(xùn)練函數(shù);adapt()函數(shù)應(yīng)用學(xué)習(xí)規(guī)則函數(shù)進(jìn)行權(quán)值修正,通常選用learngdm函數(shù)。
5、Elman神經(jīng)網(wǎng)絡(luò)的可靠性要比一些其他類型網(wǎng)絡(luò)差一些,這是因?yàn)樵谟?xùn)練和調(diào)整時(shí),應(yīng)用誤差梯度的估計(jì)值。
6、恰恰因?yàn)檫@一點(diǎn),構(gòu)建網(wǎng)絡(luò)時(shí),為了達(dá)到這一精度,Elman神經(jīng)網(wǎng)絡(luò)隱含層神經(jīng)元的數(shù)目比其他網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)較多。
本文就為大家分享到這里,希望小伙伴們會(huì)喜歡。