研究背景
“人腦是如何工作的?”
“人類能否制作模拟人腦的人工神經元?”
多少年以來,人們從醫學、生物學、生理學、哲學、 信息學、 計算機科學、認知學、組織協同學等各個角度企圖認識并解答上述問題。在尋找上述問題答案的研究過程中,逐漸形成了一個新興的多學科交叉技術領域,稱之為“神經網絡”。神經網絡的研究涉及衆多學科領域,這些領域互相結合、相互滲透并相互推動。不同領域的科學家又從各自學科的興趣與特色出發,提出不同的問題,從不同的角度進行研究。
心理學家和認知科學家研究神經網絡的目的在于探索人腦加工、儲存和搜索信息的機制,弄清人腦功能的機理,建立人類認知過程的微結構理論。
生物學、 醫學、 腦科學專家試圖通過神經網絡的研究推動腦科學向定量、精确和理論化體系發展,同時也寄希望于臨床醫學的新突破;信息處理和計算機科學家研究這一問題的目的在于尋求新的途徑以解決不能解決或解決起來有極大困難的大量問題,構造更加逼近人腦功能的新一代計算機。
起源學說
人工神經元的研究起源于腦神經元學說。19世紀末,在生物、生理學領域,Waldeger等人創建了神經元學說。人們認識到複雜的神經系統是由數目繁多的神經元組合而成。大腦皮層包括有100億個以上的神經元,每立方毫米約有數萬個,它們互相聯結形成神經網絡,通過感覺器官和神經接受來自身體内外的各種信息,傳遞至中樞神經系統内,經過對信息的分析和綜合,再通過運動神經發出控制信息,以此來實現機體與内外環境的聯系,協調全身的各種機能活動。
神經元
人工神經網絡是由大量的簡單基本元件——神經元相互聯接而成的自适應非線性動态系統。每個神經元的結構和功能比較簡單,但大量神經元組合産生的系統行為卻非常複雜。
人工神經網絡反映了人腦功能的若幹基本特性,但并非生物系統的逼真描述,隻是某種模仿、簡化和抽象。與數字計算機比較,人工神經網絡在構成原理和功能特點等方面更加接近人腦,它不是按給定的程序一步一步地執行運算,而是能夠自身适應環境、總結規律、完成某種運算、識别或過程控制。神經元也和其他類型的細胞一樣,包括有細胞膜、細胞質和細胞核。但是神經細胞的形态比較特殊,具有許多突起,因此又分為細胞體、軸突和樹突三部分。細胞體内有細胞核,突起的作用是傳遞信息。樹突是作為引入輸入信号的突起,而軸突是作為輸出端的突起,它隻有一個。
樹突
樹突是細胞體的延伸部分,它由細胞體發出後逐漸變細,全長各部位都可與其他神經元的軸突末梢相互聯系,形成所謂“突觸”。在突觸處兩神經元并未連通,它隻是發生信息傳遞功能的結合部,聯系界面之間間隙約為(15~50)×10米。突觸可分為興奮性與抑制性兩種類型,它相應于神經元之間耦合的極性。每個神經元的突觸數目正常,最高可達10個。各神經元之間的連接強度和極性有所不同,并且都可調整、基于這一特性,人腦具有存儲信息的功能。利用大量神經元相互聯接組成人工神經網絡可顯示出人的大腦的某些特征。下面通過人工神經網絡與通用的計算機工作特點來對比一下:
速度比較
若從速度的角度出發,人腦神經元之間傳遞信息的速度要遠低于計算機,前者為毫秒量級,而後者的頻率往往可達幾百兆赫。但是,由于人腦是一個大規模并行與串行組合處理系統,因而,在許多問題上可以作出快速判斷、決策和處理,其速度則遠高于串行結構的普通計算機。人工神經網絡的基本結構模仿人腦,具有并行處理特征,可以大大提高工作速度。
利用突觸效能的變化來調整存貯内容
人腦存貯信息的特點為利用突觸效能的變化來調整存貯内容,也即信息存貯在神經元之間連接強度的分布上,存貯區與計算機區合為一體。雖然人腦每日有大量神經細胞死亡 (平均每小時約一千個),但不影響大腦的正常思維活動。
普通計算機是具有相互獨立的存貯器和運算器,知識存貯與數據運算互不相關,隻有通過人編出的程序使之溝通,這種溝通不能超越程序編制者的預想。元器件的局部損壞及程序中的微小錯誤都可能引起嚴重的失常。
人類大腦有很強的自适應與自組織特性,後天的學習與訓練可以開發許多各具特色的活動功能。如盲人的聽覺和觸覺非常靈敏;聾啞人善于運用手勢;訓練有素的運動員可以表現出非凡的運動技巧等等。
普通計算機的功能取決于程序中給出的知識和能力。顯然,對于智能活動要通過總結編制程序将十分困難。
發展曆史
人工神經網絡早期的研究工作應追溯至上世紀40年代。下面以時間順序,以著名的人物或某一方面突出的研究成果為線索,簡要介紹人工神經網絡的發展曆史。
1943年,心理學家W·Mcculloch和數理邏輯學家W·Pitts在分析、總結神經元基本特性的基礎上首先提出神經元的數學模型。此模型沿用至今,并且直接影響着這一領域研究的進展。因而,他們兩人可稱為人工神經網絡研究的先驅。
1945年 馮·諾依曼領導的設計小組試制成功存儲程序式電子計算機,标志着電子計算機時代的開始。1948年,他在研究工作中比較了人腦結構與存儲程序式計算機的根本區别,提出了以簡單神經元構成的再生自動機網絡結構。但是,由于指令存儲式計算機技術的發展非常迅速,迫使他放棄了神經網絡研究的新途徑,繼續投身于指令存儲式計算機技術的研究,并在此領域作出了巨大貢獻。雖然,馮·諾依曼的名字是與普通計算機聯系在一起的,但他也是人工神經網絡研究的先驅之一。
50年代末,F·Rosenblatt設計制作了“感知機”,它是一種多層的神經網絡。這項工作首次把人工神經網絡的研究從理論探讨付諸工程實踐。當時,世界上許多實驗室仿效制作感知機,分别應用于文字識别、聲音識别、聲納信号識别以及學習記憶問題的研究。然而,這次人工神經網絡的研究高潮未能持續很久,許多人陸續放棄了這方面的研究工作,這是因為當時數字計算機的發展處于全盛時期,許多人誤以為數字計算機可以解決人工智能、模式識别、專家系統等方面的一切問題,使感知機的工作得不到重視;其次,當時的電子技術工藝水平比較落後,主要的元件是電子管或晶體管,利用它們制作的神經網絡體積龐大,價格昂貴,要制作在規模上與真實的神經網絡相似是完全不可能的;另外,在1968年一本名為《感知機》的着作中指出線性感知機功能是有限的,它不能解決如 異或這樣的基本問題,而且多層網絡還不能找到有效的計算方法,這些論點促使大批研究人員對于人工神經網絡的前景失去信心。60年代末期,人工神經網絡的研究進入了低潮。
另外,在60年代初期,Widrow提出了自适應 線性元件網絡,這是一種連續取值的線性加權求和阈值網絡。後來,在此基礎上發展了非線性多層自适應網絡。當時,這些工作雖未标出神經網絡的名稱,而實際上就是一種人工神經網絡模型。
随着人們對感知機興趣的衰退,神經網絡的研究沉寂了相當長的時間。80年代初期,模拟與數字混合的 超大規模集成電路制作技術提高到新的水平,完全付諸實用化,此外,數字計算機的發展在若幹應用領域遇到困難。這一背景預示,向人工神經網絡尋求出路的時機已經成熟。 美國的物理學家Hopfield于1982年和1984年在美國科學院院刊上發表了兩篇關于人工神經網絡研究的論文,引起了巨大的反響。人們重新認識到神經網絡的威力以及付諸應用的現實性。随即,一大批學者和研究人員圍繞着 Hopfield提出的方法展開了進一步的工作,形成了80年代中期以來人工神經網絡的研究熱潮。
工作原理
人工神經網絡就是模拟人思維的第二種方式。這是一個 非線性動力學系統,其特色在于信息的分布式存儲和并行協同處理。雖然單個神經元的結構極其簡單,功能有限,但大量神經元構成的網絡系統所能實現的行為卻是極其豐富多彩的。
人工神經網絡首先要以一定的學習準則進行學習,然後才能工作。現以人工神經網絡對手寫“A”、“B”兩個字母的識别為例進行說明,規定當“A”輸入網絡時,應該輸出“1”,而當輸入為“B”時,輸出為“0”。
所以網絡學習的準則應該是:如果網絡作出錯誤的的判決,則通過網絡的學習,應使得網絡減少下次犯同樣錯誤的可能性。首先,給網絡的各連接權值賦予(0,1)區間内的随機值,将“A”所對應的圖象模式輸入給網絡,網絡将輸入模式加權求和、與門限比較、再進行非線性運算,得到網絡的輸出。在此情況下,網絡輸出為“1”和“0”的 概率各為50%,也就是說是完全随機的。這時如果輸出為“1”(結果正确),則使連接權值增大,以便使網絡再次遇到“A”模式輸入時,仍然能作出正确的判斷。
如果輸出為“0”(即結果錯誤),則把網絡連接權值朝着減小綜合輸入加權值的方向調整,其目的在于使網絡下次再遇到“A”模式輸入時,減小犯同樣錯誤的可能性。如此操作調整,當給網絡輪番輸入若幹個手寫字母“A”、“B”後,經過網絡按以上學習方法進行若幹次學習後,網絡判斷的正确率将大大提高。這說明網絡對這兩個模式的學習已經獲得了成功,它已将這兩個模式分布地記憶在網絡的各個連接權值上。當網絡再次遇到其中任何一個模式時,能夠作出迅速、準确的判斷和識别。一般說來,網絡中所含的神經元個數越多,則它能記憶、識别的模式也就越多。
如圖所示拓撲結構的單隐層前饋網絡,一般稱為三層前饋網或三層感知器,即:輸入層、 中間層(也稱隐層)和輸出層。它的特點是:各層神經元僅與相鄰層神經元之間相互全連接,同層内神經元之間無連接,各層神經元之間無反饋連接,構成具有層次結構的前饋型神經網絡系統。單計算層前饋神經網絡隻能求解線性可分問題,能夠求解非線性問題的網絡必須是具有隐層的多層神經網絡。
特性
思維學普遍認為,人類大腦的思維分為抽象(邏輯)思維、形象(直觀)思維和靈感(頓悟)思維三種基本方式。
邏輯性的思維是指根據邏輯規則進行 推理的過程;它先将信息化成概念,并用符号表示,然後,根據符号運算按串行模式進行邏輯推理;這一過程可以寫成串行的指令,讓計算機執行。然而,直觀性的思維是将分布式存儲的信息綜合起來,結果是忽然間産生想法或解決問題的辦法。這種思維方式的根本之點在于以下兩點:1.信息是通過神經元上的興奮模式分布儲在網絡上;2.信息處理是通過神經元之間同時相互作用的動态過程來完成的。
人工神經網絡具有初步的自适應與自組織能力。在學習或訓練過程中改變突觸權重值,以适應周圍環境的要求。同一網絡因學習方式及内容不同可具有不同的功能。人工神經網絡是一個具有學習能力的系統,可以發展知識,以緻超過設計者原有的知識水平。通常,它的學習訓練方式可分為兩種,一種是有監督或稱有導師的學習,這時利用給定的樣本标準進行分類或模仿;另一種是 無監督學習或稱無導師學習,這時,隻規定學習方式或某些規則,則具體的學習内容随系統所處環境 (即輸入信号情況)而異,系統可以自動發現環境特征和規律性,具有更近似人腦的功能。
研究方向
神經網絡的研究内容相當廣泛,反映了多學科交叉技術領域的特點。主要的研究工作集中在以下幾個方面:
(1)生物原型研究。從生理學、心理學、解剖學、 腦科學、病理學等生物科學方面研究神經細胞、神經網絡、神經系統的生物原型結構及其功能機理。
(2)建立 理論模型。根據生物原型的研究,建立神經元、神經網絡的 理論模型。其中包括 概念模型、知識模型、物理化學模型、數學模型等。
(3) 網絡模型與 算法研究。在 理論模型研究的基礎上構作具體的 神經網絡模型,以實現計算機模拟或準備制作硬件,包括 網絡學習 算法的研究。這方面的工作也稱為技術模型研究。
(4)人工神經網絡應用系統。在網絡模型與算法研究的基礎上,利用人工神經網絡組成實際的應用系統,例如,完成某種信号處理或 模式識别的功能、構作 專家系統、制成機器人等等。
縱觀當代新興科學技術的發展曆史,人類在征服宇宙空間、 基本粒子,生命起源等科學技術領域的進程中曆經了崎岖不平的道路。我們也會看到,探索人腦功能和神經網絡的研究将伴随着重重困難的克服而日新月異。
神經網絡
在人工神經網絡發展曆史中,很長一段時間裡沒有找到隐層的連接權值調整問題的有效算法。直到誤差反向傳播算法(BP算法)的提出,成功地解決了求解非線性連續函數的多層前饋神經網絡權重調整問題。
BP (Back Propagation)神經網絡,即誤差反傳誤差反向傳播算法的學習過程,由信息的正向傳播和誤差的反向傳播兩個過程組成。輸入層各神經元負責接收來自外界的輸入信息,并傳遞給中間層各神經元;中間層是内部信息處理層,負責信息變換,根據信息變化能力的需求,中間層可以設計為單隐層或者多隐層結構;最後一個隐層傳遞到輸出層各神經元的信息,經進一步處理後,完成一次學習的正向傳播處理過程,由輸出層向外界輸出信息處理結果。當實際輸出與期望輸出不符時,進入誤差的反向傳播階段。誤差通過輸出層,按誤差梯度下降的方式修正各層權值,向隐層、輸入層逐層反傳。周而複始的信息正向傳播和誤差反向傳播過程,是各層權值不斷調整的過程,也是神經網絡學習訓練的過程,此過程一直進行到網絡輸出的誤差減少到可以接受的程度,或者預先設定的學習次數為止。
BP神經網絡模型BP網絡模型包括其輸入輸出模型、作用函數模型、誤差計算模型和自學習模型。
(1)節點輸出模型
隐節點輸出模型:Oj=f(∑Wij×Xi-qj) (1)
輸出節點輸出模型:Yk=f(∑Tjk×Oj-qk) (2)
f-非線形作用函數;q -神經單元阈值。
(2)作用函數模型
作用函數是反映下層輸入對上層節點刺激脈沖強度的函數又稱刺激函數,一般取為(0,1)内連續取值Sigmoid函數: f(x)=1/(1+e乘方(-x)) (3)
(3)誤差計算模型
誤差計算模型是反映神經網絡期望輸出與計算輸出之間誤差大小的函數:
(4)
tpi- i節點的期望輸出值;Opi-i節點計算輸出值。
(4)自學習模型
神經網絡的學習過程,即連接下層節點和上層節點之間的權重矩陣Wij的設定和誤差修正過程。BP網絡有師學習方式-需要設定期望值和無師學習方式-隻需輸入模式之分。自學習模型為
△Wij(n+1)= h ×Фi×Oj+a×△Wij(n) (5)
h -學習因子;Фi-輸出節點i的計算誤差;Oj-輸出節點j的計算輸出;a-動量因子。
應用不足
神經網絡可以用作分類、 聚類、預測等。神經網絡需要有一定量的曆史數據,通過曆史數據的訓練,網絡可以學習到數據中隐含的知識。在你的問題中,首先要找到某些問題的一些特征,以及對應的評價數據,用這些數據來訓練神經網絡。
雖然BP網絡得到了廣泛的應用,但自身也存在一些缺陷和不足,主要包括以下幾個方面的問題。
首先,由于學習速率是固定的,因此網絡的收斂速度慢,需要較長的訓練時間。對于一些複雜問題,BP算法需要的訓練時間可能非常長,這主要是由于學習速率太小造成的,可采用變化的學習速率或自适應的學習速率加以改進。
其次,BP算法可以使權值收斂到某個值,但并不保證其為 誤差平面的全局最小值,這是因為采用梯度下降法可能産生一個局部最小值。對于這個問題,可以采用附加動量法來解決。
再次,網絡隐含層的層數和單元數的選擇尚無理論上的指導,一般是根據經驗或者通過反複實驗确定。因此,網絡往往存在很大的冗馀性,在一定程度上也增加了網絡學習的負擔。
最後,網絡的學習和記憶具有不穩定性。也就是說,如果增加了學習樣本,訓練好的網絡就需要從頭開始訓練,對于以前的權值和阈值是沒有記憶的。但是可以将預測、分類或聚類做的比較好的 權值保存。



















