人工神經網絡

人工神經網絡

一種運算模型
人工神經網絡(Artificial Neural Network,即ANN ),是20世紀80 年代以來人工智能領域興起的研究熱點。它從信息處理角度對人腦神經元網絡進行抽象, 建立某種簡單模型,按不同的連接方式組成不同的網絡。在工程與學術界也常直接簡稱為神經網絡或類神經網絡。神經網絡是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成。每個節點代表一種特定的輸出函數,稱為激勵函數(activation function)。每兩個節點間的連接都代表一個對于通過該連接信号的加權值,稱之為權重,這相當于人工神經網絡的記憶。網絡的輸出則依網絡的連接方式,權重值和激勵函數的不同而不同。而網絡自身通常都是對自然界某種算法或者函數的逼近,也可能是對一種邏輯策略的表達。最近十多年來,人工神經網絡的研究工作不斷深入,已經取得了很大的進展,其在模式識别、智能機器人、自動控制、預測估計、生物、醫學、經濟等領域已成功地解決了許多現代計算機難以解決的實際問題,表現出了良好的智能特性。
    中文名:人工神經網絡 外文名:artificial neural network 所屬學科: 别 名:ANN 應用學科:人工智能 适用領域:模式分類

基本特征

神經元

a1~an為輸入向量的各個分量

w1~wn為神經元各個突觸的權值

b為偏置

f為傳遞函數,通常為非線性函數。以下默認為hardlim()

t為神經元輸出

數學表示 t=f(WA'+b)

W為權向量

A為輸入向量,A'為A向量的轉置

b為偏置

f為傳遞函數

可見,一個神經元的功能是求得輸入向量與權向量的内積後,經一個非線性傳遞函數得到一個标量結果。

單個神經元的作用:把一個n維向量空間用一個超平面分割成兩部分(稱之為判斷邊界),給定一個輸入向量,神經元可以判斷出這個向量位于超平面的哪一邊。

該超平面的方程: Wp+b=0

W權向量

b偏置

p超平面上的向量

基本要素

人工神經網絡是由大量處理單元互聯組成的非線性、自适應信息處理系統。它是在現代神經科學研究成果的基礎上提出的,試圖通過模拟大腦神經網絡處理、記憶信息的方式進行信息處理。人工神經網絡具有四個基本特征:

(1)非線性 非線性關系是自然界的普遍特性。大腦的智慧就是一種非線性現象。人工神經元處于激活或抑制二種不同的狀态,這種行為在數學上表現為一種非線性

關系。具有阈值的神經元構成的網絡具有更好的性能,可以提高容錯性和存儲容量。

(2)非局限性 一個神經網絡通常由多個神經元廣泛連接而成。一個系統的整體行為不僅取決于單個神經元的特征,而且可能主要由單元之間的相互作用、相互連接所決定。通過單元之間的大量連接模拟大腦的非局限性。聯想記憶是非局限性的典型例子。

(3)非常定性 人工神經網絡具有自适應、自組織、自學習能力。神經網絡不但處理的信息可以有各種變化,而且在處理信息的同時,非線性動力系統本身也在不斷變化。經常采用叠代過程描寫動力系統的演化過程。

(4)非凸性 一個系統的演化方向,在一定條件下将取決于某個特定的狀态函數。例如能量函數,它的極值相應于系統比較穩定的狀态。非凸性是指這種函數有多個極值,故系統具有多個較穩定的平衡态,這将導緻系統演化的多樣性。

人工神經網絡中,神經元處理單元可表示不同的對象,例如特征、字母、概念,或者一些有意義的抽象模式。網絡中處理單元的類型分為三類:輸入單元、輸出單元和隐單元。輸入單元接受外部世界的信号與數據;輸出單元實現系統處理結果的輸出;隐單元是處在輸入和輸出單元之間,不能由系統外部觀察的單元。神經元間的連接權值反映了單元間的連接強度,信息的表示和處理體現在網絡處理單元的連接關系中。人工神經網絡是一種非程序化、适應性、大腦風格的信息處理 ,其本質是通過網絡的變換和動力學行為得到一種并行分布式的信息處理功能,并在不同程度和層次上模仿人腦神經系統的信息處理功能。它是涉及神經科學、思維科學、人工智能、計算機科學等多個領域的交叉學科。

人工神經網絡是并行分布式系統,采用了與傳統人工智能和信息處理技術完全不同的機理,克服了傳統的基于邏輯符号的人工智能在處理直覺、非結構化信息方面的缺陷,具有自适應、自組織和實時學習的特點。

學習相關

學習類型

學習是神經網絡研究的一個重要内容,它的适應性是通過學習實現的。根據環境的變化,對權值進行調整,改善系統的行為。由Hebb提出的Hebb學習規則為神經網絡的學習算法奠定了基礎。Hebb規則認為學習過程最終發生在神經元之間的突觸部位,突觸的聯系強度随着突觸前後神經元的活動而變化。在此基礎上,人們提出了各種學習規則和算法,以适應不同網絡模型的需要。有效的學習算法,使得神經網絡能夠通過連接權值的調整,構造客觀世界的内在表示,形成具有特色的信息處理方法,信息存儲和處理體現在網絡的連接中。

根據學習環境不同,神經網絡的學習方式可分為監督學習和非監督學習。在監督學習中,将訓練樣本的數據加到網絡輸入端,同時将相應的期望輸出與網絡輸出相比較,得到誤差信号,以此控制權值連接強度的調整,經多次訓練後收斂到一個确定的權值。當樣本情況發生變化時,經學習可以修改權值以适應新的環境。使用監督學習的神經網絡模型有反傳網絡、感知器等。非監督學習時,事先不給定标準樣本,直接将網絡置于環境之中,學習階段與工作階段成為一體。此時,學習規律的變化服從連接權值的演變方程。非監督學習最簡單的例子是Hebb學習規則。競争學習規則是一個更複雜的非監督學習的例子,它是根據已建立的聚類進行權值調整。自組織映射、适應諧振理論網絡等都是與競争學習有關的典型模型。

分析方法

研究神經網絡的非線性動力學性質,主要采用動力學系統理論、非線性規劃理論和統計理論,來分析神經網絡的演化過程和吸引子的性質,探索神經網絡的協同行為和集體計算功能,了解神經信息處理機制。為了探讨神經網絡在整體性和模糊性方面處理信息的可能,混沌理論的概念和方法将會發揮作用。混沌是一個相當難以精确定義的數學概念。一般而言,“混沌”是指由确定性方程描述的動力學系統中表現出的非确定性行為,或稱之為确定的随機性。“确定性”是因為它由内在的原因而不是外來的噪聲或幹擾所産生,而“随機性”是指其不規則的、不能預測的行為,隻可能用統計的方法描述。

混沌動力學系統的主要特征是其狀态對初始條件的靈敏依賴性,混沌反映其内在的随機性。混沌理論是指描述具有混沌行為的非線性動力學系統的基本理論、概念、方法,它把動力學系統的複雜行為理解為其自身與其在同外界進行物質、能量和信息交換過程中内在的有結構的行為,而不是外來的和偶然的行為,混沌狀态是一種定态。混沌動力學系統的定态包括:靜止、平穩量、周期性、準同 期性和混沌解。混沌軌線是整體上穩定與局部不穩定相結合的結果,稱之為奇異吸引子。一個奇異吸引子有如下一些特征:(1)奇異吸引子是一個吸引子,但它既不是不動點,也不是周期解;(2)奇異吸引子是不可分割的,即不能分為兩個以及兩個以上的吸引子;(3)它對初始值十分敏感,不同的初始值會導緻極不相同的行為。

發展前景

發展趨勢

人工神經網絡特有的非線性适應性信息處理能力,克服了傳統人工智能方法對于直覺,如模式、語音識别、非結構化信息處理方面的缺陷,使之在神經專家系統、模式識别、智能控制、組合優化、預測等領域得到成功應用。人工神經網絡與其它傳統方法相結合,将推動人工智能和信息處理技術不斷發展。近年來,人工神經網絡正向模拟人類認知的道路上更加深入發展,與模糊系統、遺傳算法、進化機制等結合,形成計算智能,成為人工智能的一個重要方向,将在實際應用中得到發展。将信息幾何應用于人工神經網絡的研究,為人工神經網絡的理論研究開辟了新的途徑。神經計算機的研究發展很快,已有産品進入市場。光電結合的神經計算機為人工神經網絡的發展提供了良好條件。

神經網絡在很多領域已得到了很好的應用,但其需要研究的方面還很多。其中,具有分布存儲、并行處理、自學習、自組織以及非線性映射等優點的神經網絡與其他技術的結合以及由此而來的混合方法和混合系統,已經成為一大研究熱點。由于其他方法也有它們各自的優點,所以将神經網絡與其他方法相結合,取長補短,繼而可以獲得更好的應用效果。目前這方面工作有神經網絡與模糊邏輯、專家系統、遺傳算法、小波分析、混沌、粗集理論、分形理論、證據理論和灰色系統等的融合。

下面主要就神經網絡與小波分析、混沌、粗集理論、分形理論的融合進行分析。

與小波分析的結合

1981年,法國地質學家Morlet在尋求地質數據時,通過對Fourier變換與加窗Fourier變換的異同、特點及函數構造進行創造性的研究,首次提出了"小波分析"的概念,建立了以他的名字命名的Morlet小波。1986年以來由于YMeyer、S.Mallat及IDaubechies等的奠基工作,小波分析迅速發展成為一門新興學科。Meyer所着的"小波與算子",Daubechies所着的"小波十講"是小波研究領域最權威的着作。

小波變換是對Fourier分析方法的突破。它不但在時域和頻域同時具有良好的局部化性質,而且對低頻信号在頻域和對高頻信号在時域裡都有很好的分辨率,從而可以聚集到對象的任意細節。小波分析相當于一個數學顯微鏡,具有放大、縮小和平移功能,通過檢查不同放大倍數下的變化來研究信号的動态特性。因此,小波分析已成為地球物理、信号處理、圖像處理、理論物理等諸多領域的強有力工具。

小波神經網絡将小波變換良好的時頻局域化特性和神經網絡的自學習功能相結合,因而具有較強的逼近能力和容錯能力。在結合方法上,可以将小波函數作為基函數構造神經網絡形成小波網絡,或者小波變換作為前饋神經網絡的輸入前置處理工具,即以小波變換的多分辨率特性對過程狀态信号進行處理,實現信噪分離,并提取出對加工誤差影響最大的狀态特性,作為神經網絡的輸入。

小波神經網絡在電機故障診斷、高壓電網故障信号處理與保護研究、軸承等機械故障診斷以及許多方面都有應用,将小波神經網絡用于感應伺服電機的智能控制,使該系統具有良好的跟蹤控制性能,以及好的魯棒性,利用小波包神經網絡進行心血管疾病的智能診斷,小波層進行時頻域的自适應特征提取,前向神經網絡用來進行分類,正确分類率達到94%。

小波神經網絡雖然應用于很多方面,但仍存在一些不足。從提取精度和小波變換實時性的要求出發,有必要根據實際情況構造一些适應應用需求的特殊小波基,以便在應用中取得更好的效果。另外,在應用中的實時性要求,也需要結合DSP的發展,開發專門的處理芯片,從而滿足這方面的要求。

混沌神經網絡

混沌第一個定義是上世紀70年代才被Li-Yorke第一次提出的。由于它具有廣泛的應用價值,自它出現以來就受到各方面的普遍關注。混沌是一種确定的系統中出現的無規則的運動,混沌是存在于非線性系統中的一種較為普遍的現象,混沌運動具有遍曆性、随機性等特點,能在一定的範圍内按其自身規律不重複地遍曆所有狀态。混沌理論所決定的是非線性動力學混沌,目的是揭示貌似随機的現象背後可能隐藏的簡單規律,以求發現一大類複雜問題普遍遵循的共同規律。

1990年Kaihara、T.Takabe和M.Toyoda等人根據生物神經元的混沌特性首次提出混沌神經網絡模型,将混沌學引入神經網絡中,使得人工神經網絡具有混沌行為,更加接近實際的人腦神經網絡,因而混沌神經網絡被認為是可實現其真實世界計算的智能信息處理系統之一,成為神經網絡的主要研究方向之一。

與常規的離散型Hopfield神經網絡相比較,混沌神經網絡具有更豐富的非線性動力學特性,主要表現如下:在神經網絡中引入混沌動力學行為;混沌神經網絡的同步特性;混沌神經網絡的吸引子。

當神經網絡實際應用中,網絡輸入發生較大變異時,應用網絡的固有容錯能力往往感到不足,經常會發生失憶現象。混沌神經網絡動态記憶屬于确定性動力學運動,記憶發生在混沌吸引子的軌迹上,通過不斷地運動(回憶過程)一一聯想到記憶模式,特别對于那些狀态空間分布的較接近或者發生部分重疊的記憶模式,混沌神經網絡總能通過動态聯想記憶加以重現和辨識,而不發生混淆,這是混沌神經網絡所特有的性能,它将大大改善Hopfield神經網絡的記憶能力。混沌吸引子的吸引域存在,形成了混沌神經網絡固有容錯功能。這将對複雜的模式識别、圖像處理等工程應用發揮重要作用。

混沌神經網絡受到關注的另一個原因是混沌存在于生物體真實神經元及神經網絡中,并且起到一定的作用,動物學的電生理實驗已證實了這一點。

混沌神經網絡由于其複雜的動力學特性,在動态聯想記憶、系統優化、信息處理、人工智能等領域受到人們極大的關注。針對混沌神經網絡具有聯想記憶功能,但其搜索過程不穩定,提出了一種控制方法可以對混沌神經網絡中的混沌現象進行控制。研究了混沌神經網絡在組合優化問題中的應用。

為了更好的應用混沌神經網絡的動力學特性,并對其存在的混沌現象進行有效的控制,仍需要對混沌神經網絡的結構進行進一步的改進和調整,以及混沌神經網絡算法的進一步研究。

基于粗集理論

粗糙集(Rough Sets)理論是1982年由波蘭華沙理工大學教授Z.Pawlak首先提出,它是一個分析數據的數學理論,研究不完整數據、不精确知識的表達、學習、歸納等方法。粗糙集理論是一種新的處理模糊和不确定性知識的數學工具,其主要思想就是在保持分類能力不變的前提下,通過知識約簡,導出問題的決策或分類規則。目前,粗糙集理論已被成功應用于機器學習、決策分析、過程控制、模式識别與數據挖掘等領域。

粗集和神經網絡的共同點是都能在自然環境下很好的工作,但是,粗集理論方法模拟人類的抽象邏輯思維,而神經網絡方法模拟形象直覺思維,因而二者又具有不同特點。粗集理論方法以各種更接近人們對事物的描述方式的定性、定量或者混合性信息為輸入,輸入空間與輸出空間的映射關系是通過簡單的決策表簡化得到的,它考慮知識表達中不同屬性的重要性确定哪些知識是冗餘的,哪些知識是有用的,神經網絡則是利用非線性映射的思想和并行處理的方法,用神經網絡本身結構表達輸入與輸出關聯知識的隐函數編碼。

在粗集理論方法和神經網絡方法處理信息中,兩者存在很大的兩個區别:其一是神經網絡處理信息一般不能将輸入信息空間維數簡化,當輸入信息空間維數較大時,網絡不僅結構複雜,而且訓練時間也很長;而粗集方法卻能通過發現數據間的關系,不僅可以去掉冗餘輸入信息,而且可以簡化輸入信息的表達空間維數。其二是粗集方法在實際問題的處理中對噪聲較敏感,因而用無噪聲的訓練樣本學習推理的結果在有噪聲的環境中應用效果不佳。而神經網絡方法有較好的抑制噪聲幹擾的能力。

因此将兩者結合起來,用粗集方法先對信息進行預處理,即把粗集網絡作為前置系統,再根據粗集方法預處理後的信息結構,構成神經網絡信息處理系統。通過二者的結合,不但可減少信息表達的屬性數量,減小神經網絡構成系統的複雜性,而且具有較強的容錯及抗幹擾能力,為處理不确定、不完整信息提供了一條強有力的途徑。

目前粗集與神經網絡的結合已應用于語音識别、專家系統、數據挖掘、故障診斷等領域,将神經網絡和粗集用于聲源位置的自動識别,将神經網絡和粗集用于專家系統的知識獲取中,取得比傳統專家系統更好的效果,其中粗集進行不确定和不精确數據的處理,神經網絡進行分類工作。

雖然粗集與神經網絡的結合已應用于許多領域的研究,為使這一方法發揮更大的作用還需考慮如下問題:模拟人類抽象邏輯思維的粗集理論方法和模拟形象直覺思維的神經網絡方法更加有效的結合;二者集成的軟件和硬件平台的開發,提高其實用性。

與分形理論的結合

自從美國哈佛大學數學系教授Benoit B. Mandelbrot于20世紀70年代中期引入分形這一概念,分形幾何學(Fractal geometry)已經發展成為科學的方法論--分形理論,且被譽為開創了20世紀數學重要階段。現已被廣泛應用于自然科學和社會科學的幾乎所有領域,成為現今國際上許多學科的前沿研究課題之一。

由于在許多學科中的迅速發展,分形已成為一門描述自然界中許多不規則事物的規律性的學科。它已被廣泛應用在生物學、地球地理學、天文學、計算機圖形學等各個領域。

用分形理論來解釋自然界中那些不規則、不穩定和具有高度複雜結構的現象,可以收到顯着的效果,而将神經網絡與分形理論相結合,充分利用神經網絡非線性映射、計算能力、自适應等優點,可以取得更好的效果。

分形神經網絡的應用領域有圖像識别、圖像編碼、圖像壓縮,以及機械設備系統的故障診斷等。分形圖像壓縮/解壓縮方法有着高壓縮率和低遺失率的優點,但運算能力不強,由于神經網絡具有并行運算的特點,将神經網絡用于分形圖像壓縮/解壓縮中,提高了原有方法的運算能力。将神經網絡與分形相結合用于果實形狀的識别,首先利用分形得到幾種水果輪廓數據的不規則性,然後利用3層神經網絡對這些數據進行辨識,繼而對其不規則性進行評價。

分形神經網絡已取得了許多應用,但仍有些問題值得進一步研究:分形維數的物理意義;分形的計算機仿真和實際應用研究。随着研究的不斷深入,分形神經網絡必将得到不斷的完善,并取得更好的應用效果。?

應用分析

人工神經網絡的構築理念是受到生物(人或其他動物)神經網絡功能的運作啟發而産生的。人工神經網絡通常是通過一個基于數學統計學類型的學習方法(Learning Method)得以優化,所以人工神經網絡也是數學統計學方法的一種實際應用,通過統計學的标準數學方法我們能夠得到大量的可以用函數來表達的局部結構空間,另一方面在人工智能學的人工感知領域,我們通過數學統計學的應用可以來做人工感知方面的決定問題(也就是說通過統計學的方法,人工神經網絡能夠類似人一樣具有簡單的決定能力和簡單的判斷能力),這種方法比起正式的邏輯學推理演算更具有優勢。

神經網絡近來越來越受到人們的關注,因為它為解決大複雜度問題提供了一種相對來說比較有效的簡單方法。神經網絡可以很容易的解決具有上百個參數的問題(當然實際生物體中存在的神經網絡要比我們這裡所說的程序模拟的神經網絡要複雜的多)。神經網絡常用于兩類問題:分類和回歸。在結構上,可以把一個神經網絡劃分為輸入層、輸出層和隐含層(見圖1)。輸入層的每個節點對應一個個的預測變量。輸出層的節點對應目标變量,可有多個。在輸入層和輸出層之間是隐含層(對神經網絡使用者來說不可見),隐含層的層數和每層節點的個數決定了神經網絡的複雜度。

除了輸入層的節點,神經網絡的每個節點都與很多它前面的節點(稱為此節點的輸入節點)連接在一起,每個連接對應一個權重Wxy,此節點的值就是通過它所有輸入節點的值與對應連接權重乘積的和作為一個函數的輸入而得到,我們把這個函數稱為活動函數或擠壓函數。如圖2中節點4輸出到節點6的值可通過如下計算得到:

W14*節點1的值+W24*節點2的值

神經網絡的每個節點都可表示成預測變量(節點1,2)的值或值的組合(節點3-6)。注意節點6的值已經不再是節點1、2的線性組合,因為數據在隐含層中傳遞時使用了活動函數。實際上如果沒有活動函數的話,神經元網絡就等價于一個線性回歸函數,如果此活動函數是某種特定的非線性函數,那神經網絡又等價于邏輯回歸。

調整節點間連接的權重就是在建立(也稱訓練)神經網絡時要做的工作。最早的也是最基本的權重調整方法是錯誤回饋法,現在較新的有變化坡度法、類牛頓法、Levenberg-Marquardt法、和遺傳算法等。無論采用那種訓練方法,都需要有一些參數來控制訓練的過程,如防止訓練過度和控制訓練的速度。

決定神經網絡拓撲結構(或體系結構)的是隐含層及其所含節點的個數,以及節點之間的連接方式。要從頭開始設計一個神經網絡,必須要決定隐含層和節點的數目,活動函數的形式,以及對權重做那些限制等,當然如果采用成熟軟件工具的話,他會幫你決定這些事情。在諸多類型的神經網絡中,最常用的是前向傳播式神經網絡,也就是我們前面圖示中所描繪的那種。人們下面詳細讨論一下,為讨論方便假定隻含有一層隐含節點。可以認為錯誤回饋式訓練法是變化坡度法的簡化,其過程如下:前向傳播:數據從輸入到輸出的過程是一個從前向後的傳播過程,後一節點的值通過它前面相連的節點傳過來,然後把值按照各個連接權重的大小加權輸入活動函數再得到新的值,進一步傳播到下一個節點。

回饋:當節點的輸出值與我們預期的值不同,也就是發生錯誤時,神經網絡就要“學習”(從錯誤中學習)。我們可以把節點間連接的權重看成後一節點對前一節點的“信任”程度(他自己向下一節點的輸出更容易受他前面哪個節點輸入的影響)。學習的方法是采用懲罰的方法,過程如下:如果一節點輸出發生錯誤,那麼他看他的錯誤是受哪個(些)輸入節點的影響而造成的,是不是他最信任的節點(權重最高的節點)陷害了他(使他出錯),如果是則要降低對他的信任值(降低權重),懲罰他們,同時升高那些做出正确建議節點的信任值。對那些收到懲罰的節點來說,他也需要用同樣的方法來進一步懲罰它前面的節點。就這樣把懲罰一步步向前傳播直到輸入節點為止。

對訓練集中的每一條記錄都要重複這個步驟,用前向傳播得到輸出值,如果發生錯誤,則用回饋法進行學習。當把訓練集中的每一條記錄都運行過一遍之後,人們稱完成一個訓練周期。要完成神經網絡的訓練可能需要很多個訓練周期,經常是幾百個。訓練完成之後得到的神經網絡就是在通過訓練集發現的模型,描述了訓練集中響應變量受預測變量影響的變化規律。

由于神經網絡隐含層中的可變參數太多,如果訓練時間足夠長的話,神經網絡很可能把訓練集的所有細節信息都“記”下來,而不是建立一個忽略細節隻具有規律性的模型,我們稱這種情況為訓練過度。顯然這種“模型”對訓練集會有很高的準确率,而一旦離開訓練集應用到其他數據,很可能準确度急劇下降。為了防止這種訓練過度的情況,人們必須知道在什麼時候要停止訓練。在有些軟件實現中會在訓練的同時用一個測試集來計算神經網絡在此測試集上的正确率,一旦這個正确率不再升高甚至開始下降時,那麼就認為現在神經網絡已經達到做好的狀态了可以停止訓練。

神經網絡在訓練周期增加時準确度的變化情況

神經元網絡和統計方法在本質上有很多差别。神經網絡的參數可以比統計方法多很多。如圖4中就有13個參數(9個權重和4個限制條件)。由于參數如此之多,參數通過各種各樣的組合方式來影響輸出結果,以至于很難對一個神經網絡表示的模型做出直觀的解釋。實際上神經網絡也正是當作“黑盒”來用的,不用去管“盒子”裡面是什麼,隻管用就行了。在大部分情況下,這種限制條件是可以接受的。比如銀行可能需要一個筆迹識别軟件,但他沒必要知道為什麼這些線條組合在一起就是一個人的簽名,而另外一個相似的則不是。在很多複雜度很高的問題如化學試驗、機器人、金融市場的模拟、和語言圖像的識别,等領域神經網絡都取得了很好的效果。

神經網絡的另一個優點是很容易在并行計算機上實現,可以把他的節點分配到不同的CPU上并行計算。

在使用神經網絡時有幾點需要注意:第一,神經網絡很難解釋,目前還沒有能對神經網絡做出顯而易見解釋的方法學。

第二,神經網絡會學習過度,在訓練神經網絡時一定要恰當的使用一些能嚴格衡量神經網絡的方法,如前面提到的測試集方法和交叉驗證法等。這主要是由于神經網絡太靈活、可變參數太多,如果給足夠的時間,他幾乎可以“記住”任何事情。

第三,除非問題非常簡單,訓練一個神經網絡可能需要相當可觀的時間才能完成。當然,一旦神經網絡建立好了,在用它做預測時運行時還是很快得。

第四,建立神經網絡需要做的數據準備工作量很大。一個很有誤導性的神話就是不管用什麼數據神經網絡都能很好的工作并做出準确的預測。這是不确切的,要想得到準确度高的模型必須認真的進行數據清洗、整理、轉換、選擇等工作,對任何數據挖掘技術都是這樣,神經網絡尤其注重這一點。比如神經網絡要求所有的輸入變量都必須是0-1(或-1--+1)之間的實數,因此像“地區”之類文本數據必須先做必要的處理之後才能用作神經網絡的輸入。

上一篇:地勤

下一篇:耦合電路

相關詞條

相關搜索

其它詞條