Download de presentatie
De presentatie wordt gedownload. Even geduld aub
GepubliceerdNorbert Peters Laatst gewijzigd meer dan 10 jaar geleden
1
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Welkom Mei 2005
2
hc 5 Hopfield netwerken boek: H7
3
overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8
4
herinneren in een Hopfield netwerk
als iets wordt aangeboden dat lijkt op een ‘T’, zegt het netwerk dat het een ‘T’ is analoog met vage herinnering die wordt geassocieerd met het volledige plaatje, liedje of wat dan ook evolution under clamp fig. 7.12 vertel eerst wat over associatief geheugen in het brein! middelste plaatje: 0,5 noise, rechts 0,2 noise opnieuw: conventional programming techniques kunnen dit niet, de input moet precies en volledig zijn (database) stored pattern sensory cues
5
stored patterns are attractors
#inputs = #outputs input: sensory cue output: stored pattern opnieuw energie minimaliseren, stable states dit keer is elk minimum een goede oplossing basins of attraction, elke input geeft als output de “stored pattern” die het dichtst bij is The ball comes to rest in the same place each time, because it “remembers” where the bottom of the bowl is. dichtst bij in hyperspace
6
huidige state x(t) en opgeslagen patterns x1, x2, ..., xn zijn vectoren
het systeem evolueert van x(0) naar één van de stable states x1, x2, ..., xn xi (1 ≤ i ≤ n) correspondeert met een energie minimum Ei (basin of attraction) oorsprong zit meestal niet recht boven het minimum (0,0) x(0) x1 = x(4) x(1) x(2) x(3)
7
overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8
8
van single layer perceptron naar Hopfield net
begin met een single layer net met even veel inputs als outputs en full connectivity de volgende verbindingen verdwijnen: input1 – output1, input2 – output2, input3 – output3 recurrente verbindingen worden toegevoegd
9
van single layer perceptron naar Hopfield net
de inputs worden onderdeel van de output neuronen
10
van single layer perceptron naar Hopfield net
de inputs worden onderdeel van de output neuronen
11
van single layer perceptron naar Hopfield net
12
van single layer perceptron naar Hopfield net
thresholds bij 0, dus geen sigmoid Hopfield (1982)
13
aan het begin van elke run wordt er een “sensory cue” aangeboden
de output van een neuron is steeds input voor alle andere neuronen, waardoor de network state kan veranderen het netwerk convergeert naar een “stored pattern” gebruik die T als voorbeeld dit heeft nog niks met leren te maken, netwerk is al klaar
14
de state van het netwerk
alle mogelijke states van een Hopfield net met drie neurons elke state correspondeert met een binair getal een netwerk met n neuronen heeft 2n states 1 2 3 4 5 6 7 output 0 of 1 bepaalt de locale state, alle locale states samen vormen de globale state
15
uitgewerkt voorbeeld p. 98, 99 stel, de externe input is
het netwerk bevindt zich in state 0 (0,0,0) en neuron 1 vuurt 3 1 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden elk neuron staat voor een pixel, vergelijk met ‘T’
16
Het netwerk bevindt zich nu in state 4 (1,0,0) en neuron 3 vuurt
2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden
17
Het netwerk blijft in state 4 (1,0,0) en neuron 2 vuurt
-2 1 dit voorbeeld is als het leren al heeft plaatsgevonden -2 1 3 1 2 1
18
Het netwerk bevindt zich nu in state 6 (1,1,0)
state 6 is een stable state welk neuron ook vuurt, het netwerk blijft in state 6 1 -2 1 dit voorbeeld is als het leren al heeft plaatsgevonden -2 1 3 1 2 1
19
de basins of attraction: {4, 2, 0, 5, 7} → 6 {1, 2, 0, 5, 7} → 3
basins of attraction overlappen, waar je terecht komt is afhankelijk van de volgorde waarin de neuronen vuren nondeterminisme 3 1 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden
20
overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8
21
energie van verbindingen
hoge eij state verandert i j 1 + i j 1 - lage eij state blijft gelijk we hebben het hier over de locale E, globale E is de som over alle verbindingen doe dat met die veren op het bord
22
energie tabel bij xi , xj Є {0,1}
wij positief wij negatief xi xj eij 1 -wij xi xj eij 1 -wij berekeningen op het bord eij = -wijxixj
23
energie tabel bij xi, xj Є {-1,1}
wij positief wij negatief xi xj eij -1 -wij 1 wij xi xj eij -1 -wij 1 wij berekeningen op het bord dit is wat we willen! eij = -wijxixj
24
afleiding ΔE: tweede regel: symmetrisch en non-reflexief
derde regel: teken op het bord een schema met neuronen die wel in verbinding met deze staan en een paar niet vierde regel: wik = wki zesde regel: E’ is de energie na de volgende update
25
ΔE is in elke situatie negatief, true gradient descent
ak ≥ 0 neuron k zal “aan” gaan of “aan” blijven Δxk ≥ 0 (Δxk is 0 of 2) ΔE = -Δxkak ≤ 0 ak < 0 neuron k zal “uit” gaan of “uit” blijven Δxk ≤ 0 (Δxk is 0 of -2) verwijs even naar het uitgewerkte voorbeeld, zodat iedereen weet wat met activatie bedoeld wordt
26
(non)determinisme asynchrone update gaat gepaard met nondeterminisme
bij elke update kiezen welk neuron vuurt alternatief: synchroon updaten, alle neuronen vuren tegelijk
27
effect van synchrone update
hogere ruimte complexiteit, de vorige en huidige globale state van het netwerk moeten worden opgeslagen geen overlappende basins of attraction meer eenduidige state transition diagrams, uit elk neuron vertrekt maar één pijl met probability 1: fig. 7.11 in tegenstelling tot het nondeterministische transition diagram van fig. 7.6 multiple state cycles
28
overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8
29
leren one-shot-learning schaling van {0, 1} naar {-1, 1} geen epochs
w kan dus onder of boven 0 uitkomen, afhankelijk van of meer paren gelijk zijn of ongelijk
30
de Hebb leer regel Hebb (1949): “When an axon of cell A is near enough to excite cell B and repeatedly or persistently firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency as one of the cells firing B, is increased.” James (1892): When two elementary brain processes have been active together or in immediate succession, one of them recurring, tends to propagate its excitement to the other. in ANNs: “Als twee cellen dezelfde waarde hebben, wordt de verbinding positiever, als ze verschillende waardes hebben wordt de verbinding negatiever.”
31
Hebb algoritme willekeurig training pattern aanbieden
voor elke verbinding: pas <eq. 7.8> toe maak positieve weight change als twee cellen dezelfde waarde hebben maak negatieve weight change als twee cellen verschillende waardes hebben maakt van one-shot-learning een leeralgoritme zoals we dat gewend zijn, maar er is maar één epoch repeat this process for the whole training set. Er is geen sprake van epochs, eris maar 1 epoch hmm.. biologsich plausibel EN elegant (Occam’s razor)
32
spurious stable states
inverse patronen, zijn niet echt spurious (arbitraire labels -1 en 1) daarnaast zijn er andere spurious stable states: mengsels van de opgeslagen patronen de energie van de spurious stable states is altijd hoger of gelijk aan de opgeslagen patronen (en hun inversen), daar kan je gebruik van maken sigmoid = noise
33
de analoge versie Hopfield (1984)
states: N neuronen → hoeken van een ND hyperkubus sigmoid ipv. threshold; niet alleen de hoeken, maar de hele kubus leaky integrator dynamics biologisch plausibel hardware implementatie opnieuw: ontsnappen uit locale minima, dit keer dmv. sigmoid minima nogsteeds bij de juiste hoeken leg uit waarom je nu uit locale minima kan ontsnappen
34
overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8
35
TSP zoek de korste route door alle steden
TSP Є class of combinatorial problems exponentiële worst-case-time-complexity variant op TSP: chip layout design teken TSP op het bord
36
TSP oplossen met Hopfield net
applet lees hoe het werkt in het boek.
37
standaard Hopfield net
applet
38
NN vs ML neurale netwerken zullen nooit hun doel verliezen als onderzoeksmiddel, maar het engineering doel is onzeker, NN verliest steeds vaker van ML en HMM, maar NN heeft één heel groot voordeel: leren kost veel tijd en computerkracht, maar het eindresultaat is een elegant programma van een paar kB dat binnen 0 seconden het antwoord geeft de snelheid is vele malen hoger dan bij machine learning technieken Occam’s razor
39
volgende college Kohonen boek H8
Verwante presentaties
© 2024 SlidePlayer.nl Inc.
All rights reserved.