De presentatie wordt gedownload. Even geduld aub

De presentatie wordt gedownload. Even geduld aub

Kunstmatige Intelligentie Rijksuniversiteit Groningen

Verwante presentaties


Presentatie over: "Kunstmatige Intelligentie Rijksuniversiteit Groningen"— Transcript van de presentatie:

1 Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Welkom Mei 2005

2 hc 5 Hopfield netwerken boek: H7

3 overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8

4 herinneren in een Hopfield netwerk
als iets wordt aangeboden dat lijkt op een ‘T’, zegt het netwerk dat het een ‘T’ is analoog met vage herinnering die wordt geassocieerd met het volledige plaatje, liedje of wat dan ook evolution under clamp fig. 7.12 vertel eerst wat over associatief geheugen in het brein! middelste plaatje: 0,5 noise, rechts 0,2 noise opnieuw: conventional programming techniques kunnen dit niet, de input moet precies en volledig zijn (database) stored pattern sensory cues

5 stored patterns are attractors
#inputs = #outputs input: sensory cue output: stored pattern opnieuw energie minimaliseren, stable states dit keer is elk minimum een goede oplossing basins of attraction, elke input geeft als output de “stored pattern” die het dichtst bij is The ball comes to rest in the same place each time, because it “remembers” where the bottom of the bowl is. dichtst bij in hyperspace

6 huidige state x(t) en opgeslagen patterns x1, x2, ..., xn zijn vectoren
het systeem evolueert van x(0) naar één van de stable states x1, x2, ..., xn xi (1 ≤ i ≤ n) correspondeert met een energie minimum Ei (basin of attraction) oorsprong zit meestal niet recht boven het minimum (0,0) x(0) x1 = x(4) x(1) x(2) x(3)

7 overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8

8 van single layer perceptron naar Hopfield net
begin met een single layer net met even veel inputs als outputs en full connectivity de volgende verbindingen verdwijnen: input1 – output1, input2 – output2, input3 – output3 recurrente verbindingen worden toegevoegd

9 van single layer perceptron naar Hopfield net
de inputs worden onderdeel van de output neuronen

10 van single layer perceptron naar Hopfield net
de inputs worden onderdeel van de output neuronen

11 van single layer perceptron naar Hopfield net

12 van single layer perceptron naar Hopfield net
thresholds bij 0, dus geen sigmoid Hopfield (1982)

13 aan het begin van elke run wordt er een “sensory cue” aangeboden
de output van een neuron is steeds input voor alle andere neuronen, waardoor de network state kan veranderen het netwerk convergeert naar een “stored pattern” gebruik die T als voorbeeld dit heeft nog niks met leren te maken, netwerk is al klaar

14 de state van het netwerk
alle mogelijke states van een Hopfield net met drie neurons elke state correspondeert met een binair getal een netwerk met n neuronen heeft 2n states 1 2 3 4 5 6 7 output 0 of 1 bepaalt de locale state, alle locale states samen vormen de globale state

15 uitgewerkt voorbeeld p. 98, 99 stel, de externe input is
het netwerk bevindt zich in state 0 (0,0,0) en neuron 1 vuurt 3 1 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden elk neuron staat voor een pixel, vergelijk met ‘T’

16 Het netwerk bevindt zich nu in state 4 (1,0,0) en neuron 3 vuurt
2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden

17 Het netwerk blijft in state 4 (1,0,0) en neuron 2 vuurt
-2 1 dit voorbeeld is als het leren al heeft plaatsgevonden -2 1 3 1 2 1

18 Het netwerk bevindt zich nu in state 6 (1,1,0)
state 6 is een stable state welk neuron ook vuurt, het netwerk blijft in state 6 1 -2 1 dit voorbeeld is als het leren al heeft plaatsgevonden -2 1 3 1 2 1

19 de basins of attraction: {4, 2, 0, 5, 7} → 6 {1, 2, 0, 5, 7} → 3
basins of attraction overlappen, waar je terecht komt is afhankelijk van de volgorde waarin de neuronen vuren nondeterminisme 3 1 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden

20 overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8

21 energie van verbindingen
hoge eij state verandert i j 1 + i j 1 - lage eij state blijft gelijk we hebben het hier over de locale E, globale E is de som over alle verbindingen doe dat met die veren op het bord

22 energie tabel bij xi , xj Є {0,1}
wij positief wij negatief xi xj eij 1 -wij xi xj eij 1 -wij berekeningen op het bord eij = -wijxixj

23 energie tabel bij xi, xj Є {-1,1}
wij positief wij negatief xi xj eij -1 -wij 1 wij xi xj eij -1 -wij 1 wij berekeningen op het bord dit is wat we willen! eij = -wijxixj

24 afleiding ΔE: tweede regel: symmetrisch en non-reflexief
derde regel: teken op het bord een schema met neuronen die wel in verbinding met deze staan en een paar niet vierde regel: wik = wki zesde regel: E’ is de energie na de volgende update

25 ΔE is in elke situatie negatief, true gradient descent
ak ≥ 0 neuron k zal “aan” gaan of “aan” blijven Δxk ≥ 0 (Δxk is 0 of 2) ΔE = -Δxkak ≤ 0 ak < 0 neuron k zal “uit” gaan of “uit” blijven Δxk ≤ 0 (Δxk is 0 of -2) verwijs even naar het uitgewerkte voorbeeld, zodat iedereen weet wat met activatie bedoeld wordt

26 (non)determinisme asynchrone update gaat gepaard met nondeterminisme
bij elke update kiezen welk neuron vuurt alternatief: synchroon updaten, alle neuronen vuren tegelijk

27 effect van synchrone update
hogere ruimte complexiteit, de vorige en huidige globale state van het netwerk moeten worden opgeslagen geen overlappende basins of attraction meer eenduidige state transition diagrams, uit elk neuron vertrekt maar één pijl met probability 1: fig. 7.11 in tegenstelling tot het nondeterministische transition diagram van fig. 7.6 multiple state cycles

28 overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8

29 leren one-shot-learning schaling van {0, 1} naar {-1, 1} geen epochs
w kan dus onder of boven 0 uitkomen, afhankelijk van of meer paren gelijk zijn of ongelijk

30 de Hebb leer regel Hebb (1949): “When an axon of cell A is near enough to excite cell B and repeatedly or persistently firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency as one of the cells firing B, is increased.” James (1892): When two elementary brain processes have been active together or in immediate succession, one of them recurring, tends to propagate its excitement to the other. in ANNs: “Als twee cellen dezelfde waarde hebben, wordt de verbinding positiever, als ze verschillende waardes hebben wordt de verbinding negatiever.”

31 Hebb algoritme willekeurig training pattern aanbieden
voor elke verbinding: pas <eq. 7.8> toe maak positieve weight change als twee cellen dezelfde waarde hebben maak negatieve weight change als twee cellen verschillende waardes hebben maakt van one-shot-learning een leeralgoritme zoals we dat gewend zijn, maar er is maar één epoch repeat this process for the whole training set. Er is geen sprake van epochs, eris maar 1 epoch hmm.. biologsich plausibel EN elegant (Occam’s razor)

32 spurious stable states
inverse patronen, zijn niet echt spurious (arbitraire labels -1 en 1) daarnaast zijn er andere spurious stable states: mengsels van de opgeslagen patronen de energie van de spurious stable states is altijd hoger of gelijk aan de opgeslagen patronen (en hun inversen), daar kan je gebruik van maken sigmoid = noise

33 de analoge versie Hopfield (1984)
states: N neuronen → hoeken van een ND hyperkubus sigmoid ipv. threshold; niet alleen de hoeken, maar de hele kubus leaky integrator dynamics biologisch plausibel hardware implementatie opnieuw: ontsnappen uit locale minima, dit keer dmv. sigmoid minima nogsteeds bij de juiste hoeken leg uit waarom je nu uit locale minima kan ontsnappen

34 overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4
het leren – 7.7 het “traveling sales person” probleem 7.8

35 TSP zoek de korste route door alle steden
TSP Є class of combinatorial problems exponentiële worst-case-time-complexity variant op TSP: chip layout design teken TSP op het bord

36 TSP oplossen met Hopfield net
applet lees hoe het werkt in het boek.

37 standaard Hopfield net
applet

38 NN vs ML neurale netwerken zullen nooit hun doel verliezen als onderzoeksmiddel, maar het engineering doel is onzeker, NN verliest steeds vaker van ML en HMM, maar NN heeft één heel groot voordeel: leren kost veel tijd en computerkracht, maar het eindresultaat is een elegant programma van een paar kB dat binnen 0 seconden het antwoord geeft de snelheid is vele malen hoger dan bij machine learning technieken Occam’s razor

39 volgende college Kohonen boek H8


Download ppt "Kunstmatige Intelligentie Rijksuniversiteit Groningen"

Verwante presentaties


Ads door Google