Kunstmatige Intelligentie Rijksuniversiteit Groningen

Slides:



Advertisements
Verwante presentaties
Stichting FVP De route naar 1 januari 2014
Advertisements

Serieel naar parallel omzetting
Informatieverwerkende systemen
Psychologie en energiebesparing
How to build a robot Sander van Dijk Kunstmatige Intelligentie
Opdrachttaak kennissystemen:
AberdeenGroup surveyed 125 companies to understand their product innovation goals. Top challenges reported by these companies were: Cost pressure from.
bewerkingen in programmeeromgevingen
‘Inleiding programmeren in Java’ SWI cursus: ‘Inleiding programmeren in Java’ 4e college Woe 19 januari 2000 drs. F. de Vries.
1 Smart System Design Waar gaat dat over? Projectdag 17 april 2008 Prof Ton Mouthaan, decaan EWI.
II. N eurale netwerken (pag , boek) prof. dr. L. Schomaker (2004) KI RuG.
Newton - VWO Arbeid en warmte Samenvatting.
1 Datastructuren Sorteren: alleen of niet alleen vergelijkingen College 5.
1 Datastructuren Sorteren: alleen of niet alleen vergelijkingen (II) College 6.
Parallelle Algoritmen String matching. 1 Beter algoritme patroonanalyse Bottleneck in eenvoudig algoritme: WITNESS(j) (j = kandidaat in eerste i-blok)
Interaction diagrams: Sequence Diagram
IJspakketten Annette Ficker Tim Oosterwijk
Dynamic Systems: Exploring the Paradigms of Change Part II Hoofdstuk 3 uit: A dynamic Systems Appoach to the development of Cognition and Action (Thelen.
Insertie van etheen in BH 3 en NH 3 Doorrekenen van een reactiepad.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Overzicht samenvatting en discussie hc1 t/m hc4 samenvatting en discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak.
Normalisatie Relationeel databaseontwerp:
T U Delft Parallel and Distributed Systems group PGS Fundamentele Informatica in345 Deel 2 College 5 Cees Witteveen.
Java patterns Introductie tot GoF patterns in Java.
Approximate Cell Decomposition
Motion planning with complete knowledge using a colored SOM Jules Vleugels, Joost N. Kok, & Mark Overmars Presentatie: Richard Jacobs.
Statistiek voor Historici Hulpvak GB2HVST / G2HV09A Dr. L.J. Touwen College 3.
Doorrekenen van een reactiepad met het programma GAUSSIAN
Tussentoets Digitale Techniek. 1 november 2001, 11:00 tot 13:00 uur. Opmerkingen: 1. Als u een gemiddeld huiswerkcijfer hebt gehaald van zes (6) of hoger,
HR Marketing: probleem & oplossing tegelijkertijd
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Sorteeralgoritmen. Sorteren: aanpak 1 Hoe ga je een rij getallen sorteren met PC? Sorteren door selectie (= selection sort): Zoek de kleinste waarde Sorteer.
T U Delft Parallel and Distributed Systems group PGS Fundamentele Informatica in345 Deel 2 College 2 Cees Witteveen.
Rational Unified Process RUP Jef Bergsma. Iterations –Inception –Elaboration –Construction –Transition De kernbegrippen (Phases)
Inhoud college Bespreken opdracht Lijnbalancering: TPM
Inhoud college Lijnbalancering Comsoal Random Sequence Generation
Werken met de BETERapp Een hulpverlener vertelt: ‘Een herstelproces kenmerkt zich door terugval. Helaas vindt zo'n terugval normaliter niet plaats als.
Infoavond dementie 16 oktober 2014 Sint Lucas
Tellen van Stemmen … FEB, Studiedag Leraren Wiskunde, 6 mei 2010 Luc Lauwers.
Tel de zwarte stippen. Tel de zwarte stippen Lopen de horizontale lijnen evenwijdig of niet?
Toptaken: Je website is niet het probleem, je organisatie is het probleem Meetup #1 – Digitale Steden Agenda Michiel Duijsings Adviseur Nieuwe Media.
Neurale Netwerken Genetische Algorithmen
Rogier van der Linde & Davy De Winne, 2014
Representatie & Zoeken
T U Delft Parallel and Distributed Systems group PGS Fundamentele Informatica in345 Deel 2 College 6 Cees Witteveen.
Deltion College Engels B2 Lezen [Edu/003] thema: Topical News Lessons: The Onestop Magazine can-do: kan artikelen en rapporten begrijpen die gaan over.
Deltion College Engels B1 En Spreken/Presentaties [Edu/003]/ Subvaardigheid lezen Thema: Once upon a time… can-do : kan een verhaal(tje) vertellen © Anne.
GegevensAnalyse Les 2: Bouwstenen en bouwen. CUSTOMER: The Entity Class and Two Entity Instances.
gespreksvaardigheden
Grammatica zinsdelen H1 t/m H6
Digital Data Conservation Joeri Both BMI dag 31 mei 2016 NKI.
GUI & classes Een Gui in een class steken en het object gebruiken.
The Research Process: the first steps to start your reseach project. Graduation Preparation
Dia 1 van 23 Culturele waarden en communicatie in internationaal perspectief Dia’s bij hoofdstuk 6 Marie-Thérèse Claes Marinel Gerritsen.
Innovatie met IBM Cloud Orchestrator.
Salt & Light Zout & Licht
Regels voor vastleggen van ELVs
Werkwijze Hoe zullen we als groep docenten te werk gaan?
OER: delen en hergebruiken Onderwijs- en inspiratiedag, Hasselt,
Informatieverwerkende systemen
Sneller een beter personeelsrooster voor de gynaecologieafdeling van het JBZ Maartje van de Vrugt PhD.
ACTmodel van psychopathologie
Azure Data Factory Henry
DE NAYER INSTITUUT Hogeschool voor Wetenschap & Kunst
Transcript van de presentatie:

Kunstmatige Intelligentie Rijksuniversiteit Groningen Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Welkom Mei 2005

hc 5 Hopfield netwerken boek: H7

overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4 het leren 7.5 – 7.7 het “traveling sales person” probleem 7.8

herinneren in een Hopfield netwerk als iets wordt aangeboden dat lijkt op een ‘T’, zegt het netwerk dat het een ‘T’ is analoog met vage herinnering die wordt geassocieerd met het volledige plaatje, liedje of wat dan ook evolution under clamp fig. 7.12 vertel eerst wat over associatief geheugen in het brein! middelste plaatje: 0,5 noise, rechts 0,2 noise opnieuw: conventional programming techniques kunnen dit niet, de input moet precies en volledig zijn (database) stored pattern sensory cues

stored patterns are attractors #inputs = #outputs input: sensory cue output: stored pattern opnieuw energie minimaliseren, stable states dit keer is elk minimum een goede oplossing basins of attraction, elke input geeft als output de “stored pattern” die het dichtst bij is The ball comes to rest in the same place each time, because it “remembers” where the bottom of the bowl is. dichtst bij in hyperspace

huidige state x(t) en opgeslagen patterns x1, x2, ..., xn zijn vectoren het systeem evolueert van x(0) naar één van de stable states x1, x2, ..., xn xi (1 ≤ i ≤ n) correspondeert met een energie minimum Ei (basin of attraction) oorsprong zit meestal niet recht boven het minimum (0,0) x(0) x1 = x(4) x(1) x(2) x(3)

overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4 het leren 7.5 – 7.7 het “traveling sales person” probleem 7.8

van single layer perceptron naar Hopfield net begin met een single layer net met even veel inputs als outputs en full connectivity de volgende verbindingen verdwijnen: input1 – output1, input2 – output2, input3 – output3 recurrente verbindingen worden toegevoegd

van single layer perceptron naar Hopfield net de inputs worden onderdeel van de output neuronen

van single layer perceptron naar Hopfield net de inputs worden onderdeel van de output neuronen

van single layer perceptron naar Hopfield net

van single layer perceptron naar Hopfield net thresholds bij 0, dus geen sigmoid Hopfield (1982)

aan het begin van elke run wordt er een “sensory cue” aangeboden de output van een neuron is steeds input voor alle andere neuronen, waardoor de network state kan veranderen het netwerk convergeert naar een “stored pattern” gebruik die T als voorbeeld dit heeft nog niks met leren te maken, netwerk is al klaar

de state van het netwerk alle mogelijke states van een Hopfield net met drie neurons elke state correspondeert met een binair getal een netwerk met n neuronen heeft 2n states 1 2 3 4 5 6 7 output 0 of 1 bepaalt de locale state, alle locale states samen vormen de globale state

uitgewerkt voorbeeld p. 98, 99 stel, de externe input is het netwerk bevindt zich in state 0 (0,0,0) en neuron 1 vuurt 3 1 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden elk neuron staat voor een pixel, vergelijk met ‘T’

Het netwerk bevindt zich nu in state 4 (1,0,0) en neuron 3 vuurt 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden

Het netwerk blijft in state 4 (1,0,0) en neuron 2 vuurt -2 1 dit voorbeeld is als het leren al heeft plaatsgevonden -2 1 3 1 2 1

Het netwerk bevindt zich nu in state 6 (1,1,0) state 6 is een stable state welk neuron ook vuurt, het netwerk blijft in state 6 1 -2 1 dit voorbeeld is als het leren al heeft plaatsgevonden -2 1 3 1 2 1

de basins of attraction: {4, 2, 0, 5, 7} → 6 {1, 2, 0, 5, 7} → 3 basins of attraction overlappen, waar je terecht komt is afhankelijk van de volgorde waarin de neuronen vuren nondeterminisme 3 1 2 -2 dit voorbeeld is als het leren al heeft plaatsgevonden

overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4 het leren 7.5 – 7.7 het “traveling sales person” probleem 7.8

energie van verbindingen hoge eij state verandert i j 1 + i j 1 - lage eij state blijft gelijk we hebben het hier over de locale E, globale E is de som over alle verbindingen doe dat met die veren op het bord

energie tabel bij xi , xj Є {0,1} wij positief wij negatief xi xj eij 1 -wij xi xj eij 1 -wij berekeningen op het bord eij = -wijxixj

energie tabel bij xi, xj Є {-1,1} wij positief wij negatief xi xj eij -1 -wij 1 wij xi xj eij -1 -wij 1 wij berekeningen op het bord dit is wat we willen! eij = -wijxixj

afleiding ΔE: tweede regel: symmetrisch en non-reflexief derde regel: teken op het bord een schema met neuronen die wel in verbinding met deze staan en een paar niet vierde regel: wik = wki zesde regel: E’ is de energie na de volgende update

ΔE is in elke situatie negatief, true gradient descent ak ≥ 0 neuron k zal “aan” gaan of “aan” blijven Δxk ≥ 0 (Δxk is 0 of 2) ΔE = -Δxkak ≤ 0 ak < 0 neuron k zal “uit” gaan of “uit” blijven Δxk ≤ 0 (Δxk is 0 of -2) verwijs even naar het uitgewerkte voorbeeld, zodat iedereen weet wat met activatie bedoeld wordt

(non)determinisme asynchrone update gaat gepaard met nondeterminisme bij elke update kiezen welk neuron vuurt alternatief: synchroon updaten, alle neuronen vuren tegelijk

effect van synchrone update hogere ruimte complexiteit, de vorige en huidige globale state van het netwerk moeten worden opgeslagen geen overlappende basins of attraction meer eenduidige state transition diagrams, uit elk neuron vertrekt maar één pijl met probability 1: fig. 7.11 in tegenstelling tot het nondeterministische transition diagram van fig. 7.6 multiple state cycles

overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4 het leren 7.5 – 7.7 het “traveling sales person” probleem 7.8

leren one-shot-learning schaling van {0, 1} naar {-1, 1} geen epochs w kan dus onder of boven 0 uitkomen, afhankelijk van of meer paren gelijk zijn of ongelijk

de Hebb leer regel Hebb (1949): “When an axon of cell A is near enough to excite cell B and repeatedly or persistently firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency as one of the cells firing B, is increased.” James (1892): When two elementary brain processes have been active together or in immediate succession, one of them recurring, tends to propagate its excitement to the other. in ANNs: “Als twee cellen dezelfde waarde hebben, wordt de verbinding positiever, als ze verschillende waardes hebben wordt de verbinding negatiever.”

Hebb algoritme willekeurig training pattern aanbieden voor elke verbinding: pas <eq. 7.8> toe maak positieve weight change als twee cellen dezelfde waarde hebben maak negatieve weight change als twee cellen verschillende waardes hebben maakt van one-shot-learning een leeralgoritme zoals we dat gewend zijn, maar er is maar één epoch repeat this process for the whole training set. Er is geen sprake van epochs, eris maar 1 epoch hmm.. biologsich plausibel EN elegant (Occam’s razor)

spurious stable states inverse patronen, zijn niet echt spurious (arbitraire labels -1 en 1) daarnaast zijn er andere spurious stable states: mengsels van de opgeslagen patronen de energie van de spurious stable states is altijd hoger of gelijk aan de opgeslagen patronen (en hun inversen), daar kan je gebruik van maken sigmoid = noise

de analoge versie Hopfield (1984) states: N neuronen → hoeken van een ND hyperkubus sigmoid ipv. threshold; niet alleen de hoeken, maar de hele kubus leaky integrator dynamics biologisch plausibel hardware implementatie opnieuw: ontsnappen uit locale minima, dit keer dmv. sigmoid minima nogsteeds bij de juiste hoeken leg uit waarom je nu uit locale minima kan ontsnappen

overzicht het idee 7.1 – 7.3 het netwerk 7.4, 7.9 de energie 7.4 het leren 7.5 – 7.7 het “traveling sales person” probleem 7.8

TSP zoek de korste route door alle steden TSP Є class of combinatorial problems exponentiële worst-case-time-complexity variant op TSP: chip layout design teken TSP op het bord

TSP oplossen met Hopfield net applet lees hoe het werkt in het boek.

standaard Hopfield net applet

NN vs ML neurale netwerken zullen nooit hun doel verliezen als onderzoeksmiddel, maar het engineering doel is onzeker, NN verliest steeds vaker van ML en HMM, maar NN heeft één heel groot voordeel: leren kost veel tijd en computerkracht, maar het eindresultaat is een elegant programma van een paar kB dat binnen 0 seconden het antwoord geeft de snelheid is vele malen hoger dan bij machine learning technieken Occam’s razor

volgende college Kohonen boek H8