Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.

Slides:



Advertisements
Verwante presentaties
The stock market will go up De beurswaarden zullen stijgen YESNO JA NEEN Is Jefken a good person ? Is Jefken een goed mens ? YES NO JA NEEN Is Lonny a.
Advertisements

AR voor Horn clause logica Introductie van: Unificatie.
Opdrachttaak kennissystemen:
Schatgraven in Gegevensbergen
Datastructuren Analyse van Algoritmen en O
Datastructuren Analyse van Algoritmen en O
‘Inleiding programmeren in Java’ SWI cursus: ‘Inleiding programmeren in Java’ 4e college Woe 19 januari 2000 drs. F. de Vries.
VBA en VBS Een introductie.
Tel de zwarte stippen!. Tel de zwarte stippen!
II. N eurale netwerken (pag , boek) prof. dr. L. Schomaker (2004) KI RuG.
Hoofdstuk 6: Controle structuren
VHDL Peter Slaets KHLim Functies en procedures Functies –type conversie functies »bit vector to integer en omgekeerd –verkorte componenten met maar 1 output.
Jan Talmon Medische Informatica Universiteit Maastricht
Visibility-based Probabilistic Roadmaps for Motion Planning Tim Schlechter 13 februari 2003.
Parallelle Algoritmen String matching. 1 Beter algoritme patroonanalyse Bottleneck in eenvoudig algoritme: WITNESS(j) (j = kandidaat in eerste i-blok)
Modellering, neurale netwerken, en numerieke cognitie
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Overzicht samenvatting en discussie hc1 t/m hc4 samenvatting en discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak.
Probleem P 1 is reduceerbaar tot P 2 als  afbeelding  :P 1  P 2 zo dat: I yes-instantie van P 1   (I) yes-instantie van P 2 als ook:  polytime-algoritme,
Divide and Conquer in Multi-agent Planning Multi-Agent Planning as the Process of Merging Distributed Sub-plans Eithan Ephrati and Jeffrey S. Rosenschein.
Vision-based robot motion planning using a topology representing neural network Gebaseerd op onderzoek verricht door Prof. M. Zeller et al. (1997), verbonden.
Netwerk Algorithms: Shortest paths1 Shortest paths II Network Algorithms 2004.
Motion planning with complete knowledge using a colored SOM Jules Vleugels, Joost N. Kok, & Mark Overmars Presentatie: Richard Jacobs.
Java en BlueJ Een goed idee?.
Welkom! MHV = Meneer Havelaar
Introductie Groepsleden: - Peter Davids - René Zuidhof - Fokko Bronsema - Nick ter Horst.
Tussentoets Digitale Techniek. 1 november 2001, 11:00 tot 13:00 uur. Opmerkingen: 1. Als u een gemiddeld huiswerkcijfer hebt gehaald van zes (6) of hoger,
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Datastructuren Sorteren, zoeken en tijdsanalyse
Chapter 5 Hit the road Grammar Stepping Stones 2 kgt.
Shortest path with negative arc-costs allowed. Dijkstra?
Russische roulette Live or die. 7 delen Startmenu Inzet Aantal kogels Het schot While - functie Opnieuw ja/nee High score.
Tel de zwarte stippen. Tel de zwarte stippen Lopen de horizontale lijnen evenwijdig of niet?
Deltion College Engels B1 Lezen [no. 001] can-do : 2 products compared.
Neurale Netwerken Genetische Algorithmen
Inleiding Adaptieve Systemen, Opleiding CKI, Utrecht. Auteur: Gerard Vreeswijk Inleiding adaptieve systemen Lerende classificatie systemen.
Les 3 Basisbouwstenen (deel 2) Programmeren met Visual Basic Karl Moens.
Hoofdstuk 3 - Conditionele logica
Parsing 1. Situering Contextvrije grammatica’s Predictive (of recursive-descent) parsing LR-parsing Parser generator: Yacc Error recovery 2.
T U Delft Parallel and Distributed Systems group PGS Fundamentele Informatica in345 Deel 2 College 6 Cees Witteveen.
Deltion College Engels B2 Spreken [Edu/001] thema: What’s in the news? can-do : kan verslag doen van een gebeurtenis en daarbij meningen met argumenten.
Tienerdienst 29 mei 2005 GOAL !!! Thema:.
AWK A Pattern scanning and processing language made by Aho Weinberger Kernighan and explained by Albert Montijn.
Spreadsheets. Testen. Met spreadsheets.. |  Spreadsheet, het meest gebruikte (test) tool in de wereld …  Aan de slag: Spreadsheet PRA  Risico’s en.
Deltion College Engels B1 Spreken [Edu/001] thema: song texts can-do : kan een onderwerp dat mij interesseert op een redelijk vlotte manier beschrijven.
Methods of Development #2: Logistiek. Conceptfase Pre-productiefase Productiefase Post-productiefase.
Future met will Gebruik je om te zeggen dat iets in de toekomst zal gaan gebeuren. Je gebruikt will als je voorspellingen doet zonder dat je daar bewijs.
Mavo 4.  Goal(s)  Letter Puzzle  Write a letter  Check the letters  Do assignments 4A, 5A, 6A & 7 in Student Book page 50  Evaluation.
Verschillende grafieken en formules
Minimum Opspannende Bomen Algoritmiek. 2 Inhoud Het minimum opspannende bomen probleem Een principe om een minimum opspannende boom te laten groeien Twee.
Key Process Indicator Sonja de Bruin
Minimum Opspannende Bomen
IPEM TOOLBOX.
Programmeren woensdag 4 oktober 2017.
Werkwijze Hoe zullen we als groep docenten te werk gaan?
Small Basic Console deel 2
VOS-identificatie en kwantitatieve bepaling d.m.v. gaschromatografie
Participatory Action Research
English 23 April 2018.
Gebruikersbijeenkomst SOWISO
Analog  Digital Conversion
Software Development fundamentals
VOS-identificatie en kwantitatieve bepaling d.m.v. gaschromatografie
Transcript van de presentatie:

Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005

overzicht samenvatting en discussie hc1 t/m hc4 samenvatting en discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak toepassingen toepassingen

hc 1 neurale netwerken – een overzicht neurale netwerken – een overzicht biologische en kunstmatige neuronen biologische en kunstmatige neuronen boek: H1 en H2, 2.5 komt later boek: H1 en H2, 2.5 komt later

biologische neuronen uitleg termen op p. 12, 13 boek

biologische neuronen

kunstmatige neuronen: de Threshold Logic Unit y = 1 if a >= Θ y = 0 if a < Θ x1x1 w1w1 x3x3 w3w3 x2x2 y w2w2 boek: figuur 2.4 (iets andere weergave). McCullogh & Pitts (1943)

informatieoverdracht tussen biologische en kunstmatige neuronen biologische neuronen gebruiken spike patronen kunstmatige neuronen gebruiken activatie tussen 0 en 1 axon activatie: biologischkunstmatig 00 f max 1

hc 2 TLUs, lineaire scheidbaarheid en vectoren TLUs, lineaire scheidbaarheid en vectoren TLUs trainen; de perceptron regel TLUs trainen; de perceptron regel boek: H3 en H4 boek: H3 en H4

y = 1 if a >= Θ y = 0 if a < Θ x1x1 w1w1 x2x2 y w2w2 1 TLU trainen (2 inputs, 1 output) “ordening” patterns en opsplitsen in trainingset {p 1,..., p n } en testset {p n + 1,..., p m } training set van patterns {p 1,..., p n }, p i = (x i1, x i2, t i ) voor elk pattern p i gewichten aanpassen dmv. error estimate (t i – y i ) y i is de output die de TLU geeft t i is wat de output zou moeten zijn test set van patterns {p n + 1,..., p m } error op de test set is de prestatie maat testen gebeurt na elk epoch

w’ = w + αvw’ = w – αv t y w’ = w + α(t – y)v Δw = α(t – y)v vector components i = 1 t/m (n + 1): Δw i = α(t – y)v i w = (w 1, w 2,..., w n, θ) v = (v 1, v 2,..., v n, -1) Perceptron Training Rule

the perceptron training algorithm boek p. 34 repeat for each training vector pair (v, t) evaluate the output y when v is input to the TLU if y ≠ t then form new weight vector w’ according to (4.4) else do nothing end if end for loop until y = t for all input vectors (4.4) w’ = w + α(t – y)v Perceptron Convergence Theorem: Als twee klasses lineair scheidbaar zijn zal het toepassen van bovenstaand algoritme leiden tot een decision hyperplane dat de twee klasses van elkaar scheidt. bewezen door Rosenblatt (1962)

hc 3 herhaling hc 2 herhaling hc 2 de delta regel de delta regel begin hc4 begin hc4 boek: H3, H4, H5 en 6.1 boek: H3, H4, H5 en 6.1

gradient descent E “n + 1 weights” locale minima globaal minimum E w

pattern training (sequential ipv. batch) error estimate e p : sequential learning snel, schatting delta regel w convergeert naar w 0, E(w 0 ) is een minimum bij niet lineair scheidbare problemen geeft w 0 het beste decision hyperplane perceptron regel w blijft oscilleren perceptron rule is afgeleid van hyperplane manipulation delta regel van gradient descent op de kwadratische fout

the delta rule training algorithm boek p. 59 repeat for each training vector pair (v, t) evaluate activation a when v is input to the TLU adjust each of the weights according to (5.13) end for loop until the rate of change of the error is sufficiently small.

σ(a) σ’(a) a uitbreiding van één TLU naar een single layer netwerk: σ’(a) Is het grootst rond a = 0, dan zijn de aanpassingen aan de gewichtsvector ook het grootst. input pattern index p neuron index j gewichts/input index i

hc 4 multilayer netwerken en backpropagation multilayer netwerken en backpropagation boek H6 boek H6

multilayer nets en backpropagation gradient descent op error E(w) sequential learning (pattern mode of training) outputs worden vergeleken met targets probleem: geen targets voor hidden neurons credit assignment problem

de gegeneraliseerde delta regel input pattern index p neuron index k, j gewichts/input index i I k : de verzameling van neuronen die de output van neuron k als input hebben

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern train on that pattern end for loop until the error is acceptably low. epoch

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hiddens calculate their output... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5)... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4)... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4) calculate δ’s for hidden neurons (eq. 6.6)... end for loop until the error is acceptably low.

6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4) calculate δ’s for hidden neurons (eq. 6.6) train hidden neurons with δ’s (eq. 6.4)... NOG EEN LAAG? end for loop until the error is acceptably low.

eq. 6.4, 6.5 en 6.6 (van boven naar beneden)

y1y1 y2y2 input 1 input 2 output 1 output 2

ontsnappen uit locale minima mogelijkheden: sequential ipv. batch (zie fig. 5.7) randomize training set na elk epoch momentum term learning rate: trade-off stabiliteit en snelheid afnemende learning rate locale minima globaal minimum E w

E(w) #epochs test set training set overfitting is in de praktijk geen probleem, mits netwerk niet te groot goed gevulde pattern space, gelijkmatig verdeeld, 5 samples per degree of freedom (gewicht) #epochs vaak niet groter dan 100 Wanneer stop je met trainen?