Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.

Slides:



Advertisements
Verwante presentaties
De gemiddelde leerling
Advertisements

SINT LUKAS HOGESCHOOL BRUSSEL
BRIDGE Vervolgcursus Vervolg op starterscursus Bridgeclub Schiedam ‘59 info: Maandagavond: 19: – of
November 2013 Opinieonderzoek Vlaanderen – oktober 2013 Opiniepeiling Vlaanderen uitgevoerd op het iVOXpanel.
Personalisatie van de Archis website Naam: Sing Hsu Student nr: Datum: 24 Juni 2004.
Global e-Society Complex België - Regio Vlaanderen e-Regio Provincie Limburg Stad Hasselt Percelen.
Ronde (Sport & Spel) Quiz Night !
Copyright © 2008 Tele Atlas. All rights reserved. Zet uw Business Data op de kaart: Locaties in eTOM ®
prNBN D addendum 1 Deel 2: PLT
Start.
Leiden University. The university to discover. ICLON, Interfacultair Centrum voor Lerarenopleiding, Onderwijsontwikkeling en Nascholing Denkgereedschap.
© GfK 2012 | Title of presentation | DD. Month
Oppervlakten berekenen
Nooit meer onnodig groen? Luuk Misdom, IT&T
Passie - Verrijzenis Arcabas
Ben Raes en Sam Decrock1 Tracking algoritmes Tracking Algoritmes Richting van ons project.
Elke 7 seconden een nieuw getal
1 introductie 3'46” …………… normaal hart hond 1'41” ……..
Oefeningen F-toetsen ANOVA.
Neuron.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Overzicht samenvatting en discussie hc1 t/m hc4 samenvatting en discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak.
Wat levert de tweede pensioenpijler op voor het personeelslid? 1 Enkele simulaties op basis van de weddeschaal B1-B3.
TUDelft Knowledge Based Systems Group Zuidplantsoen BZ Delft, The Netherlands Caspar Treijtel Multi-agent Stratego.
OHT 8.1 De Pelsmacker,Geuens & Van den Bergh, Marketingcommunicatie, vierde editie © Pearson Education 2011 Mediaplanning In dit hoofdstuk zul je het volgende.
In dit vakje zie je hoeveel je moet betalen. Uit de volgende drie vakjes kan je dan kiezen. Er is er telkens maar eentje juist. Ken je het juiste antwoord,
Netwerk Algorithms: Shortest paths1 Shortest paths II Network Algorithms 2004.
Spatial classificatie
WxHaskell part II Martijn Schrage (speciale versie van de slides, met screenshots toegevoegd als pictures)
Werken aan Intergenerationele Samenwerking en Expertise.
Breuken-Vereenvoudigen
CLICK THE END EINDE THE END May peace be with you EINDE Moge de vrede met jou zijn Next time I’ll present you the alphabet Volgende keer bied ik je het.
2009 Tevredenheidsenquête Resultaten Opleidingsinstellingen.
Ben Bruidegom 1 Sequentiële schakelingen Toestand uitgang bepaald door:  ingangen;  vorige toestand uitgang.
1 Van Harvard naar MIPS. 2 3 Van Harvard naar MIPS Microprocessor without Interlocked Pipeline Stages Verschillen met de Harvard machine: - 32 Registers.
PLAYBOY Kalender 2006 Dit is wat mannen boeit!.
ribwis1 Toegepaste wiskunde Lesweek 01 – Deel B
ribWBK11t Toegepaste wiskunde Lesweek 02
Tussentoets Digitale Techniek. 1 november 2001, 11:00 tot 13:00 uur. Opmerkingen: 1. Als u een gemiddeld huiswerkcijfer hebt gehaald van zes (6) of hoger,
Hidden Markov Models Introductie Project: 1. Initializatie 2. Training.
DEEL 2 LES 16 De verdieping Les 16 Slembiedingen versie
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Hoe gaat dit spel te werk?! Klik op het antwoord dat juist is. Klik op de pijl om door te gaan!
1 Controleplan 2005 Raadgevend comité Hotel President – donderdag 21 april 2005.
1 Over het examen (1): Modus Mondeling met schriftelijke voorbereiding 4 uur, 3 onderdelen: –Modellering (  schriftelijk, dan mondeling) –Queries / relationeel.
ZijActief Koningslust 10 jaar Truusje Trap
Versie 1: ; v2: ; v3: ; v4:… ca. 50 minuten met maken van tekening (vraag 12) ca. 40 minuten zonder maken van tekening (vraag.
ECHT ONGELOOFLIJK. Lees alle getallen. langzaam en rij voor rij
AS1200 moederbord. AS1200 Structuur RELREL Micro- controller P W F I / O I²C -Bus (seriëel) EEPROMDP1 B1 B2 DP2 B3 B4 AS1225 B1 B2 AS1225 B3 B4 AS1220.
17/08/2014 | pag. 1 Fractale en Wavelet Beeldcompressie Les 5.
17/08/2014 | pag. 1 Fractale en Wavelet Beeldcompressie Les 3.
Fractale en Wavelet Beeldcompressie
Fractale en Wavelet Beeldcompressie
De financiële functie: Integrale bedrijfsanalyse©
Logistics: a driver for innovation Low costs High value Flexibility now and later Superior technology Timwood - T > No transport - I > No Inventory - M.
Worteltrekken (1) F.J. Schuurman De Meibrink 30 Dinxperlo.
Even voorstellen : Groep 3b
1 Zie ook identiteit.pdf willen denkenvoelen 5 Zie ook identiteit.pdf.
welke hoef je niet te leren?
ZijActief Koningslust
Neurale Netwerken Genetische Algorithmen
Hoofdstuk 3 - Conditionele logica
Woensdag 1 april 2015 Roosterwijzigingen Corvee rooster week 14 (4 april t/m 8 april): Grote Beer en Melkweg 10.30, en uur: 1L Melkweg en Grote.
Transcript van de presentatie:

Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005

2 hc 4 multilayer netwerken en backpropagation multilayer netwerken en backpropagation boek H6 boek H6

3 rooster wijzigingen practicum vrijdag 13 mei is verplaatst naar donderdag 12 mei, 11 tot 13 in M229 hoorcollege maandag 16 mei vervalt practicum aanstaande donderdag en vrijdag vervalt. extra tips voor bij pr1 op de site

4 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap error landschap netwerken aan het werk netwerken aan het werk

5 multilayer nets en backpropagation gradient descent op error E(w) sequential learning (pattern mode of training) outputs worden vergeleken met targets probleem: geen targets voor hidden neurons credit assignment problem

6 de gegeneraliseerde delta regel input pattern index p neuron index k, j gewichts/input index i I k : de verzameling van neuronen die de output van neuron k als input hebben

7 forward pass, backward pass forward pass: output doorgeven aan de volgende laag backward pass: δ j teruggeven aan de vorige laag

8 1 1 (1,1) x2x2 x1x1 (0,1) (1,0) (0,0) 0 x1x1 x2x2 t p1p1 110 p2p2 101 p3p3 011 p4p4 000 XOR probleem: niet lineair scheidbaar, niet op te lossen door single layer net

9 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap error landschap netwerken aan het werk netwerken aan het werk

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern train on that pattern end for loop until the error is acceptably low. epoch

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hiddens calculate their output... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5)... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4)... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4) calculate δ’s for hidden neurons (eq. 6.6)... end for loop until the error is acceptably low.

The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4) calculate δ’s for hidden neurons (eq. 6.6) train hidden neurons with δ’s (eq. 6.4)... NOG EEN LAAG? end for loop until the error is acceptably low.

19 eq. 6.4, 6.5 en 6.6 (van boven naar beneden)

20 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap error landschap netwerken aan het werk netwerken aan het werk

y1y1 y2y2 input 1 input 2 output 1 output 2

22 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap error landschap netwerken aan het werk netwerken aan het werk

23 ontsnappen uit locale minima mogelijkheden: sequential ipv. batch (zie fig. 5.7) randomize training set na elk epoch momentum term learning rate: trade-off stabiliteit en snelheid afnemende learning rate locale minima globaal minimum E w

24 Wat is een acceptabele error? Als alle training data correct geclassificeerd wordt, of bijvoorbeeld 99%? Of is het de error op de test set die van belang is? Is het als het netwerk een dal in het error landschap bereikt heeft?

25 momentum term momentum term is als een rollende bal en versnelt het leren: de vorige Δw wordt opgeteld bij de huidige Δw ji (n) =... + λ Δw ji (n + 1) hoe langer Δw hetzelfde teken houdt, hoe groter de momentum term (recursie)

26 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap error landschap netwerken aan het werk netwerken aan het werk

27 belangrijke opmerkingen neurale netwerken bevinden zich op de grens van handelbare complexiteit backpropagation: Rumelhart (1986) θ moet ook leren, θ bepaalt “het snijpunt met de y-as” sigmoid; blurry decision boundaries threshold; scherpe decision boundaries grafieken in 2D representeren nD

28 varianten op het two layer perceptron met full connectivity meer dan één hidden layer (zelden meer dan twee) geen full connectivity geen gelaagdheid feedback loops

29 getrainde netwerken saturation één hidden layer; elk hidden neuron gaat gepaard met een decision hyperplane (fig. 6.9) elk gebied kan zo afgebakend worden: verbonden, niet verbonden, concaaf en convex (fig. 6.8)

30 function fitting naast classificaties kunnen neurale netwerken ook functies leren. training en test data bestaan dan uit x/y- paren innitialisatie test na 2epochs test na 20 epochs x sin(x)

31 wat zijn features in onderstaande tabel? vervang elke ‘0’ door ‘-1’ en gebruik input-output correlatie gewichten van goed getraind netwerk volgen correlatie nauwkeurig #x1x1 x2x2 x3x3 x4x4 x5x5 x6x6 x7x7 x8x8 x9x9 x 10 x 11 y p1p p2p p3p p4p feature extraction

32 generalisatie elk hidden neuron gaat gepaard met een decision hyperplane je kan de training set perfect modelleren, maar is dat wel de bedoeling? #hiddens: trade-off uitdrukkingskracht en generalisatie voorbeeld op het bord, zie fig function fitting variant, zie fig. 6.15

33 E(w) #epochs test set training set overfitting is in de praktijk geen probleem, mits netwerk niet te groot goed gevulde pattern space, gelijkmatig verdeeld, 5 samples per degree of freedom (gewicht) #epochs vaak niet groter dan 100, maar kan oplopen tot vele duizenden Wanneer stop je met trainen?

34 net pruning een gewicht met waarde 0 is hetzelfde als “geen verbinding”, gebruik een leerregel die voorkeur heeft voor een lage gewichten-som er “verdwijnen” dus hidden neurons tijdens het leren, pruning bevordert generalisatie gebruik een leerregel die de voorkeur heeft voor netwerken met veel gewichten dichtbij 0. E = E t + λE c E t = normale error estimate (e p ) een mogelijkheid voor de comlexity penalty: E c = sommeer alle gewichtswaardes de term “netwerk topologie”

35 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap error landschap netwerken aan het werk netwerken aan het werk

36 applications psychiatric patient length of stay (6.11 boek) stock market forecasting (6.11 boek) PAPNET nummerbord classificatie model van echte neuronen Pioneer II...

37 volgende college samenvatting, discussie hc1 t/m hc4 samenvatting, discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak toepassingen toepassingen bestudeer H1 t/m 6 en/of de college slides, zodat je vragen kan stellen