De presentatie wordt gedownload. Even geduld aub

De presentatie wordt gedownload. Even geduld aub

Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.

Verwante presentaties


Presentatie over: "Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005."— Transcript van de presentatie:

1 Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005

2 2 hc 4 multilayer netwerken en backpropagation multilayer netwerken en backpropagation boek H6 boek H6

3 3 rooster wijzigingen practicum vrijdag 13 mei is verplaatst naar donderdag 12 mei, 11 tot 13 in M229 hoorcollege maandag 16 mei vervalt practicum aanstaande donderdag en vrijdag vervalt. extra tips voor bij pr1 op de site

4 4 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap 6.3 - 6.5 error landschap 6.3 - 6.5 netwerken aan het werk 6.6 - 6.10 netwerken aan het werk 6.6 - 6.10

5 5 multilayer nets en backpropagation gradient descent op error E(w) sequential learning (pattern mode of training) outputs worden vergeleken met targets probleem: geen targets voor hidden neurons credit assignment problem

6 6 de gegeneraliseerde delta regel input pattern index p neuron index k, j gewichts/input index i I k : de verzameling van neuronen die de output van neuron k als input hebben

7 7 forward pass, backward pass forward pass: output doorgeven aan de volgende laag backward pass: δ j teruggeven aan de vorige laag

8 8 1 1 (1,1) x2x2 x1x1 (0,1) (1,0) (0,0) 0 x1x1 x2x2 t p1p1 110 p2p2 101 p3p3 011 p4p4 000 XOR probleem: niet lineair scheidbaar, niet op te lossen door single layer net

9 9 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap 6.3 - 6.5 error landschap 6.3 - 6.5 netwerken aan het werk 6.6 - 6.10 netwerken aan het werk 6.6 - 6.10

10 10 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern train on that pattern end for loop until the error is acceptably low. epoch

11 11 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input... end for loop until the error is acceptably low.

12 12 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hiddens calculate their output... end for loop until the error is acceptably low.

13 13 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output... end for loop until the error is acceptably low.

14 14 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target... end for loop until the error is acceptably low.

15 15 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5)... end for loop until the error is acceptably low.

16 16 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4)... end for loop until the error is acceptably low.

17 17 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4) calculate δ’s for hidden neurons (eq. 6.6)... end for loop until the error is acceptably low.

18 18 6.2 The backpropagation algorithm boek: p. 68 initialize weights repeat for each training pattern present input hidden neurons calculate their output this output is input to next step output neurons calculate output compare output to target calculate δ’s for output neurons (eq. 6.5) train output neurons with δ’s (eq. 6.4) calculate δ’s for hidden neurons (eq. 6.6) train hidden neurons with δ’s (eq. 6.4)... NOG EEN LAAG? end for loop until the error is acceptably low.

19 19 eq. 6.4, 6.5 en 6.6 (van boven naar beneden)

20 20 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap 6.3 - 6.5 error landschap 6.3 - 6.5 netwerken aan het werk 6.6 - 6.10 netwerken aan het werk 6.6 - 6.10

21 21 1 45 32 y1y1 y2y2 input 1 input 2 output 1 output 2

22 22 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap 6.3 - 6.5 error landschap 6.3 - 6.5 netwerken aan het werk 6.6 - 6.10 netwerken aan het werk 6.6 - 6.10

23 23 ontsnappen uit locale minima mogelijkheden: sequential ipv. batch (zie fig. 5.7) randomize training set na elk epoch momentum term learning rate: trade-off stabiliteit en snelheid afnemende learning rate locale minima globaal minimum E w

24 24 Wat is een acceptabele error? Als alle training data correct geclassificeerd wordt, of bijvoorbeeld 99%? Of is het de error op de test set die van belang is? Is het als het netwerk een dal in het error landschap bereikt heeft?

25 25 momentum term momentum term is als een rollende bal en versnelt het leren: de vorige Δw wordt opgeteld bij de huidige Δw ji (n) =... + λ Δw ji (n + 1) hoe langer Δw hetzelfde teken houdt, hoe groter de momentum term (recursie)

26 26 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap 6.3 - 6.5 error landschap 6.3 - 6.5 netwerken aan het werk 6.6 - 6.10 netwerken aan het werk 6.6 - 6.10

27 27 belangrijke opmerkingen neurale netwerken bevinden zich op de grens van handelbare complexiteit backpropagation: Rumelhart (1986) θ moet ook leren, θ bepaalt “het snijpunt met de y-as” sigmoid; blurry decision boundaries threshold; scherpe decision boundaries grafieken in 2D representeren nD

28 28 varianten op het two layer perceptron met full connectivity meer dan één hidden layer (zelden meer dan twee) geen full connectivity geen gelaagdheid feedback loops

29 29 getrainde netwerken saturation één hidden layer; elk hidden neuron gaat gepaard met een decision hyperplane (fig. 6.9) elk gebied kan zo afgebakend worden: verbonden, niet verbonden, concaaf en convex (fig. 6.8)

30 30 function fitting naast classificaties kunnen neurale netwerken ook functies leren. training en test data bestaan dan uit x/y- paren innitialisatie test na 2epochs test na 20 epochs x sin(x)

31 31 wat zijn features in onderstaande tabel? vervang elke ‘0’ door ‘-1’ en gebruik input-output correlatie gewichten van goed getraind netwerk volgen correlatie nauwkeurig #x1x1 x2x2 x3x3 x4x4 x5x5 x6x6 x7x7 x8x8 x9x9 x 10 x 11 y p1p1 111111111001 p2p2 111001111001 p3p3 001111111110 p4p4 001101111110 feature extraction

32 32 generalisatie elk hidden neuron gaat gepaard met een decision hyperplane je kan de training set perfect modelleren, maar is dat wel de bedoeling? #hiddens: trade-off uitdrukkingskracht en generalisatie voorbeeld op het bord, zie fig. 6.14 function fitting variant, zie fig. 6.15

33 33 E(w) #epochs test set training set overfitting is in de praktijk geen probleem, mits netwerk niet te groot goed gevulde pattern space, gelijkmatig verdeeld, 5 samples per degree of freedom (gewicht) #epochs vaak niet groter dan 100, maar kan oplopen tot vele duizenden Wanneer stop je met trainen?

34 34 net pruning een gewicht met waarde 0 is hetzelfde als “geen verbinding”, gebruik een leerregel die voorkeur heeft voor een lage gewichten-som er “verdwijnen” dus hidden neurons tijdens het leren, pruning bevordert generalisatie gebruik een leerregel die de voorkeur heeft voor netwerken met veel gewichten dichtbij 0. E = E t + λE c E t = normale error estimate (e p ) een mogelijkheid voor de comlexity penalty: E c = sommeer alle gewichtswaardes de term “netwerk topologie”

35 35 overzicht gegeneraliseerde delta regel 6.1 gegeneraliseerde delta regel 6.1 backpropagation algorithm 6.2 backpropagation algorithm 6.2 voorbeeld voorbeeld error landschap 6.3 - 6.5 error landschap 6.3 - 6.5 netwerken aan het werk 6.6 - 6.10 netwerken aan het werk 6.6 - 6.10

36 36 applications psychiatric patient length of stay (6.11 boek) stock market forecasting (6.11 boek) PAPNET nummerbord classificatie model van echte neuronen Pioneer II...

37 37 volgende college samenvatting, discussie hc1 t/m hc4 samenvatting, discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak toepassingen toepassingen bestudeer H1 t/m 6 en/of de college slides, zodat je vragen kan stellen


Download ppt "Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005."

Verwante presentaties


Ads door Google