Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.

Slides:



Advertisements
Verwante presentaties
De gemiddelde leerling
Advertisements

Ronde (muziek, TV & Showbizzzz)
Les 13 De herbieding van de bijbieder (1)
BRIDGE Vervolgcursus Vervolg op starterscursus Bridgeclub Schiedam ‘59 info: Maandagavond: 19: – of
Doublet deel 1 – de basis.
- INFORMATIE VOOR OUDERS OVER P4- Samen naar het examen.
ALLES WAT JE MOET WETEN OVER PERIODE 4 Samen naar het examen.
Downloaden: Ad-aware. Downloaden bestaat uit 3 delen: •1. Zoeken naar de plek waar je het bestand kan vinden op het internet •2. Het nemen van een kopie.
ZIEHIER 36 REDENEN WAAROM BIER
Prekenserie Handelingen - deel 6 (slot) ‘Gods Woord overwint omdat het mensen in de vrijheid zet!’ Hand 28,31.
Personalisatie van de Archis website Naam: Sing Hsu Student nr: Datum: 24 Juni 2004.
Global e-Society Complex België - Regio Vlaanderen e-Regio Provincie Limburg Stad Hasselt Percelen.
Sint Jorisschool Examenvoorlichting Studie & Voorbereiding Examen Uitslag Diploma.
Sint Jorisschool Examenvoorlichting Studie & Voorbereiding Examen Uitslag Diploma.
Opdrachttaak kennissystemen:
Ronde (Sport & Spel) Quiz Night !
prNBN D addendum 1 Deel 2: PLT
Basisgeheugenschakelingen
YIPPIYAHEE Sjoenkelsmit Texastour 2004 (2X) – – (eerste keer low 12) –
Datastructuren Analyse van Algoritmen en O
Excursie Röntgenafdeling Vie Curi Venlo 15 september 2009 ZijActief Koningslust ZijActief Koningslust Excursie Rontgenafdeling Vie Curie Venlo.
Leiden University. The university to discover. ICLON, Interfacultair Centrum voor Lerarenopleiding, Onderwijsontwikkeling en Nascholing Denkgereedschap.
© GfK 2012 | Title of presentation | DD. Month
WISKUNDIGE FORMULES.
De basis Les 1 Inleiding tot het bieden
Visibility-based Probabilistic Roadmaps for Motion Planning Tim Schlechter 13 februari 2003.
H51 12 resolutie H51 PHOTOSHOP 1 audiovisueel centrum meise.
Parallelle Algoritmen String matching. 1 Beter algoritme patroonanalyse Bottleneck in eenvoudig algoritme: WITNESS(j) (j = kandidaat in eerste i-blok)
Oefeningen F-toetsen ANOVA.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
TUDelft Knowledge Based Systems Group Zuidplantsoen BZ Delft, The Netherlands Caspar Treijtel Multi-agent Stratego.
Richard J. Boucherie – Het antwoord of de vraag10 mei Het antwoord of de vraag.
Werken aan Intergenerationele Samenwerking en Expertise.
Breuken-Vereenvoudigen
2009 Tevredenheidsenquête Resultaten Opleidingsinstellingen.
PLAYBOY Kalender 2006 Dit is wat mannen boeit!.
ribWBK11t Toegepaste wiskunde Lesweek 02
Sint Jorisschool Examenvoorlichting Studie & Voorbereiding Examen Uitslag Diploma.
Les 20 Sterke openingen: de 2SA-opening
DEEL 2 LES 16 De verdieping Les 16 Slembiedingen versie
Economische impact sluiting Ford Genk Ludo Peeters en Mark Vancauteren (Universiteit Hasselt)
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
 Doel  Doelgroep  Aanloop  Userstudy  Resultaten  Ervaringen van de gebruiker  Besluit 1.
ZijActief Koningslust 10 jaar Truusje Trap
Versie 1: ; v2: ; v3: ; v4:… ca. 50 minuten met maken van tekening (vraag 12) ca. 40 minuten zonder maken van tekening (vraag.
ECHT ONGELOOFLIJK. Lees alle getallen. langzaam en rij voor rij
NETWERKBIJEENKOMST Woensdag 20 april INDELING BIJEENKOMST  Praktische/inhoudelijke zaken –
Shortest path with negative arc-costs allowed. Dijkstra?
Hoofdstuk 5 Vijfkaart hoog, eerste verkenning 1e9 NdF-h1 NdF-h5 1 1.
17/08/2014 | pag. 1 Fractale en Wavelet Beeldcompressie Les 5.
17/08/2014 | pag. 1 Fractale en Wavelet Beeldcompressie Les 3.
Fractale en Wavelet Beeldcompressie
Fractale en Wavelet Beeldcompressie
Kwaliteit in productie
S.V.T.B. Curius 2 3 Vorige bijeenkomst S.V.T.B. Curius 4 Vorige bijeenkomst Voorstelrondje Wie ben je, wat doe je en wat ga je doen?
De financiële functie: Integrale bedrijfsanalyse©
Logistics: a driver for innovation Low costs High value Flexibility now and later Superior technology Timwood - T > No transport - I > No Inventory - M.
© Alert Management Consultants Slim Werk Vinden Programma.
1 Zie ook identiteit.pdf willen denkenvoelen 5 Zie ook identiteit.pdf.
ZijActief Koningslust
Neurale Netwerken Genetische Algorithmen
Hoofdstuk 3 - Conditionele logica
Donderdag 2 april 2015 Roosterwijzigingen Corvee rooster week 44 (1 nov. t/m nov.): Grote Beer en Melkweg 10.30, en uur: 3AA Melkweg en Grote.
Transcript van de presentatie:

Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005

2 hc 3 herhaling hc 2 herhaling hc 2 de delta regel de delta regel begin hc4 begin hc4 boek: H3, H4, H5 en 6.1 boek: H3, H4, H5 en 6.1

3 overzicht herhaling TLU’s trainen H3 en 4 herhaling TLU’s trainen H3 en 4 de delta regel H5 de delta regel H5 de sigmoid transfer function de sigmoid transfer function inleiding multilayer nets en 6.1 backpropagation inleiding multilayer nets en 6.1 backpropagation

4 een TLU met 2 inputs, 1 output y = 1 if a >= Θ y = 0 if a < Θ x1x1 w1w1 x2x2 w2w2 y

5 y = 1 if a >= Θ y = 0 if a < Θ x1x1 w1w1 x2x2 y w2w2 1 TLU trainen (2 inputs, 1 output) “ordening” patterns en opsplitsen in trainingset {p 1,..., p n } en testset {p n + 1,..., p m } training set van patterns {p 1,..., p n }, p i = (x i1, x i2, t i ) voor elk pattern p i gewichten aanpassen dmv. error estimate (t i – y i ) y i is de output die de TLU geeft t i is wat de output zou moeten zijn test set van patterns {p n + 1,..., p m } error op de test set is de prestatie maat testen gebeurt na elk epoch

6 the augmented weight vector y = 1 if w ∙ x >= Θ y = 0 if w ∙ x < Θ w ∙ x = Θ decision hyperplane Θ kun je zien als extra gewicht met vaste input -1 y = 1 if w ∙ x >= 0 y = 0 if w ∙ x < 0 w ∙ x = 0 decision hyperplane y = 1 if a >= Θ y = 0 if a < Θ x1x1 w1w1 x2x2 y w2w2 y = 1 if a >= 0 y = 0 if a < 0 x1x1 w1w1 x2x2 y w2w2 θ

7 w’ = w + αvw’ = w – αv t y w’ = w + α(t – y)v Δw = α(t – y)v vector components i = 1 t/m (n + 1): Δw i = α(t – y)v i w = (w 1, w 2,..., w n, θ) v = (v 1, v 2,..., v n, -1) Perceptron Training Rule

8 the perceptron training algorithm boek p. 34 repeat for each training vector pair (v, t) update weight vector w end for loop until y = t for all input vectors.

9 the perceptron training algorithm boek p. 34 repeat for each training vector pair (v, t) evaluate the output y when v is input to the TLU if y ≠ t then form new weight vector w’ according to (4.4) else do nothing end if end for loop until y = t for all input vectors (4.4) w’ = w + α(t – y)v Perceptron Convergence Theorem: Als twee klasses lineair scheidbaar zijn zal het toepassen van bovenstaand algoritme leiden tot een decision hyperplane dat de twee klasses van elkaar scheidt. bewezen door Rosenblatt (1962)

10 niet-lineair scheidbare klasses neuron 1 zegt AB, neuron 2 zegt AD: tabel 4.2 kan alleen als de input van klasse A is dit gaat ook op voor klasse B, C en D decoderen: tabel 4.3

11

12 overzicht herhaling TLU’s trainen H3 en 4 herhaling TLU’s trainen H3 en 4 de delta regel H5 de delta regel H5 de sigmoid transfer function de sigmoid transfer function inleiding multilayer nets en 6.1 backpropagation inleiding multilayer nets en 6.1 backpropagation

13 de delta regel train het netwerk zonder a priori kennis (zonder zelf de gewichten in te stellen) de perceptron regel (eq. 4.4) is hiervoor niet geschikt vandaar de delta regel...

14 gradient descent E “n + 1 weights” locale minima globaal minimum E w

15 formules In het boek worden formules opgesteld via tussenstappen. Bij het tentamen hebben we alleen de “eindproducten” nodig. Die krijg je erbij, maar je wordt wel getoetst op je begrip van de formules. Deze formule-kaart wordt op de website ge-update, bij het tentamen zal een uitdraai van de laatste versie uitrgedeeld worden.

16 where 1 ≤ i ≤ n + 1: gradient descent E n + 1 weights true error E: batch learning langzaam! E = f(w)

17 pattern training (sequential ipv. batch) error estimate e p : sequential learning snel, schatting delta regel w convergeert naar w 0, E(w 0 ) is een minimum bij niet lineair scheidbare problemen geeft w 0 het beste decision hyperplane perceptron regel w blijft oscilleren perceptron rule is afgeleid van hyperplane manipulation delta regel van gradient descent op de kwadratische fout

18 the delta rule training algorithm boek p. 59 repeat for each training vector pair (v, t) evaluate activation a when v is input to the TLU adjust each of the weights according to (5.13) end for loop until the rate of change of the error is sufficiently small.

19 y = 1 if a >= 0 y = 0 if a < 0 x1x1 w1w1 x2x2 y w2w2 θ tabel 5.1 in het boek, logical AND operator w1w1 w2w2 θx1x1 x2x2 atαδ*αδ*δw 1 **δw2δw2 δθδθ 0,000,400,3000-0,30-1,00-0,17-0,00 0,17 0,000,400,4801-0,08-1,00-0,23-0,00-0,230,23...

20 overzicht herhaling TLU’s trainen H3 en 4 herhaling TLU’s trainen H3 en 4 de delta regel H5 de delta regel H5 de sigmoid transfer function de sigmoid transfer function inleiding multilayer nets en 6.1 backpropagation inleiding multilayer nets en 6.1 backpropagation

21 de sigmoid transfer functie σ(a) σ’(a) a 0,25

22 σ(a) σ’(a) a uitbreiding van één TLU naar een single layer netwerk: σ’(a) Is het grootst rond a = 0, dan zijn de aanpassingen aan de gewichtsvector ook het grootst. input pattern index p neuron index j gewichts/input index i

23 batch learning, echte gradient decent sequential learning, α = 0,25 sequential learning, α = 0,6 sequential learning, α = 1,6

24 overzicht herhaling TLU’s trainen H3 en 4 herhaling TLU’s trainen H3 en 4 de delta regel H5 de delta regel H5 de sigmoid transfer function de sigmoid transfer function inleiding multilayer nets en 6.1 backpropagation inleiding multilayer nets en 6.1 backpropagation

25 multilayer nets en backpropagation gradient descent op error E(w) sequential learning (pattern mode of training) outputs worden vergeleken met targets probleem: geen targets voor hidden neurons credit assignment problem

26 de gegeneraliseerde delta regel input pattern index p neuron index k, j gewichts/input index i I k : de verzameling van neuronen die de output van neuron k als input hebben

27 forward pass, backward pass forward pass: output doorgeven aan de volgende laag backward pass: δ j teruggeven aan de vorige laag

(1,1) x2x2 x1x1 (0,1) (1,0) (0,0) 0 x1x1 x2x2 t p1p1 110 p2p2 101 p3p3 011 p4p4 000 XOR probleem: niet lineair scheidbaar, niet op te lossen door single layer net

29 XOR backpropagation demo