De presentatie wordt gedownload. Even geduld aub

De presentatie wordt gedownload. Even geduld aub

AI121  Neurale Netwerken  Genetische Algorithmen Leeswijzer: 11.0-11.3 + 12.1 AI Kaleidoscoop College 12: Subsymbolische methoden.

Verwante presentaties


Presentatie over: "AI121  Neurale Netwerken  Genetische Algorithmen Leeswijzer: 11.0-11.3 + 12.1 AI Kaleidoscoop College 12: Subsymbolische methoden."— Transcript van de presentatie:

1 AI121  Neurale Netwerken  Genetische Algorithmen Leeswijzer: AI Kaleidoscoop College 12: Subsymbolische methoden

2 AI122 Twee scholen Physical Symbol systems = formele operaties op symbool-structuren, –geïnspireerd op de logica Subsymbolische systemen = collectief gedrag van veel eenvoudige interacterende onderdelen –geïnspireerd op de biologie –Voordeel: geen “performance cliff”,  niet “brittle” (breekbaar) Latere colleges in de opleiding veel meer over dit onderwerp alle colleges tot nu toe vandaag

3 AI123 Performance cliff afstand tot kern-expertise kwaliteit van antwoorden

4 AI124 Performance cliff (2) schade aan het systeem kwaliteit van antwoorden

5 AI125 Neurale Netwerken losse inspiratie op menselijk brein:

6 AI126 Neurale Netwerken: Achtergrond Inspiratie: menselijk brein Veel eenvoudige neuronen Veel verbindingen Parallelisme Niet symbolisch (“sub-symbolisch”) Leren, niet programmeren Menselijk brein  neuronen(  1 miljoen megabyte) verbindingen(  1000 verbindingen/neuron)

7 AI127 Letter herkenning

8 AI128 Neurale Netwerken: Componenten Neuron  x1x1 x2x2 x3x3 w1w1 w2w2 w3w3 O Input x i en output O zijn 1 of 0 Gewicht w i Reëel getal Waarde geeft “sterkte” van verbinding aan Instelbaar via leeralgorithme Drempelwaarde T:

9 AI129 Neurale Netwerken, Voorbeeld (boek blz 484) Low risk Medium risk High risk credit history debt collateral income Perceptron: 2 lagen, N inputs, M outputs N  M gewichten

10 AI1210 Intuitie over leren in Neurale Netwerken Geef het systeem een trainingsverzameling –gegeven zijn de inputs –gegeven zijn de juiste outputs Het systeem gaat kijken met de huidige gewichten of bij die inputs de juiste outputs berekend worden Als niet, dan worden de gewichten aangepast, zodat wel de juiste outputs berekend worden Herhaal dit voor alle outputs Uiteindelijk berekent het systeem bij alle gegeven inputs de juiste output Maar...

11 AI1211 Intuitie over leren in Neurale Netwerken Uiteindelijk berekent het systeem bij alle gegeven inputs de juiste output Maar... Berekent het systeem ook de juiste outputs bij inputs die het nog niet gezien heeft? Dit moet getest worden op nieuwe inputs (de testverzameling)

12 AI1212  Kies willekeurige startgewichten  Kies een trainingsverzameling  FOR (in,out)  trainingsverzameling DO Bereken Output(in) Bepaal Error = out - Output(in) Pas gewicht aan:  als Error > 0: verlaag gewichten van actieve inputs, w(new) = w(oud) -   als Error < 0: verhoog gewichten van actieve inputs, w(new) = w(oud) +   Herhaal tot Error-rate voldoende laag (of constant)  Test m.b.v. van andere test-verzameling Neurale Netwerken: Leren  als Error < 0: verlaag gewichten van actieve inputs, w i (nieuw) = w i (oud) -   als Error > 0: verhoog gewichten van actieve inputs, w i (nieuw) = w i (oud) +   -regel

13 AI1213 Neurale netwerken, voorbeeld Uitvoer van het netwerk: De gewogen som van de inputs voor p is =1.2 Dit is > drempelwaarde voor p, dus de output van p is 1. De gewogen som van de inputs voor q is =0.7 Dit is

14 AI1214 Neurale netwerken, voorbeeld Uitvoer is: P=1, Q=0; gewenste is P=0, Q=1. Aanpassingen met  =0.1? De output van p is te hoog, dus we trekken delta af van alle actieve links: W(a,p) = 0.8 w(b,p) = 0.8 (onveranderd, want niet actief) W(c,p) = 0.4 W(d,p) = -0.3 De output van q is te laag, dus we tellen delta op bij alle actieve links: W(a,q) = 0.8 w(b,q) = -0.6 (onveranderd, want niet actief) W(c,q) = 0.4 W(d,q) = -0.2 W(a,p)0.9 W(b,p)0.8 W(c,p)0.5 W(d,p)-0.2 W(a,q)0.7 W(b,q)-0.6 W(c,q)0.3 W(d,q)-0.3

15 AI1215 Neurale Netwerken:  -regel w i (nieuw) = w i (oud)   VOORDEEL: Convergeert naar correcte w i langs kortste pad NADEEL: Echter, keuze van  : –te laag: langzame convergentie –te hoog: schiet langs correcte waarde Mogelijke tussenvorm: –begin met hoge  verminder tijdens het leren –Optimale waarde van  is onberekenbaar

16 AI1216 Perceptron: beperkingen Perceptron = 2 lagen, N inputs, M outputs, N  M gewichten Kan alleen lineair separabele classificaties leren  klassen scheidbaar door 1 lijn (2 dimensies) 1 vlak (3 dimensies) Voorbeeld X Y X or Y T=0.5 X  Y X Y w= X Y X xor Y niet scheidbaar door rechte lijn ? ?

17 AI1217 Multi-layer Neurale Netwerken N inputsM outputsH hidden (mogelijk meerdere lagen) Vraag: hoe gaat leren in multi-layers, want: wat is “error” van de tussenlaag?  Backpropagation Vraag: hoe gaat leren in multi-layers, want: wat is “error” van de tussenlaag?  Backpropagation

18 AI1218 Back propagation: activatie functie Was: Nieuwe activatie functie: = Sigmoïde-functie (continue ipv lineaire drempel vanwege differentieerbaarheid)

19 AI1219 Backpropagation: Aanpassen Afgeleide van sigmoïde-functie is: T Aanpassen van gewichten unit n w n1 w nj unit 1 unit j... Definieer “error” van unit n als: (NB: grote aanpassing als f(I)  T,  “onbepaald”) Pas nu weer  -regel toe: w i (nieuw) = w i (oud)    E j

20 AI1220 Backpropagation: Eigenschappen Niet gegarandeerd convergent Als convergent, dan mogelijk lokaal maximum Convergentie is vaak langzaam (  veel trainings voorbeelden nodig)

21 AI1221 Neurale Netwerken: toepassingen Handschrift-herkenning (postcode van de PTT) Robot-besturing NETtalk: leren uitspreken van Engelse woorden vingerafdrukken herkennen...

22 AI1222 Liplezen Input: coordinaten van delen van de mond/lippen output: gesproken klanken

23 AI1223 Coordinatie Input: huidige positie van benen + vorm van terrein output: volgende positie van benen

24 AI1224 Doen van voorspellingen Input: gevolgde pad van een persoon output: voorspelling over vervolg pad geleerd op basis van eerder observaties

25 AI1225 Neurale Netwerken: Problemen Welke netwerk architectuur? (bijv: aantal lagen) Welk leeralgorithme? Samenstelling van de trainingsverzameling Neurale Netwerken: Voordelen “Graceful degradation” (i.t.t. “brittleness”) Robuust na beschadiging Parallel

26 AI1226 Het tentamen is over 210 uur

27 AI1227 Evolutie = “leren van een oplossing” competitie in een populatie van kandidaat oplossingen beste kandidaten mogen zich vermenigvuldigen/combineren slechtste kandidaten worden verwijderd  populatie convergeert naar de beste oplossing Genetisch algorithme: de metafoor Individu Fitness Omgeving Kandidaat oplossing Kwaliteit van de oplossing Probleem

28 AI1228 De evolutie-leer in 1 minuut individu met “genetisch” vastgelegde eigenschappen overlevingskans op basis van fitness voortplantings/combinatie-kans op basis van fitness creëer nieuwe “genen” d.m.v. genetische operatoren (bijv. cross-over, mutatie) geheel vindt plaats in een voldoende diverse populatie van individuen

29 AI1229 Genetische Algorithmen: componenten Individuën, bijv: –bitstrings –logische formules –kennis-netwerken Fitness functie –getalsmatige evaluatie van kwaliteit van individu Genetische operatoren: –cross-over =combineer informatie van 2 individuen –mutatie =verander informatie van 1 individu

30 AI1230 Genetische Algorithmen: te maken keuzes Omvang van de populatie Relatie tussen voortplanting & fitness Relatie overlevingskans & fitness Frequentie van mutaties aantal kinderen per generatie aantal generaties.....

31 AI1231 The Evolutionary Cycle Recombination Mutation Population OffspringParents Selection Replacement

32 AI1232 Genetisch Algorithme: process WHILEstopconditie niet vervuld DO  evalueer individuën op fitness  selecteer paren van individuën  produceer nakomelingen (met gebruik van genetische operatoren)  vervang zwakste individuën door de nakomelingen  -  zijn probabilistisch: gewogen door fitness (niet: bepaald door fitness) generatie generatie 0 + kinderen 400 generatie generatie 1 + kinderen 400 generatie 2 150

33 AI1233 Genetisch Algorithme: Voorbeeld (1) Domein: bitstrings van lengte 5 (positie nrs. 1 t/m 5) Fitness: Opdracht: vind ideale individu 0x110 () Populatie-grootte:5 Aantal nakomelingen:2 Mutatiefrequentie:50% kans op 1 mutatie Cross-over:enkelvoudig op willekeurige plaats

34 AI1234 Genetisch Algorithme: Voorbeeld (2) Generatie 0: (random) IndividuenFitness gemiddeld:0.4 Selecteer ouders (kans gewogen door fitness) Wel cross-over, geen mutatie Selecteer 5 van de 7 individuen (kans gewogen door fitness)

35 AI1235 Genetisch Algorithme: Voorbeeld (3) Generatie 1: IndividuenFitness gemiddeld:0.8 Selecteer ouders (kans gewogen door fitness) Wel cross-over, ook mutatie Selecteer 5 van de 7 individuen (kans gewogen door fitness)

36 AI1236 Genetisch Algorithme: Voorbeeld (4) Generatie 2: IndividuenFitness gemiddeld:1.8 Etc. Eén van de twee optimale strings al gevonden Gemiddelde steegvan0.4 via0.8 naar 1.8

37 AI1237 Genetisch Algorithme: Evaluatie GA = parallel hill-climbing: –meerdere goede oplospaden tegelijkertijd (populatie > 1) –elimineer veel slechte oplospaden tegelijk Eerste populatie n e populatie

38 AI1238 Genetische Algorithmen: Evaluatie Algemeen toepasbaar op optimalisatie-problemen Geen garantie voor beste oplossing, wel vaak goede oplossing Problemen Vertalen van domein naar bitstrings? Zijn alle bitstrings geldige representaties na cross-over en mutatie? Instellingen van alle parameters? Keuze van de genetische operatoren?

39 AI1239 Voorbeeld van een GA: Kunst Kweken De computer genereert een populatie quasi-Mondriaans Jullie zijn de fitness functie De computer genereert hiermee de volgende generatie Onstaat er een echte Mondriaan?

40 AI1240 Dit was het laatste college!


Download ppt "AI121  Neurale Netwerken  Genetische Algorithmen Leeswijzer: 11.0-11.3 + 12.1 AI Kaleidoscoop College 12: Subsymbolische methoden."

Verwante presentaties


Ads door Google