Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.

Slides:



Advertisements
Verwante presentaties
1. Codering: bestelling wordt gemaakt via internet en komt binnen bij Wehkamp. 2. Filter invoer: van een bestaande klant gaat de order door naar order.
Advertisements

Instructie Programmeren Task 1 5JJ70. Task 1.1: Hello World •Klik naast de laatste accolade in de grijze kantlijn om een breakpoint neer te zetten, anders.
Blok 7: netwerken Les 7 Christian Bokhove.
Instructie grammatica
Opdrachttaak kennissystemen:
Soft Systems Methodology Een doelbewuste aanpak voor action research
Tel de zwarte stippen!. Tel de zwarte stippen!
Instructie Programmeren Task 1 5JJ70. Task 1.1: Hello World Klik naast de laatste accolade in de grijze kantlijn om een breakpoint neer te zetten, anders.
1 Datastructuren Sorteren: alleen of niet alleen vergelijkingen College 5.
Taalverandering op syntactisch niveau Hoofdstuk 7 “Caught in a web”
Modellering, neurale netwerken, en numerieke cognitie
A dynamic systems approach by Thelen and Smith: chapter 2.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Kunstmatige Intelligentie Rijksuniversiteit Groningen
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005.
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Overzicht samenvatting en discussie hc1 t/m hc4 samenvatting en discussie hc1 t/m hc4 inleiding tot de rest van het vak inleiding tot de rest van het vak.
Geest, brein en cognitie Filosofie van de geest en Grondslagen van de cognitiewetenschap Fred Keijzer.
De neurale basis van structuur in taal Gideon Borensztajn
Databases I (H. 1) Wiebren de Jonge Vrije Universiteit, Amsterdam Voorlopige versie 2003.
Tips (beoordelingscriteria finale versie ) Diederik, “Three Sins”: Diederik, “Three Sins”: In introductie er niet veel omheen draaien In introductie er.
Statistiek voor Historici Hulpvak GB2HVST / G2HV09A Dr. L.J. Touwen College 3.
Tussentoets Digitale Techniek. 1 november 2001, 11:00 tot 13:00 uur. Opmerkingen: 1. Als u een gemiddeld huiswerkcijfer hebt gehaald van zes (6) of hoger,
Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen April 2005.
Taaltheorie en Taalverwerking Week 5: – Natuurlijke Taal Syntax. (Uitbreiding op CFG: Features.) – Human Parsing: Center-Embedding.
Tel de zwarte stippen. Tel de zwarte stippen Lopen de horizontale lijnen evenwijdig of niet?
English and IPC How to teach content through English.
Deltion College Engels B1 Lezen [no. 001] can-do : 2 products compared.
Neurale Netwerken Genetische Algorithmen
Informatica Netwerken (1). Informatica Netwerken Verschillende afmetingen –LAN (Local Area Network) –MAN (Metropolitan Area Network) –WAN (Wide Area Network)
Inleiding Adaptieve Systemen, Opleiding CKI, Utrecht. Auteur: Gerard Vreeswijk Inleiding adaptieve systemen Lerende classificatie systemen.
1 e-Books & i-Papers Rik Min researcher Centre for Telematics and Information Technology (CTIT) & Faculty of Educational Science and Technology (EDTE)
Deltion College Engels B1 Gesprekken voeren [Edu/006] thema: Look, it says ‘No smoking’… can-do : kan minder routinematige zaken regelen © Anne Beeker.
Minisymposium Labs on Line afsluiting project e-Xperimenteren+ 1 december 2006.
Experimenteren op Afstand SURF/DU dag – 7 oktober 2004 Gaming, Simulaties, Cases: Authentic Learning Leendert van Gastel Universiteit van Amsterdam.
Deltion College Engels A1 Gesprekken voeren [Edu/003] thema: A rainy day…. can-do : kan eenvoudige informatie geven over het weer © Anne Beeker Alle rechten.
Deltion College Engels B2 Lezen [Edu/003] thema: Topical News Lessons: The Onestop Magazine can-do: kan artikelen en rapporten begrijpen die gaan over.
Deltion College Engels C1 Gesprekken voeren [Edu/001]/ subvaardigheid lezen thema: What a blooper…. can-do : kan taal flexibel en effectief gebruiken voor.
Master in de Meertalige Professionele Communicatie Visualization of agreement and discussion processes during computer-supported collaborative learning.
Inleiding computersystemen en netwerken Hogeschool van Utrecht / Institute for Computer, Communication and Media Technology 2.1 Programmeren (2.9) assembler,
Deltion College Engels B2 Schrijven [Edu/005] thema: Writing a hand-out can-do: kan een begrijpelijke samenvatting schrijven © Anne Beeker Alle rechten.
Deltion College Engels B2 Schrijven [Edu/002] thema: how we celebrate birthdays can-do : kan een samenhangend verhaal schrijven.
--1-- An exploration of synchronization solutions for parallel short-range optical interconnect in mesochronous systems Harald Devos.
GegevensAnalyse Les 2: Bouwstenen en bouwen. CUSTOMER: The Entity Class and Two Entity Instances.
“IT’S THE DATA STUPID..!” WAGENINGEN UNIVERSITEIT EN RESEARCH CENTRE.
Criteria voor een goed “onderzoek”
The Research Process: the first steps to start your reseach project. Graduation Preparation
Grammar – period 2.
DOELEN VAN W&T ONDERWIJS
Psychologie van het leren
Key Process Indicator Sonja de Bruin
Grip & Controle op digitalisering
Innovatie met IBM Cloud Orchestrator.
Processing Structured Hypermedia
Dictionary Skills!?.
Werkwijze Hoe zullen we als groep docenten te werk gaan?
Digitaal toetsen – DBC experiment
Today: Chapter 2 Discuss SO 2 What to study for your test?
Sneller een beter personeelsrooster voor de gynaecologieafdeling van het JBZ Maartje van de Vrugt PhD.
M5 Datacommunicatie Transportlaag
Tel de zwarte stippen!. Tel de zwarte stippen!
Video and Radio NU Engels unit 5.1.
Unit 2: LESSON 2 practicing the grammar: betrekkelijke voornaamwoorden
Gebruikersbijeenkomst SOWISO
Tel de zwarte stippen!. Tel de zwarte stippen!
Transcript van de presentatie:

Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005

practicum deze week wel deels programmeren Hopfield volgende week geen programmeren Kohonen wachten op cijfers  excuses, maar er is een goede reden

doel van dit vak inleiding NNliteratuur onderzoek eigen onderzoek engineering wereld vb. Elman – Finding structure in time

hc 9 Elman Elman stof: artikel stof: artikel

overzicht inleiding inleiding netwerk netwerk experimenten experimenten conclusie conclusie andere bronnen andere bronnen

inleiding classificeer input patronen over meerdere tijdstappen (spraak, bewegende beelden,...) tijd = belangrijk –onderzoek –engineering neurale netwerken: tijd = moelijk eenvoudigste oplossing: paralellizeren

paralellizeren meerdere tijdstappen tegelijk aanbieden nadelen hiervan: –gebruik buffer niet biologisch plausibel –input moet steeds zelfde aantal tijdstappen zijn –inputs die hetzefde zijn, worden verschillend geclassificeerd: (0, 1, 0, 1, 0, 0, 0, 0) = (0, 0, 0, 1, 0, 1, 0, 0) + Δt –hogere plaats en tijd complexiteit oplossing: recurrente netwerken

recurrente netwerken geheugen: vorige netwerk-toestand is deel van de input recursie natuurlijke taalverwerking Jordan (1986) Elman (1990)

overzicht inleiding inleiding netwerk netwerk experimenten experimenten conclusie conclusie andere bronnen andere bronnen

MLP Jordan (1986) output layer hidden layer context layer

Elman (1990) output layer hidden layer context layer FIXED backprop

Jordan vs Elman Jordan: hidden(t) = input(t) + output(t - 1) Elman: hidden(t) = input(t) + hidden(t – 1) Waarom is Elman beter dan Jordan? onderzoek: dichter bij de natuur engineering: rijker geheugen voordeel Jordan: output → deel volgende input beter voor te stellen (minder black-box)

geheugen bestreikt meerdere tijdstappen door recursieve eigenschap i(nput), h(idden), c(ontext), o(utput) o(t) ← h(t) h(t) ← i(t) + c(t) c(t) = h(t – 1) h(t - 1) ← i(t - 1) + c(t - 1) c(t - 1) = h(t – 2) h(t - 2) ← i(t - 2) + c(t - 2) c(t - 2) = h(t – 3) h(t - 3) ← i(t - 3) + c(t - 3) c(t - 3) = h(t – 4) h(t - 4) ← i(t - 4) + c(t - 4) c(t - 4) = h(t – 5) h(t - 5) ← i(t - 5) + c(t - 5) c(t - 5) = h(t – 6)...

overzicht inleiding inleiding netwerk netwerk experimenten experimenten conclusie conclusie andere bronnen andere bronnen

experiment 1: temporele XOR variant XOR triples drie bits achter elkaar aanbieden de derde wordt bepaald door de eerste twee | 0, 0, 0 | 1, 0, 1 | 1, 1, 0 | 1,... getraind netwerk –gemiddelde error op eerste twee 0,5 –gemiddelde error op de derde 0,0

experiment 2: diibaguuuguuubabadii... zinnen-generator: medeklinkers {b, d, g} in willekeurige volgorde met steeds een vast klinkerpatroon → woorden {ba, dii, guuu} elke letter is een vector met 6 binaire componenten: (consonant, vowel, interrupted, high, back, voiced) de letters worden één voor één aangeboden, het netwerk leert de volgende te voorspellen trainen: 200 keer dezelfde semi-willekeurige input sequentie van letters testen: andere sequentie op dezelfde manier gegenereerd

a d ii g u u u b a g u u u d i i zelfde gedrag als bij temporele XOR (medeklinker bepaalt rest woord) in plaats van hele output vector, de error op de componenten analyseren (bijvoorbeeld consonant en voiced) natuurgetrouwe error curve!

experiment 3: manyyearsagoaboyandgirllivedbythesea... zinnen-generator: –lexicon: 15 Engelse woorden, 5-bits vectoren –zinnen van 4 tot 9 woorden –houdt zich aan Engelse woordvolgorde –sequentie van 200 zinnen zonder “whitespace” REDEN: in gesproken taal zitten geen pauzes trainen: 10 keer dezefde sequentie testen: op een andere sequentie die op dezelfde manier gegenereerd is

m a n y y e a r s a g o a b o y a n d g i r l l i v e d b y t h e s e a t h e y p l a y e d h a p p i l y de rest van een woord wordt niet deterministisch bepaald door eerste letter (lexicon met letter-overeenkomsten tussen de woorden) voorspelbaarheid neemt toe met het aantal letters dat geweest is... natuurgetrouwe error curve!

experiment 4: cat eat mouse man sleep... woordvolgorde ipv. lettervolgorde Chomsky (1957) kan een PDP (parallel distributed processing) netwerk een grammatica leren? zinnen-generator: –lexicon: 29 Engelse woorden in 13 klasses –elk woord is een 29-bits vector, bv. woman = ( ) geen correlaties tussen woorden vanwege orthogonale vectoren

categorie voorbeeld NOUN-HUM man, woman NOUN-ANIM cat, mouse NOUN- INANIM book, rock NOUN- AGRESS dragon, monster NOUN-FRAG glass, plate NOUN-FOOD Cookie VERB- INTRAN think, sleep VERB-TRAN see, chase VERB-AGPAT move, break VERB- PERCEPT smell, see VERB- DESTROY break, smash VERB-EAT eat WOORD 1 WOORD 2 WOORD 3 NOUN-HUM VERB-EAT NOUN-FOOD NOUN-HUM VERB-PERCEPT NOUN-INANIM NOUN-HUM VERB-DESTROY NOUN-FRAG NOUN-HUM VERB-INTRAN NOUN-HUM VERB-TRAN NOUN-HUM VERB-AGPAT NOUN-INANIM NOUN-HUM VERB-AGPAT NOUN-ANIM VERB-EAT NOUN-FOOD NOUN-ANIM VERB-TRAN NOUN-ANIM VERB-AGPAT NOUN-INANIM NOUN-ANIM VERB-AGPAT NOUN-INANIM VERB-AGPAT NOUN-AGRESS VERB-DESTROY NOUN-FRAG NOUN-AGRESS VERB-EAT NOUN-HUM NOUN-AGRESS VERB-EAT NOUN-ANIM NOUN-AGRESS VERB-EAT NOUN-FOOD

trainen: 6 maal door een sequentie van zinnen testen: output vectoren vergelijken met training set statistiek verder: hidden layer activaties zijn hierarchisch gestructureerd →

overzicht inleiding inleiding netwerk netwerk experimenten experimenten conclusie conclusie andere bronnen andere bronnen

conclusie tijd paralellizeren is simpel, maar niet goed genoeg door gebruik context layer –geen buffer –inputs van variabele lengte –in tijd verschoven inputs zijn hetzelfde

conclusies Elman net voorspelt klasse, niet instantie (natuurgetrouw) Elman netwerk vooral voor onderzoek interessant, voor engineers niet zo... HMM wint van NN op NLP sub-symbolische systemen kunnen hierarchische structuren en verwachtingspatronen leren uit temporele informatie

overzicht inleiding inleiding netwerk netwerk experimenten experimenten conclusie conclusie andere bronnen andere bronnen

engineering toepassingen geen tentamenstof APPLICATION OF A RECURRENT NEURAL NETWORK IN ONLINE MODELLING OF REAL-TIME SYSTEMS Keywords: Recurrent Elman networks; modelling; on-line learning; real- time systems. modelling non-linear dynamical systems; fabrieks processen in de gaten houden alarm (of ingrijpen) als metingen van de voorspelling afwijken Considering the number of recurrent neural topologies and training algorithms available, the choice of an appropriate pair (architecture, learning) is intimately dependent on the purposes and can be decisive for its success, e.g. the non-linear control schemes with NN identification. Incorporate available information from the approximate model into the NN initialisation, instead of choosing the weighting values randomly

Detection of Transformer Winding Faults Using Wavelet Analysis and Neural Network Keywords: Transformer internal fault, neural network, wavelet transform. analyseer de elektrische signalen van de transformator met een Elman netwerk verhoog betrouwbaarheid, spaar kosten The simulation results of four cases: improved BP-NN with wavelet preprocessing, Elman network with wavelet preprocessing, improved BP-NN without preprocessing, and Elman network without preprocessing are compared and discussed. feature extraction input voor Elman net

onderzoekstoepassing COGNITIVE MODDELING zoals ACT-R: vergelijken model/proefpersoon → resultaten zijn hetzelfde → de theorie klopt

een antwoord op de vraag: Wat kan een engineer met NN? Therefore the primary focus of this report is to describe algorithms for ANNs which perform particularly strongly for processing the following commonly used applications: –Function approximation; –Time series processing; ELMAN –Classification; –Pattern recognition; These are suggested because they are well established tasks for which ANNs are used extensively.

volgende college (laatste) Spiking Neurons Spiking Neurons stof: artikel stof: artikel