IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren1 Machinaal leren.

Slides:



Advertisements
Verwante presentaties
Negatieve getallen Klas 1 | Hoofdstuk 4
Advertisements

PSD Basisstructuren programmeren.
PSD Basisstructuren programmeren.
Huiswerktips.
De Drama Driehoek.
H 44: Investeringsselectie
Wereldkaart met oudercontacten wereldwijd
Normen Ga van een positieve intentie uit Communiceer respectvol
Ja maar, bij ons gaat alles goed Wij hebben geen problemen Ik heb een idee! Zullen we het zo doen? Andere prioriteiten, geen tijd Dat willen we nietPast.
1 Neemt de kennis van onze studenten toe? Een analyse van de kennisgroei op basis van VGT scores Marieke van Onna & Samantha Bouwmeester.
Momenten Vwo: paragraaf 4.3 Stevin.
Blogs Annette Ficker Tim Oosterwijk Opdrachtgever: Matthieu Jonckheere
vwo A/C Samenvatting Hoofdstuk 2
Project D2: Kempenland Sander Verkerk Christian Vleugels
Jan Talmon Medische Informatica Universiteit Maastricht
1 Datastructuren Sorteren: alleen of niet alleen vergelijkingen College 5.
Fibonacci & Friends Met dank aan Gerard Tel.
1 Datastructuren Sorteren: alleen of niet alleen vergelijkingen (II) College 6.
Visibility-based Probabilistic Roadmaps for Motion Planning Tim Schlechter 13 februari 2003.
De grafiek van een lineair verband is ALTIJD een rechte lijn.
THESISSEMINARIE 2 VAKGROEP EXPERIMENTEEL-KLINISCHE EN GEZONDHEIDSPSYCHOLOGIE Probleemstelling, methode LES 1; Klinische Psychologie; Universiteit Gent;
Inferentie voor regressie
Deze les wordt verzorgd door de Kansrekening en statistiekgroep Faculteit W&I TU/e.
Leiderverkiezing Olympus College 14 april 2008 David N. Jansen.
BiO-M Wiskundig Modelleren BiO-M Wiskundig Modelleren Lineair Programmerings-modellen Hoorcollege 2.
De theorie van de dramadriehoek
T U Delft Parallel and Distributed Systems group PGS Fundamentele Informatica in345 Deel 2 College 5 Cees Witteveen.
Hoofdstuk 9 Verbanden, correlatie en regressie
havo A Samenvatting Hoofdstuk 3
Tweedegraadsfuncties
Een Module over Model Checking voor het VWO Frits Vaandrager1, David Jansen1 & Els Koopmans2 1Radboud Universiteit Nijmegen 2Olympus College Arnhem.
Werkverslag. Inhoudsopgave Pag.1 wat hebben we gedaan in deze lessen?
1 Datastructuren Een informele inleiding tot Skiplists Onderwerp 13.
Wat willen we vandaag doen?
Interpreteren van data
GELIJKNAMIGE BREUKEN les 31.
havo B Samenvatting Hoofdstuk 1
Wel Jong, Niet Hetero 18/10/2013 Ilse Bockstaele
Hoofdstuk 4: Statistiek
N T E R C I E F D E K N A CREATIEF DENKEN.
Momenten Havo: Stevin 1.1 van deel 3.
Inleiding Kennistechnologie §Hoofdstuk 12: Diagnose §Hoofdstuk 13: Machinaal leren §Hoofdstuk 14: De Toekomst van KT.
ABC formule Algemeen Voorbeeld: Herleid naar: Nu volgorde veranderen:
AI111  Algemeen  Voorbeeld  Concept Learning (Version Space)  Bias Leeswijzer: Hoofdstuk AI Kaleidoscoop College 11: Machinaal.
Welkom in het eerste leerjaar!
Onze school, Albeda colege Schiedam Nieuwland.
Energie De lading van een atoom.
De dag vóór het examen Schrijf de data en uren waarop je examen moet doen op een groot vel papier en hang het goed zichtbaar op! Leg alles wat je voor.
MBR AtT1 College 7 : covering theorie (Deel 2) model MAB-diagnose: College 6: Covering theorie College 7: Algoritme voor covering theorie werkelijk.
Allard Kamphuisen Hado van Hasselt Wilco Broeders
Grafentheorie Graaf Verzameling knopen al dan niet verbonden door takken, bijv:
Onderzoeksvaardigheden 3
Communicatie 2 – kw 2 Les 1.
Opdrachten en eindopdracht
Tentamen Data Mining Voorbereiding. Tentamen  4 januari 2016  14:00 – 17:00  zaal
Een test blijft een test………. Positief? Positief!
Plattegrond maken Explorers ’12. Uitleg Opdrachten: doormiddel van opdrachten maak je je plattegrond compleet. Kleur/legenda: vergeet niet om alles.
Minder kinderen, minder scholen? Bijeenkomst gemeente Sluis dinsdag 28 juni 2011.
Divergeren Deze powerpoint ga je aan de slag met verschillende divergerende technieken. Hierbij bedenk je zoveel mogelijk ideeën. Bij een brainstormsessie.
Koffieochtend 3 november 2016 REGELS EN GRENZEN IN DE OPVOEDING
KRITISCH DENKEN 10 Co-premissen I © Kritisch Denken.
Deze les hfdst 1 verbanden gegevens verwerken
Onderzoekend leren Hoe zien opdrachten voor onderzoekend leren bij wiskunde er uit? Tool IE-2: Het vergelijken van gestructureerde en ongestructureerde.
Houd je aandacht erbij! Trainers: Jan de Groot Henk Torreman.
Minimodules voor de 3e klas
De grafiek van een lineair verband is ALTIJD een rechte lijn.
Les 7 en 8 Spreken en gesprekken hoofdstuk 5 - tweegesprekken 5.1 – zakelijk telefoongesprek 5.2 – Adviesgesprek 5.3 – Klantgesprek 5.4 – klachtgesprek.
havo B Samenvatting Hoofdstuk 1
Hoe speel je de Pizza Game?
KAN WATER OVERAL NAARTOE STROMEN?
Transcript van de presentatie:

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren1 Machinaal leren

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren2 Opdracht 1 Deadline: Vandaag, om 12u!

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren3 Waar zijn we nu? machinaal leren gesuperviseerd leren

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren4 Gesuperviseerd leren: classificatie classificatie- principes Hoe goed hebben we geleerd?

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren5 Classificatie: technieken versieruimtes beslisbomen statistische modellen inductief leren … Begin met een model. Herhaal. Gegeven een voorbeeld pas het model aan. Stop als er geen voorbeelden meer zijn, of het model inconsistent is.

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren6 Bierdrinkerprobleem De bierdrinker proeft verschillende soorten pils geeft aan of het hem smaakt Doel: geef een raad welk pilsje hem zal smaken (classificatieprincipe) gegeven nieuwe pilssoorten voorspel of ze gaan smaken

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren7 Belgische pilssoorten Naam%KleurSmaakBliksmaakt? 5%BlondBitterja- 5,2%BlondLichtbitterja+ 4,9%GoudgeelLichtbitterja- 5%GoudgeelBitternee- 5,5%BlondLichtbitterja+ 5,1%BlondLichtbitternee-

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren8 Het model dekt alle positieve voorbeelden en geen enkel negatief voorbeeld. Alle mogelijke situaties

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren9 Het model dekt alle positieve voorbeelden en geen enkel negatief voorbeeld Alle mogelijke situaties

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren10 Meerdere modellen? Alle mogelijke situaties

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren Allen de positieve voorbeelden zijn goed Alles behalve de negatieve voorbeelden is goed Zijn dat goede modellen? A.Ja B.Nee

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren12 Wat verwachten we van een model? dekt de positieve voorbeelden dekt de negatieve voorbeelden niet kan positief/negatief goed voorspellen door een hypothese op te stellen

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren13 Hypotheseruimte Vaste taal om modellen om te schrijven –Model is een hypothese in de ruimte –Forceert veralgemening –Vermijdt “nutteloze” modellen Hypotheses kunnen mekaar veralgemenen of verfijnen

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren14 Hypotheseruimte Voor ieder attribuut: Hypothese – verzameling voorbeelden: –Blonde 5% soorten [>, 5%, Blond, >, >] –Stella [Stella Artois, 5%, Blond, Bitter, ja] –Speciale hypothese: ? ? > waarde 1waarde n …

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren15 Minimale veralgemening [z 1, …, z n ] is een minimale veralgemening van [x 1,…, x n ] en [y 1,…, y n ] –voor ieder paar (x i, y i ) vind z i zodanig dat z i  x i, z i  y i en voor ieder z (z  x i, z  y i )  (z  z i ) Vanaf hier spreken we van veralgemening ipv minimale veralgemening

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren16 Hoeveel > zijn er in de veralgemening van [4,9%, Goudgeel, Lichtbitter] en [5%, Goudgeel, Bitter] ? ? > waarde 1waarde n … Gegeven hypotheseruimte voor ieder attribuut: A.geen B.één C.twee D.drie

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren17 “Find S” algoritme Begin met een model. Herhaal. gegeven een voorbeeld pas het model aan. Stop als er geen voorbeelden meer zijn of het model inconsistent is. Begin met ? Herhaal alleen voor positieve vb: veralgemeen het model om het nieuwe vb te dekken Stop als er geen voorbeelden meer zijn Kan niet voorvallen.

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren18 Begin met ? Herhaal alleen voor positieve vb veralgemeen het model Stop als er geen voorbeelden meer zijn ? [Jupiler, 5,2%, Blond, Lichtbitter, ja] 5,2%BlondLichtbitterja+ 5,5%BlondLichtbitterja+ [>, >,Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren19 Andere hypotheseruimte Positieve en negatieve voorbeelden Wat leert “Find S”? A.informaticus B.student ? > JanMarijke Geert informaticus student wiskundige

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren20 Problemen met “Find S” Kan inconsistente situaties missen Kan niet uitdrukbare situaties missen Kan zich niet deterministisch gedragen Kan verkeerde hypothese kiezen tov de negatieve voorbeelden ? Jan MarijkeGeert student

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren21 Een betere oplossing… Positieve en negatieve voorbeelden Model: ({a 1, …, a n }, {s 1, …, s m }) –deel van de hypotheseruimte –algemene hypothesen {a 1, …, a n } –specifieke hypothesen {s 1, …, s m } –dekken alle hypothesen die meer specifiek (  ) zijn dan een zekere a i meer algemeen (  ) zijn dan een zekere s j

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren22 Hoeveel hypothesen telt het model (>, {Marijke, Geert})? A.5 B.6 ? > JanMarijke Geert informaticus student wiskundige

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren23 Versieruimtes algoritme 1 Begin met een model. Herhaal. gegeven een voorbeeld pas het model aan. Stop als er geen voorbeelden meer zijn of het model inconsistent is. Begin met (>,?) Herhaal met (A,S) positieve vb: veralgemeen alle S om het nieuwe vb te dekken negatieve vb: verfijn alle A om het nieuwe vb uit te sluiten Stop als er geen voorbeelden meer zijn of het model inconsistent is.

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren24 ? [>, >, >, >, >]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren25 5,2%BlondLichtbitterja+ ? [>, >, >, >, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren26 5%BlondBitterja- ? [>, >, >, >, >] [Jupiler, >, >, >, >]…[>, >, >, >, nee] [Jupiler, 5,2%, Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren27 5%BlondBitterja- ? [>, >, >, >, >] [Jupiler, >, >, >, >] … [>, >, >, >, nee] 5 biersoorten + 4 alcoholgehaltes + kleur + smaak + geen blik = 12 mogelijkheden [Jupiler, 5,2%, Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren28 Maar… [Jupiler, >, >, >, >][>, 5,1%, >, >, >] [Maes, >, >, >, >][>, 5,2%, >, >, >] [Bavik, >, >, >, >][>, 5,5%, >, >, >] [OpsAle, >, >, >, >][>, >, Goudgeel, >, >] [Romy, >, >, >, >][>, >, >, Lichtbitter, >] [>, 4,9%, >, >, >][>, >, >, >, nee] S tot nu toe: {[Jupiler, 5,2%, Blond, Lichtbitter, ja]}

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren29 Maar… [Jupiler, >, >, >, >][>, 5,1%, >, >, >] [Maes, >, >, >, >][>, 5,2%, >, >, >] [Bavik, >, >, >, >][>, 5,5%, >, >, >] [OpsAle, >, >, >, >][>, >, Goudgeel, >, >] [Romy, >, >, >, >][>, >, >, Lichtbitter, >] [>, 4,9%, >, >, >][>, >, >, >, nee] S tot nu toe: {[Jupiler, 5,2%, Blond, Lichtbitter, ja]}

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren30 Versieruimtes algoritme 2 Begin met (>,?) Herhaal met (A,S) positieve vb: veralgemeen alle S negatieve vb: verfijn alle A Stop als er geen voorbeelden meer zijn of het model inconsistent is. Verfijn alle A z.d. iedere nieuwe algemene hypothese is een veralgemening van een specifieke hypothese. Zoals voor de negatieve vb.

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren31 5%BlondBitterja- ? [>, >, >, >, >] [Jupiler, >, >, >, >] [>, 5,2%, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren32 5,5%BlondLichtbitterja+ ? [>, >, >, >, >] [Jupiler, >, >, >, >] [>, 5,2%, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren33 5,5%BlondLichtbitterja+ ? [>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja]

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren34 4,9%GoudgeelLichtbitterja- ? [>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] A.[>, >, Blond, Lichtbitter, >] B.[>, >, Blond, >, ja] C.[>, >, >, Lichtbitter, ja] ?

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren35 5,1%BlondLichtbitternee- ? [>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, >] [>, >, Blond, Lichtbitter, ja] Hetzelfde hypothese! Blonde lichtbittere pilssoorten in blik!

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren36 Versieruimtes  Houdt rekening met pos en neg voorbeelden  Behandelt pos en neg op hetzelfde manier  Kan waarde voorspellen zelfs als het concept niet volledig geleerd is  Kan “het meest interessante voorbeeld” kiezen  Kan niet tegen ruis  Eist veel verschillende eigenschappen  Past niet als er meerdere klassen zijn

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren37 Waarde voorspellen als het concept niet volledig geleerd is ? [>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, >] 5%Goudgeel Bitternee Wij weten al dat Bavik niet gaat smaken!

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren38 “Het meest interessante voorbeeld” kiezen ? [>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, >] [>, >, >, Lichtbitter, ja] Voorbeeld = scheiding van hypotheses Interessante voorbeeld: ~50% vd hypotheses: “positief”, ~50% vd hypotheses: “negatief”

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren39 ? [>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] [>, >, Blond, Lichtbitter, >] [>, >, >, Lichtbitter, ja] Welke voorbeeld is beter: of?

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren40 Classificatie: technieken versieruimtes beslisbomen statistische modellen inductief leren … Wat is dat? Hoe bouw je zo’n boom?

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren41 Beslisbomen voor classificatie Boom –knopen: eigenschappen –kanten: waarden –bladeren: klassen kleur bitterheid -- blond goudgeel amber - bitterlichtbitter verpakking blik fles -+

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren42 ID3(Voorbeelden, Eigenschappen, Klassen) 1.Voorbeelden =  - Boom met één knop “Fail” 2.  k  Klassen  v  Voorbeelden  klasse(v)=k - Boom met één knop k 3. Eigenschappen =  - Boom met één knop k, z.d. k het meest voorkomende klasse is in Voorbeelden 4. Anders, kies e  Eigenschappen - Waarden van e: w 1, …, w n. - Splits Voorbeelden in V 1, …, V n z.d.  v  V i  klasse(v) = w i - Boom met wortel: e kanten: w 1, …, w n. subbomen: ID3(V 1, Eigenschappen\{e}, Klassen),…, ID3(V n,Eigenschappen\{e}, Klassen)

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren43 Wat is de maximale diepte van een beslisboom gebouwd door ID3(Voorbeelden, Eigenschappen, Klassen)?

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren44 Kiezen van een eigenschap Doel: zo ondiep mogelijke beslisboom Keuze van e: –afhankelijk van Voorbeelden –moet ons zo veel mogelijk informatie opleveren het is niet hetzelfde informatie als in {gegevens, informatie, kennis}

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren45 Informatietheorie in een notendop (1) Zelfinformatie van een gebeurtenis Entropie = verwachting van de zelfinformatie Entropie van een verzameling = entropie tov kans dat een voorbeeld bij een klasse hoort Claude E. Shannon

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren46 Informatietheorie in een notendop (2) Entropie van een verzameling, dus Bereken H(Voorbeelden) –10 voorbeelden –2 klassen (5 en 5)

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren47 Informatietheorie in een notendop Informatiewinst op eigenschap e die Voorbeelden in V 1, …, V n opsplitst LtijdAlt?SW/HWKlasseLtijdAlt?SW/HWKlasse oudjasoftwareverliesmidneesoftwarewinst oudneesoftwareverliesmidneehardwarewinst oudneehardwareverliesnieuwjasoftwarewinst midjasoftwareverliesnieuwneesoftwarewinst midjahardwareverliesnieuwneehardwarewinst Welke eigenschap geeft meer winst? A. Leeftijd B. SW/HW

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren48 Dus Kies e z.d. Gain(Voorbeelden,e) het grootst is. leeftijd alt? verlies oud winst nieuwe mid verlies ja winst nee

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren49 Huiswerk 15 ID3 kan verbeterd worden –Verbeterde versies heten C4.5 en C5.0 Bespreek de optimalisaties van C4.5 en/of C5.0. Geef een voorbeeld die de voordelen van C4.5/C5.0 tov ID3 aantoont. In te leveren ten laatste op 5 juni 2007

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren50 Classificatie: technieken versieruimtes beslisbomen statistische modellen inductief leren … Lineaire modellen met kleinste kwadraten. k dichtstbijzijnde buren

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren51 Lineaire modellen Classificatieprincipe (model): –lineaire combinatie van de invoer Gegeven een voorbeeld voorspel Coëfficiënten? –Kleinste kwadraten

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren52 Kleinste kwadraten Idee: minimaliseer –waar een klasse is van een oefenvoorbeeld –NB: Euclidische afstand Maar hoe? –waar Z een N*(p+1) matrix is N – het aantal oefenvoorbeelden p – het aantal eigenschappen van een voorbeeld –vergeet de vrije coëfficiënt niet! –y – een klasse van een oefenvoorbeeld

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren53

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren54 Onder welke voorwaarden kunnen we berekenen?

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren55 Classificatie en lineaire modellen Schrijf op Z en y –Positieve voorbeelden: y i = 1 –Negatieve voorbeelden: y i = 0 –vergeet de vrije coëfficiënten niet! Bereken  Controleer op de nieuwe voorbeelden –x is positief als  x  0.5 –x is negatief als  x < 0.5

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren56 Voorbeelden –positief: (1,3) (3,2) –negatief: (2,1) (3,1) Schrijf op Z en y

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren57

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren58 Hoe worden de volgende voorbeelden geclassificeerd? A.(1,1) positief, (4,2) negatief B.(1,1) negatief, (4,2) positief C.Beide voorbeelden – negatief D.Beide voorbeelden – positief

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren59 Stelling: “Alle oefenvoorbeelden worden correct geclassificeerd” A.Ik ben er mee eens. B.Ik ben er niet mee eens.

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren60 Huiswerk 16 Een andere lineaire model aanpak is LDA = Linear Discriminant Analysis Wat is LDA? Hoe wordt die berekend? Voorbelden van succesvolle toepassingen In te leveren ten laatste op 5 juni 2007

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren61 Dichtstbijzijnde buren Kijk naar de klassen van k dichtstbijzijnde buren –Euclidische afstand De meerderheid beslist –1:1 wordt willekeurig beslist Succesvol voor –handschriftherkenning (cijfers) –satellietbeelden

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren62 Voorbeelden –positief: (1,3) (3,2) –negatief: (2,1) (3,1) Hoe worden de volgende voorbeelden geclassificeerd voor k = 3? A.(1,1) positief, (4,2) negatief B.(1,1) negatief, (4,2) positief C.Beide voorbeelden – negatief D.Beide voorbeelden – positief

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren63 k(1,1)(4,2) 1negatiefpositief 3negatief lineair model

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren64 Stelling: “Alle oefenvoorbeelden van een willekeurig dataset worden correct geclassificeerd” A.Waar voor alle k. B.Waar voor geen enkele k. C.Waar voor sommige k en niet voor andere.

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren65 Problemen Alle voorbeelden moeten in de geheugen zijn –voor grotere voorbeelden: k > 1 – onmogelijk! Aanname: alle richtingen (eigenschappen) zijn –even belangrijk –voor alle voorbeelden –Betere oplossing zie Hastie, Tibshirani 1996.Hastie, Tibshirani 1996

IntroVersieruimtesBeslisbomenKl. kwadratenDichtstbijzijnde buren66 Wat hebben we vandaag gedaan? Classificatie als een vb van gesuperviseerd leren 4 aanpakken: –versieruimtes –beslisbomen –lineaire modellen (met kl. kwadraten) –k dichtstbijzijnde buren