De presentatie wordt gedownload. Even geduld aub

De presentatie wordt gedownload. Even geduld aub

Over het tentamen: Voor 3 ects: Voor 2 ects:

Verwante presentaties


Presentatie over: "Over het tentamen: Voor 3 ects: Voor 2 ects:"— Transcript van de presentatie:

1 Over het tentamen: Voor 3 ects: Voor 2 ects:
slides (ook wat is overgeslagen) reader m.u.v. Axelrod “Dissemination of culture” Voor 2 ects: Als 3 ects, maar zonder Axelrod’s “Setting standards” en zonder Lave & March’s “Leermodellen” (en dus ook niet de slides die hierover gaan)

2 STI-2 LEERDOELEN Kennismaking met model- en theorievorming in de sociologie (of eigenlijk de sociale wetenschappen in het algemeen) Toepassen van model- en theorievorming op onderwerpen van eigen wetenschappelijke of maatschappelijke interesse Specifiek: inleiding in en kennismaking met Speltheorie Simulaties als methode van theorievorming Leertheorie

3 Leermodellen Leermodellen als één optie voor de modellering van het gedrag van mensen (of i.h.a.: actoren) “a set of relatively permanent changes in behavior that result from prior experience” Speltheorie: ‘forward looking’ models Simulatie (op een schaakbord): ‘sideways looking’ models Leertheorie: ‘backward looking’ models Reader: Lave & March, hoofdstuk 6

4 Leermodellen: psychologie vs sociologie
Psychologie: verschillende soorten van leren, hoe gaat dat leren precies in zijn werk, etc Pavlov ( ), classical conditioning, timing van de stimulus, stimulusresponse vs stimulusstimulus, rol van genetica in stimulus-respons learning, niet alle stimuli werken bij alle responsies, etc Thorndike ( ), instrumental conditioning: - “the law of effect” (tevredenheid met de uitkomst verhoogt de kans op herhaling van het hiervoor verantwoordelijk geachte gedrag) Skinner ( ) - operante conditionering (Skinner-box) - “behaviorism” - vraag: wat zijn goede “reinforcement schemes” Sociologie neemt minder ingewikkelde modellen over leergedrag aan: We nemen een relatief eenvoudig leermodel aan (van de Thorndike en Skinner soort), en proberen met een dergelijk model op micro-niveau, op het macro-niveau de sociale verschijnselen met behulp van sociale condities te verklaren

5 Close up ...

6 Lave & March, hoofdstuk 6: de T-doolhof
LINKS RECHTS Beloning Geen beloning We kijken nu wat er gebeurt bij herhaalde keuze.

7 “Reinforcement learning” in een T-doolhof
Er is een zekere beginkans dat de rat naar LINKS of RECHTS gaat Rat kiest LINKS of RECHTS Als de rat bij aankomst een beloning vindt, dan wordt de kans op de betreffende keuze (LINKS of RECHTS) groter. In het boek van Lave & March: PL(0) en PR(0) Rat kiest LINKS of RECHTS, stel LINKS Stel een beloning wordt gevonden: PL(t+1) = PL(t) + ‘increment’

8 “Reinforcement learning” in een T-doolhof
LINKS gegaan, beloning gevonden: PL(t+1) = PL(t) + increment Vaste increment is een slechte keuze: de P is een kans en mag niet boven de 1 uitkomen. Daarom anders: PL(t+1) = PL(t) + a * (1 - PL(t)) met 0<a<1 de aantrekkingskracht van een optie is steeds een vast percentage (namelijk a) van de afstand van PL tot 1. a is de leersnelheid in het geval van beloningen (learning rate)

9 “Reinforcement learning” in een T-doolhof
LINKS gegaan, geen beloning gevonden (=mislukking): PL(t+1) = PL(t) – b PL(t) met 0<b<1 de extra aantrekkingskracht van een optie is steeds een vast percentage (namelijk b) van de afstand tot 0. b is de leersnelheid in het geval van mislukkingen (learning rate)

10 T-doolhof: voorbeeld Kans op LINKS = 0,5 Kans op RECHTS = 0,5
a (leersnelheid bij beloning) = 0,3 b (leersnelheid bij geen beloning) = 0,2 LINKS  beloning, RECHTS  geen beloning Trial Gaat naar PL(t) PR(t) 1 LINKS 0,50 + 0,30*(1-0,50)=0,650 0,350 2 LINKS 0,65 + 0,30*(1-0,65)=0,755 0,245 3 LINKS 0,755+0,30*(1-0,755)=0,829 0,172 4 LINKS 0, ,120 5 LINKS 0, ,084 6 LINKS 0, ,059 7 … … …

11 T-doolhof: algemeen Twee gedragsalternatieven
Twee mogelijke uitkomsten Gedragskeuze op basis van geneigdheid tot de verschillende alternatieven (zgn “propensities”) Er is een beginvoorkeur (P(0) voor beide alternatieven) BELONING GEEN BELONING LINKS PL(t+1) = PL(t) + a * (1 - PL(t)) PL(t+1) = PL(t) – b PL(t) RECHTS Idem, maar dan met PR

12 < zie “learning.xls”>
T-doolhof < zie “learning.xls”>

13 Limiet t PL(t) = (1-R)/(2-R-L)
Resultaten T-doolhof Eén kant met beloning, andere niet  gedrag convergeert naar “altijd de goeie kant” NB: je kunt dit natuurlijk probabilistisch maken Als a=b en Kans op beloning LINKS = L Kans op beloning RECHTS = R Limiet t PL(t) = (1-R)/(2-R-L)

14 Toepassing: innovativiteit (1)
Lave & March, p. 287 (“The extinction of subjective creativity”) Hoe komt het dat innovativiteit relatief zeldzaam is? Twee alternatieven: [1] ik doe (subjectief gezien) innovatief [2] ik doe (subjectief gezien) conservatief Omgeving geeft beloningen Vraag: in welke omgevingen ontstaat relatief veel innovatief gedrag? Flauw antwoord: daar waar beloningen worden gegeven aan innovatief gedrag (of andersom: juist niet daar waar beloningen staan op conservatief gedrag)

15 Toepassing: innovativiteit (2)
We voegen nu beloningen toe, die afhankelijk zijn van of een idee goed is, niet of een idee innovatief is. Aanname: de kans dat een subjectief gezien innovatief idee goed is, is 20%. Aanname: over het algemeen zijn conservatieve ideeën met grotere kans goed (in de loop van de tijd zijn de goede ideeën overgebleven), zeg 85%. Extra aanname: a=b, dwz de leersnelheden zijn gelijk  Dan convergeert de proportie innovatieve ideeën naar (1-R)/(2-R-L) = (1-0,85)/(2-0,85-0,2) = 21%

16 Toepassing: innovativiteit (3)
Die 21% is laag, maar er worden dus nog wel innovatieve ideeën verzonnen. De vraag is: WAAR DAN? Per toeval zijn er “innovatieven” met steeds goede ideeën De langzame leerders; zij zijn er nog niet achter dat innovatief gedrag niet loont I.h.a. in omgevingen waar het verschil tussen goede en slechte ideeën onduidelijk is Implicaties: Innovativiteit stimuleren is riskant, je krijgt er meer missers door Echte innovativiteit kan vaak pas na een leerperiode voorkomen (voor grote innovaties heb je nu eenmaal basiskennis nodig)  meer innovativiteit in beroepen waarbij de leerperiode korter is, en  jongeren zijn innovatiever

17 In goede en slechte omstandigheden …
Vergelijk nu een BENIGN WORLD (altijd een beloning, of je nu links of rechts gaat) met een MALEVOLENT WORLD (nooit een beloning) < zie learning.xls>

18 In goede en slechte omstandigheden: resultaten
“MALEVOLENT WORLD” (geen beloningen)  geen convergentie, zowel niet op individueel niveau als op collectief niveau “BENIGN WORLD” (altijd beloningen)  op individueel niveau: convergentie naar LINKS én RECHTS  op collectief niveau: proportie LINKS wordt gelijk aan proportie mensen dat LINKS koos in trial 1

19 Toepassing: Haarkleur (1)
Vraag: hoeveel mensen kiezen voor welke haarkleur? Achtergrond: wie loopt met de mode mee? 2 Gedragsalternatieven: blond en bruin Aanname: ‘s ochtends de keus tussen die twee, dan de hele dag zelfde kleur Beloning: social approval (of juist niet) ( 2 x 2 = 4 gevallen) Geval 1: blond haar dan social approval, bruin dan niet  Geleidelijk aan kiest iedereen blond Geval 2: mooie mensen krijgen social approval, lelijke niet  voor mooie mensen is dit een geval van BENEVOLENT WORLD  je krijgt blond en bruin haar door elkaar, met een vaste haarkleur over de tijd  voor lelijke mensen is dit een geval van MALEVOLENT WORLD  je krijgt sterk wisselende haarkleuren

20 Toepassing: Haarkleur (2)
Gevolg: Degenen die minder social approval krijgen, zijn degenen die meer van haarkleur wisselen In het algemeen: Degenen die minder of geen ‘beloning’ krijgen, zijn degenen die meer van gedrag wisselen Voorbeelden Beloning Gedrag Marktleiders vs volgers Winst Productstrategie Bouwondernemingen Gunning Wijze van bieden Hieraan gerelateerde implicatie: als de omstandigheden verslechteren (van BENIGN naar MALEVOLENT), zullen bedrijven meer van strategie wisselen. [cf. ‘successful executives’ / ‘personality development’  in een constante omgeving die de beloningen volledig bepaalt, toch heel verschillend gedrag]

21 Het Coleman schema in deze toepassing
Sociale condities: Soort wereld (BENIGN of MALEVOLENT) Sociaal verschijnsel: Neiging tot bepaald gedrag Hoe transformeren de individuele uitkomsten tot collectief gedrag? Som van individuen Welke aannames zijn nodig voor je op het micro-niveau begint? Het Coleman-bootje Tot welk individueel gedrag leidt dit? BENIGN  extreme voorkeuren MALEVOLENT  juist geen extreme voorkeuren Handelingstheorie: leertheorie, mensen hebben neigingen tot gedrag en passen deze neigingen aan volgens de matrix van een paar slides terug Wie/wat zijn de actoren? Wat zijn hun doelen en voorkeuren? Homogene populatie individuen, ieder twee keuzes. Beloningen volgens BENIGN of MALEVOLENT.

22 Mogelijke uitbreidingen
Meer alternatieven (LINKS, RECHTS, … MIDDEN?) Leersnelheden die veranderen over de tijd Grootte van de beloning variabel + leersnelheid afhankelijk van grootte van beloning Twee actoren NB Ook hier weer: een goede modeluitbreiding Maakt het model realistischer EN … … er is ten minste een redelijke verwachting dat de conclusies van het model substantieel zullen veranderen na toepassing van deze uitbreiding

23 Over STI-2 als geheel (1) Onderzoeksvragen als ketens van
Probleem1-Theorie-Onderzoek-Probleem2-… Ook bij sociale wetenschappen: maak gebruik van modellen om voorspellingen af te leiden En dus niet: beta-probleem  rekenen gamma-probleem  wauwelen Die gamma-problemen zijn extra lastig: iedereen heeft er een mening over “wetten” zijn er veel minder minder aanknopingspunten waar je met theorievorming moet beginnen Hulpmiddel: modelmatige analyses

24 Over STI-2 als geheel (2) Verschillende soorten modellen
[Semantische: begin met specifieke waarnemingen, en maak deze algemener] Speltheoretische Interdependent gedrag Vooruitkijkend, sterk op rationeel gedrag gebaseerd Simulatiemodellen Vaak van nut indien wiskunde te lastig (bijvoorbeeld te veel actoren, te veel alternatieven, te veel verschillende conflicterende doelen) Van nut als actoren hun gedrag mede af laten hangen van anderen, maar op iets minder strikt rationele wijze Leermodellen Achteruitkijkend, sterk op ervaring van actoren gebaseerd 5. [combinaties van de voorafgaande]

25 Eventueel extra materiaal na deze slide

26 Interdependentie in leermodellen: MATING en HUNTING
Lave and March, p. 305 Twee actoren, ieder dezelfde twee alternatieven (“Henry and Mildred”) Verder identiek: ze hebben allebei een bepaalde voorkeur voor één van beide alternatieven aan het begin, en leren allebei aan de hand van het al dan niet krijgen van beloningen (eventueel met verschillende leersnelheden) Geval 1 “MATING”: de actoren worden beloond indien ze dezelfde keuzes maken Geval 2 “HUNTING”: de actoren worden beloond indien ze tegengestelde keuzes maken Resultaten MATING: relatief snel wordt geconvergeerd naar een gemeenschappelijke keuze (interessante implicaties zitten in de verschillen in leersnelheden: degene met de grootste leersnelheid wisselt meer van alternatief) HUNTING: geen convergentie (oscillerend)

27 Interdependentie en leermodellen gemengd: “belief learning”
Twee actoren, ieder twee alternatieven Herhaalde keuze over de tijd Iedere actor heeft inschattingen over de geneigdheid van de ander om het één of het ander te doen Actor kiest uit alternatieven op basis van verwachte opbrengst, gegeven de inschattingen Actor past zijn inschattingen over de ander aan, aan de hand van vergelijkingen zoals in leermodel Voorbeeld: herhaald Assurance Game [nb extra complicatie: nu weet je ook wat je gehad zou hebben als je de andere keuze had gemaakt] Assurance G. coöperatie defectie 60 , 60 10 , 50 50 , 10 20 , 20


Download ppt "Over het tentamen: Voor 3 ects: Voor 2 ects:"

Verwante presentaties


Ads door Google