Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:32,960 --> 00:00:35,720
(applaus)
2
00:00:35,880 --> 00:00:37,360
Goedenavond.
3
00:00:37,520 --> 00:00:39,200
Dank je wel, dames en heren.
4
00:00:39,680 --> 00:00:42,240
Dank je wel, Ludo.
Goedenavond, dames en heren.
5
00:00:42,400 --> 00:00:46,400
Welkom op mijn theatervoorstelling
over artificiële intelligentie.
6
00:00:46,560 --> 00:00:49,880
Dat is het onderwerp voor vanavond,
mijn nieuwe favoriete onderwerp.
7
00:00:50,040 --> 00:00:53,000
Niet toevallig, natuurlijk.
Het is de nieuwe toptechnologie.
8
00:00:53,160 --> 00:00:54,920
Het kan spectaculaire dingen
9
00:00:55,080 --> 00:00:58,120
en het is steeds aanweziger
in ons persoonlijke leven,
10
00:00:58,280 --> 00:01:00,520
vaak zonder
dat we het zelf goed doorhebben.
11
00:01:00,680 --> 00:01:02,200
En veel mensen hebben vragen.
12
00:01:02,360 --> 00:01:04,200
Dus ik wil vanavond
eventjes uitleggen
13
00:01:04,360 --> 00:01:07,080
wat artificiële intelligentie
precies is,
14
00:01:07,240 --> 00:01:09,600
wat het allemaal kan, hoe het werkt
15
00:01:09,760 --> 00:01:12,800
en wat het in de nabije toekomst
allemaal zal kunnen.
16
00:01:12,960 --> 00:01:15,760
Ik zei daarnet:
Het is de nieuwste toptechnologie.
17
00:01:15,920 --> 00:01:17,560
Dat klopt niet helemaal.
18
00:01:17,720 --> 00:01:21,320
Artificiële intelligentie
is al 68 jaar oud.
19
00:01:22,080 --> 00:01:25,000
De term is verzonnen in 1956
20
00:01:25,160 --> 00:01:29,440
op de allereerste zomerconferentie
voor artificiële intelligentie.
21
00:01:29,600 --> 00:01:32,120
68 jaar onderzoek.
22
00:01:32,280 --> 00:01:35,880
En dan kan je je afvragen:
Waarom heeft het zo lang geduurd
23
00:01:36,040 --> 00:01:40,680
voor we die AI-boom zagen,
die AI-revolutie die we nu meemaken?
24
00:01:40,840 --> 00:01:43,040
Het antwoord daarop is vrij simpel.
25
00:01:43,200 --> 00:01:46,040
We hebben nu pas computers
die krachtig genoeg zijn
26
00:01:46,200 --> 00:01:48,120
om goede AI mee te bouwen.
27
00:01:48,280 --> 00:01:51,000
En we hebben nu pas
genoeg data op het internet
28
00:01:51,160 --> 00:01:53,680
om AI goed mee te kunnen trainen.
29
00:01:53,840 --> 00:01:56,960
Want als je AI probeert te bouwen
met te weinig rekenkracht
30
00:01:57,120 --> 00:01:58,320
en met te weinig data,
31
00:01:58,480 --> 00:02:01,360
dan kom je niet uit
op artificiële intelligentie.
32
00:02:01,520 --> 00:02:04,720
Dan kom je uit
op artificiële betweterigheid.
33
00:02:04,880 --> 00:02:06,760
En dat hebben we ook geprobeerd.
34
00:02:07,520 --> 00:02:08,960
Dat zag er zo uit.
35
00:02:09,120 --> 00:02:10,960
(publiek lacht)
36
00:02:11,960 --> 00:02:15,440
Iedereen boven de 30 denkt nu:
Oh nee, niet hij weer.
37
00:02:15,600 --> 00:02:17,160
(publiek lacht)
38
00:02:18,320 --> 00:02:21,560
Iedereen onder de 30 denkt nu:
Is dat een Pokémon? Nee.
39
00:02:23,200 --> 00:02:24,520
Het is geen Pokémon.
40
00:02:25,160 --> 00:02:26,440
Dit is Clippy.
41
00:02:27,800 --> 00:02:30,120
Ook Clippy wou je heel graag helpen.
42
00:02:32,200 --> 00:02:34,320
En dat was eigenlijk
je grootste probleem.
43
00:02:34,480 --> 00:02:35,600
(publiek lacht)
44
00:02:35,760 --> 00:02:38,280
Je was aan het typen in Word,
zet drie koppeltekens op een rij:
45
00:02:38,440 --> 00:02:39,920
Clippy verschijnt.
46
00:02:40,080 --> 00:02:42,560
Die zegt:
Oh, drie koppeltekens op een rij?
47
00:02:42,720 --> 00:02:45,480
Jij wilt vast een lijn
over de hele pagina.
48
00:02:46,600 --> 00:02:47,680
Nee, Clippy.
49
00:02:47,840 --> 00:02:49,520
(publiek lacht)
50
00:02:49,680 --> 00:02:50,880
Dat wou ik niet.
51
00:02:52,040 --> 00:02:54,120
Dus je duwt: delete, delete, delete.
52
00:02:54,280 --> 00:02:56,560
De lijn schuift nu omhoog
op de pagina.
53
00:02:57,560 --> 00:03:00,560
Je selecteert de lijn, je drukt
op enter, nu heb je twee lijnen.
54
00:03:01,880 --> 00:03:04,440
Dat was AI met te weinig rekenkracht.
55
00:03:04,600 --> 00:03:08,200
En nu hebben we dus eindelijk
computers die krachtig genoeg zijn
56
00:03:08,360 --> 00:03:11,560
om AI te bouwen die wel
spectaculaire dingen kan doen.
57
00:03:11,720 --> 00:03:14,880
En het is spectaculair wat er gebeurt
momenteel. Dat vind ik zelf ook.
58
00:03:15,040 --> 00:03:16,800
En ik ga een paar demo's
geven vanavond
59
00:03:16,960 --> 00:03:20,440
die hopelijk ook voor jullie
spectaculair zullen zijn.
60
00:03:20,600 --> 00:03:24,120
Maar ook al is het spectaculair,
ik wil toch beginnen met die term,
61
00:03:24,280 --> 00:03:27,640
artificiële intelligentie, even
met de voetjes op de grond te zetten.
62
00:03:27,800 --> 00:03:30,880
Want mensen stellen zich daar
waanzinnige dingen bij voor.
63
00:03:31,040 --> 00:03:34,680
Sommige mensen denken: Artificiële
intelligentie, dat zijn computers
64
00:03:34,840 --> 00:03:38,120
die kunnen nadenken en redeneren,
net zoals wij.
65
00:03:38,280 --> 00:03:41,280
Of dit zijn computers
die een bewustzijn hebben.
66
00:03:41,440 --> 00:03:45,120
Dat is het allemaal niet.
Dus even voor de duidelijkheid,
67
00:03:45,280 --> 00:03:48,200
om het even zo droog mogelijk
te zetten in het begin,
68
00:03:48,360 --> 00:03:50,320
wat is AI in één zin?
69
00:03:51,240 --> 00:03:54,920
Artificiële intelligentie is gewoon
een nieuwe vorm van software
70
00:03:55,080 --> 00:03:58,200
die goed is in patroonherkenning.
En dat is alles.
71
00:03:59,080 --> 00:04:02,600
Een nieuwe vorm van software
die goed is in patroonherkenning.
72
00:04:02,760 --> 00:04:05,640
En patroonherkenning zijn dingen
zoals gezichten herkennen,
73
00:04:05,800 --> 00:04:08,760
objecten herkennen op foto's,
stemmen herkennen,
74
00:04:08,920 --> 00:04:12,080
gedragspatronen analyseren
van online consumenten...
75
00:04:12,240 --> 00:04:14,400
Dat is allemaal patroonherkenning.
76
00:04:14,560 --> 00:04:17,680
De software, de gewone,
klassiek geprogrammeerde software,
77
00:04:17,840 --> 00:04:19,920
waar wij
al tientallen jaren mee werken,
78
00:04:20,080 --> 00:04:22,120
kan heel veel dingen supergoed,
79
00:04:22,280 --> 00:04:24,800
maar die is heel slecht
in patroonherkenning.
80
00:04:24,960 --> 00:04:28,040
Klassiek geprogrammeerde software
ziet er een beetje zo uit.
81
00:04:28,200 --> 00:04:30,200
Een programmeur heeft regels bedacht,
82
00:04:30,360 --> 00:04:33,040
heeft uitvoerbare stappen bedacht
voor een computer,
83
00:04:33,200 --> 00:04:35,360
heeft dat opgeschreven
in programmeertaal.
84
00:04:35,520 --> 00:04:37,960
De computer voert die stappen
één na één uit
85
00:04:38,120 --> 00:04:40,840
en zo wordt er
een taak geautomatiseerd.
86
00:04:41,000 --> 00:04:44,720
Dit is software. Die vraagt
aan vijf mensen hun leeftijd
87
00:04:44,880 --> 00:04:47,040
en berekent de gemiddelde leeftijd
van de vijf.
88
00:04:47,200 --> 00:04:49,760
Dat is een taak die je
heel gemakkelijk kan opschrijven
89
00:04:49,920 --> 00:04:52,720
in uitvoerbare stappen
voor een computer.
90
00:04:52,880 --> 00:04:56,720
Wat blijkt? Het is aartsmoeilijk
om met dit soort software
91
00:04:56,880 --> 00:05:01,320
patroonherkenning te programmeren.
Probeer het even voor jezelf.
92
00:05:01,480 --> 00:05:05,200
Welke stappen zou een computer
één na één moeten uitvoeren
93
00:05:05,360 --> 00:05:09,440
om te kunnen besluiten of er een hond
of een kat op een foto staat?
94
00:05:09,600 --> 00:05:12,120
Op gelijk welke foto
van een hond of een kat.
95
00:05:12,280 --> 00:05:13,880
Dat is aartsmoeilijk.
96
00:05:14,040 --> 00:05:17,440
En dat is ons niet gelukt
met dit soort software.
97
00:05:17,600 --> 00:05:21,080
En dat zie je ook aan de economie:
alles is geautomatiseerd,
98
00:05:21,240 --> 00:05:24,120
behalve dingen
waar patroonherkenning voor nodig is.
99
00:05:24,280 --> 00:05:26,880
Je auto wordt voor een groot stuk
door robots gebouwd.
100
00:05:27,040 --> 00:05:29,000
Want die moeten altijd
diezelfde voorruit
101
00:05:29,160 --> 00:05:30,720
in diezelfde carrosserie stoppen
102
00:05:30,880 --> 00:05:32,760
en dat is gemakkelijk
te programmeren.
103
00:05:32,920 --> 00:05:37,840
Maar iets heel basics als fruitpluk
is nog altijd mensenwerk.
104
00:05:38,000 --> 00:05:40,600
Want zonder patroonherkenning
kan je niet zien
105
00:05:40,760 --> 00:05:43,360
waar de appel hangt
tussen de bladeren.
106
00:05:43,520 --> 00:05:47,560
En dus wat er nu gebeurt, is: we
hebben sinds een paar jaar software
107
00:05:47,720 --> 00:05:49,680
die heel goed is in patroonherkenning
108
00:05:49,840 --> 00:05:51,480
en dat is
een soort nieuwe superkracht.
109
00:05:51,640 --> 00:05:53,200
We hebben dat nooit eerder gehad.
110
00:05:53,360 --> 00:05:56,880
Heel die AI-revolutie die je nu ziet,
is daar het gevolg van.
111
00:05:57,040 --> 00:05:59,720
Software die goed is
in patroonherkenning.
112
00:05:59,880 --> 00:06:02,480
En sinds we
die nieuwe superkracht hebben,
113
00:06:02,640 --> 00:06:05,080
zijn de slimste mensen op aarde bezig
114
00:06:05,240 --> 00:06:09,800
om daarmee de grote problemen
van onze samenleving op te lossen.
115
00:06:09,960 --> 00:06:13,000
Zoals bijvoorbeeld: 'Waar is Wally?'
116
00:06:13,160 --> 00:06:15,360
(publiek lacht)
117
00:06:15,520 --> 00:06:18,920
(publiek lacht luider)
118
00:06:21,280 --> 00:06:24,960
Dit is een Waar is Wally-robot.
Een webcam met AI.
119
00:06:25,120 --> 00:06:28,160
Die zoekt het patroon
van Wally zijn hoofd op de pagina
120
00:06:28,320 --> 00:06:31,640
en als die het gevonden heeft,
zegt de robotarm: Daar is Wally.
121
00:06:31,800 --> 00:06:33,040
Want ook onze ontspanning
122
00:06:33,200 --> 00:06:35,960
wordt blijkbaar geautomatiseerd
in de toekomst.
123
00:06:36,440 --> 00:06:39,920
20 jaar geleden kon geen enkel
softwarebedrijf dit voor je bouwen.
124
00:06:40,080 --> 00:06:43,120
Vandaag kan je dat zelf maken
aan je eigen keukentafel.
125
00:06:43,280 --> 00:06:44,440
Ik ga je straks leren hoe.
126
00:06:44,600 --> 00:06:47,360
Heel gemakkelijk. Als je absoluut
een Waar is Wally-robot wilt,
127
00:06:47,520 --> 00:06:51,560
ga ik je straks leren hoe je dat zelf
kan zonder al te veel programmeren.
128
00:06:51,720 --> 00:06:52,800
Maar goed, dat is het dus.
129
00:06:52,960 --> 00:06:56,040
We hebben een nieuwe superkracht
in de software: patroonherkenning.
130
00:06:56,200 --> 00:06:58,760
En alles wat je ziet,
heel die AI-revolutie,
131
00:06:58,920 --> 00:07:00,040
is daar een gevolg van.
132
00:07:00,200 --> 00:07:02,840
Dat is enorm veel aan het veranderen
op wereldschaal.
133
00:07:03,000 --> 00:07:05,800
Amerika en China kijken heel nerveus
naar elkaar.
134
00:07:05,960 --> 00:07:09,000
Ze zijn alle twee bang
dat de andere AI-dominant zal worden,
135
00:07:09,160 --> 00:07:11,920
dus veel betere AI zal hebben
dan de concurrentie.
136
00:07:12,080 --> 00:07:15,440
Militair wordt er AI getest.
In Oekraïne op dit moment
137
00:07:15,600 --> 00:07:19,360
worden splinternieuwe AI-toepassingen
militair getest.
138
00:07:19,520 --> 00:07:22,080
Het gaat socio-economisch
veel veranderen.
139
00:07:22,240 --> 00:07:24,840
Er gaan jobs verschuiven.
Er gaan jobs veranderen.
140
00:07:25,000 --> 00:07:29,520
Wij gaan moeten herdenken hoe we onze
samenleving en ons werk inrichten.
141
00:07:29,680 --> 00:07:33,440
Maar AI komt ook gewoon binnen
in je persoonlijke leven.
142
00:07:33,600 --> 00:07:38,320
Wij hebben AI elke dag bij ons
in de nabije toekomst.
143
00:07:38,480 --> 00:07:42,440
De AI in je broekzak.
En laat ons daar beginnen.
144
00:07:42,600 --> 00:07:43,720
Bij de AI in je broekzak.
145
00:07:43,880 --> 00:07:47,680
Als ik zeg 'AI in je broekzak',
bedoel ik natuurlijk je smartphone.
146
00:07:48,320 --> 00:07:53,360
En je smartphone is eigenlijk
een technologisch mirakel.
147
00:07:53,520 --> 00:07:56,400
Dat is een onwaarschijnlijk apparaat
148
00:07:56,560 --> 00:07:59,080
waar wij heel snel
gewoon aan zijn geworden.
149
00:07:59,240 --> 00:08:03,800
Maar ik ga het even illustreren.
Als je teruggaat naar 1969,
150
00:08:03,960 --> 00:08:08,320
het jaar van de eerste mensen
op de maan, de Apollo 11-missie,
151
00:08:08,480 --> 00:08:11,760
en als je alle rekenkracht
van Apollo 11 samentelt...
152
00:08:11,920 --> 00:08:15,360
En dan bedoel ik
twee supercomputers in de raket
153
00:08:15,520 --> 00:08:19,680
en het volledige serverpark
van de NASA op aarde in Houston.
154
00:08:19,840 --> 00:08:22,960
Alle rekenkracht nodig
voor Apollo 11 opgeteld...
155
00:08:24,160 --> 00:08:27,200
Jouw smartphone
is 100.000 keer krachtiger.
156
00:08:27,960 --> 00:08:30,320
En wij gebruiken dat
om fruitsnoepjes op een rij te zetten
157
00:08:30,480 --> 00:08:31,640
tot ze ontploffen.
158
00:08:31,800 --> 00:08:32,880
(publiek lacht)
159
00:08:33,040 --> 00:08:35,000
Dat is de menselijke vooruitgang.
160
00:08:37,240 --> 00:08:40,600
Maar omdat wij zo'n krachtige
computer bij ons dragen heel de dag
161
00:08:40,760 --> 00:08:43,000
en omdat die AI-toepassingen
zo goed geworden zijn,
162
00:08:43,160 --> 00:08:47,360
kan je vandaag dus AI-apps
downloaden. Vaak gratis apps
163
00:08:47,520 --> 00:08:50,240
die met artificiële intelligentie
waanzinnige dingen doen.
164
00:08:50,400 --> 00:08:53,760
Ik ga er eens een telefoon bij halen,
dan kan ik er een paar demonstreren.
165
00:08:53,920 --> 00:08:57,720
Dag, Ludo. Mag ik mijn telefoon,
alsjeblieft? Dank je wel, Ludo.
166
00:08:57,880 --> 00:08:59,960
Ja, voilà. Ja.
(applaus)
167
00:09:00,120 --> 00:09:01,240
Ja, ja.
168
00:09:04,840 --> 00:09:07,800
De eerste generatie AI-apps deden
aan patroonherkenning.
169
00:09:07,960 --> 00:09:09,960
Die gingen een patroon zoeken
en dat herkennen.
170
00:09:10,120 --> 00:09:13,400
Je hebt apps waarmee je foto's neemt
van planten en dieren
171
00:09:13,560 --> 00:09:16,360
en die zeggen je onmiddellijk
welke plant of welk dier dat is.
172
00:09:16,800 --> 00:09:20,160
Je hebt een app waarmee je in het bos
vogelgeluiden kan opnemen
173
00:09:20,320 --> 00:09:23,440
en die app luistert mee
en geeft je een lijst van alle vogels
174
00:09:23,600 --> 00:09:25,480
die op dat moment te horen zijn.
175
00:09:25,640 --> 00:09:28,880
Maar de nieuwe generatie AI-apps gaan
niet gewoon een patroon herkennen,
176
00:09:29,040 --> 00:09:31,520
die gaan er daarna nog
extra bewerkingen mee uitvoeren
177
00:09:31,680 --> 00:09:33,440
en doorgeven aan volgende software.
178
00:09:33,600 --> 00:09:36,200
En zo ontstaan er
magische toepassingen.
179
00:09:36,360 --> 00:09:38,640
Ik ga eens eentje opendoen.
Daar is mijn telefoon.
180
00:09:38,800 --> 00:09:40,200
Ik ga beginnen met Photomath.
181
00:09:40,360 --> 00:09:42,640
Die staat helemaal rechts
in het midden, die rode app.
182
00:09:42,800 --> 00:09:46,040
En als je die opent, begint die
gewoon de omgeving te filmen.
183
00:09:46,200 --> 00:09:48,000
Voilà, daar zijn jullie allemaal.
184
00:09:48,160 --> 00:09:50,360
Zwaai maar eens naar de AI,
natuurlijk.
185
00:09:51,200 --> 00:09:53,800
Altijd vriendelijk zijn tegen AI.
186
00:09:53,960 --> 00:09:56,400
Op een dag zijn ze de baas. Dus...
187
00:09:56,560 --> 00:09:58,720
Die app filmt gewoon de zaal.
188
00:09:58,880 --> 00:10:01,840
Maar stel je voor:
je zit in de wiskundeles
189
00:10:02,000 --> 00:10:04,880
en er verschijnt een pittige
integraal op het schoolbord.
190
00:10:05,720 --> 00:10:08,720
Wat doe je dan?
Je richt je camera op die integraal
191
00:10:08,880 --> 00:10:11,000
en je neemt daar een foto van.
Zo, huppakee.
192
00:10:11,160 --> 00:10:13,720
Bliep, bliep, bliep.
De integraal is opgelost.
193
00:10:13,880 --> 00:10:16,120
(publiek lacht)
194
00:10:16,480 --> 00:10:17,600
Dat is leuk.
195
00:10:18,520 --> 00:10:19,840
Wie zit er nog in het middelbaar?
196
00:10:20,000 --> 00:10:21,000
(publiek lacht)
197
00:10:21,160 --> 00:10:22,760
Jeej.
198
00:10:23,600 --> 00:10:25,760
Wie geeft er les in het middelbaar?
199
00:10:25,920 --> 00:10:27,520
Jeej.
200
00:10:28,960 --> 00:10:32,720
Wat moet je in godsnaam doen als
leerkracht wiskunde vandaag de dag,
201
00:10:32,880 --> 00:10:34,880
nu er een gratis app is
die in één seconde
202
00:10:35,040 --> 00:10:38,440
alle taken van een huiswerk oplost?
Wat moet je doen?
203
00:10:39,560 --> 00:10:42,320
Gelukkig zijn leerkrachten wiskunde
slim genoeg.
204
00:10:42,480 --> 00:10:44,640
En die weten:
als ik een huistaak geef vandaag,
205
00:10:44,800 --> 00:10:46,520
moet ik altijd eisen
dat de leerlingen
206
00:10:46,680 --> 00:10:48,880
alle logische tussenstappen
opschrijven.
207
00:10:49,040 --> 00:10:51,240
Dan weet ik zeker
dat ze zelf nagedacht hebben.
208
00:10:52,080 --> 00:10:55,320
Als ik op dit rode knopje duw,
krijg ik alle logische...
209
00:10:55,480 --> 00:10:57,520
(publiek lacht)
210
00:10:57,680 --> 00:11:00,640
(applaus)
211
00:11:03,000 --> 00:11:05,000
Ik vind het een toffe app.
212
00:11:05,160 --> 00:11:08,200
Hij komt 30 jaar te laat,
maar ik ben fan. Sowieso.
213
00:11:08,800 --> 00:11:10,280
Is dit een ramp voor ons onderwijs?
214
00:11:10,440 --> 00:11:13,520
Gaan onze leerlingen nu immens veel
dommer worden? Ik weet het niet.
215
00:11:13,680 --> 00:11:16,840
Je kunt die app gebruiken om het hele
jaar vals te spelen op je huiswerk.
216
00:11:17,000 --> 00:11:19,760
Je komt op je examen,
je snapt er niks van en je buist.
217
00:11:19,920 --> 00:11:22,160
Je kunt die app ook gebruiken
doorheen het jaar,
218
00:11:22,320 --> 00:11:24,800
als je een opgave niet snapt
en je krijgt ze niet opgelost,
219
00:11:24,960 --> 00:11:26,320
om te vragen hoe het moet,
220
00:11:26,480 --> 00:11:28,640
extra uitleg te vragen
bij al die tussenstappen
221
00:11:28,800 --> 00:11:30,480
en daardoor
beter in wiskunde te worden.
222
00:11:30,640 --> 00:11:33,000
Dat is een van de vele voorbeelden
van technologie
223
00:11:33,160 --> 00:11:36,600
die ons de keuze geven of we er
slimmer of dommer van worden.
224
00:11:36,760 --> 00:11:39,520
Kies wijs, jongeren. Kies wijs.
225
00:11:40,200 --> 00:11:42,160
Ik ga naar een volgende app:
Google Translate.
226
00:11:42,320 --> 00:11:43,600
Dat is een heel bekende app.
227
00:11:43,760 --> 00:11:45,800
Die ziet er zo uit
en je hebt zo'n tekstveldje.
228
00:11:45,960 --> 00:11:48,160
Je tikt daar iets in
en dan kun je vragen aan die app:
229
00:11:48,320 --> 00:11:51,840
Vertaal dat eens van het Frans
naar het Nederlands. Bestaat al lang.
230
00:11:52,000 --> 00:11:54,680
Maar nu zit er ook AI
in de Google Translate-app.
231
00:11:54,840 --> 00:11:57,720
En die zit in die icoontjes
die je onderaan ziet staan.
232
00:11:57,880 --> 00:12:00,040
Je hebt daar bijvoorbeeld
zo'n camera-icoontje.
233
00:12:00,200 --> 00:12:04,400
En als je daarop tikt, gaat die app
weer doodgewoon de omgeving filmen.
234
00:12:04,560 --> 00:12:08,480
En stel je voor:
je bent op reis in Frankrijk.
235
00:12:08,640 --> 00:12:10,200
En je spreekt geen Frans.
236
00:12:11,200 --> 00:12:13,360
Want je bent een Hollander,
bijvoorbeeld.
237
00:12:13,520 --> 00:12:15,000
(publiek lacht)
238
00:12:15,160 --> 00:12:18,400
Dan kan je gewoon met je telefoon
de omgeving filmen
239
00:12:18,560 --> 00:12:21,160
en in je beeld
verschijnt alles in het Nederlands.
240
00:12:22,240 --> 00:12:24,200
Die herkent die tekst,
herkent die taal
241
00:12:24,360 --> 00:12:26,640
en projecteert dat
in je gewenste taal
242
00:12:26,800 --> 00:12:29,200
op dezelfde plek, in dezelfde kleur.
243
00:12:30,280 --> 00:12:32,640
Goed, ik denk dat de meesten van ons
wel Frans spreken.
244
00:12:32,800 --> 00:12:35,520
Die app is nog toffer
als je in Japan op reis bent.
245
00:12:36,280 --> 00:12:39,080
Je kunt niet eens die tekens lezen.
Je filmt dat met je telefoon
246
00:12:39,240 --> 00:12:41,440
en meteen verschijnt dat
in het Nederlands.
247
00:12:41,600 --> 00:12:44,160
Over vijf kilometer
begint de autosnelweg.
248
00:12:44,560 --> 00:12:47,000
Zeer handige app als je op reis bent.
249
00:12:47,160 --> 00:12:49,240
In Hongarije,
je kunt de menukaart niet lezen.
250
00:12:49,400 --> 00:12:50,960
Gewoon filmen met de telefoon.
251
00:12:51,120 --> 00:12:53,640
Je leest een boek in het Duits,
er is een stuk dat je niet snapt.
252
00:12:53,800 --> 00:12:57,400
Filmen met je telefoon en in je beeld
staat alles in het Nederlands.
253
00:12:57,560 --> 00:12:59,920
Je hebt daar nog
een paar andere icoontjes gezien.
254
00:13:00,080 --> 00:13:02,960
Er is bijvoorbeeld een
microfoonicoontje onderaan die app.
255
00:13:03,120 --> 00:13:06,320
Als je daarop tikt, kan je Nederlands
spreken tegen je telefoon,
256
00:13:06,480 --> 00:13:08,400
die neemt dat op
en spreekt dat opnieuw uit,
257
00:13:08,560 --> 00:13:10,160
bijvoorbeeld in het Japans.
258
00:13:10,320 --> 00:13:13,320
Je gesprekspartner antwoordt in
het Japans, je telefoon neemt dat op
259
00:13:13,480 --> 00:13:16,000
en die spreekt dat opnieuw uit
in het Nederlands.
260
00:13:16,160 --> 00:13:20,560
Je hebt een gratis simultaantolk
in je binnenzak zitten
261
00:13:20,720 --> 00:13:23,960
dankzij de AI
van die Google Translate-app.
262
00:13:24,120 --> 00:13:27,960
AI is heel veel aan het veranderen,
ook in de vertalingssoftware.
263
00:13:28,120 --> 00:13:31,440
Vroeger werden teksten vertaald
met geprogrammeerde regels
264
00:13:31,600 --> 00:13:34,240
en dan kregen we die heel kromme
Google Translate-zinnen.
265
00:13:34,400 --> 00:13:37,120
Vandaag gebeurt de vertaling
door AI-systemen.
266
00:13:37,280 --> 00:13:40,360
AI kan gesproken woorden
omzetten in tekst,
267
00:13:40,520 --> 00:13:42,640
kan tekst vertalen
naar een andere taal
268
00:13:42,800 --> 00:13:45,600
en kan die nieuwe tekst opnieuw
uitspreken met een computerstem.
269
00:13:45,760 --> 00:13:49,040
En het typische geluid van je eigen
stem, dat is ook een patroon.
270
00:13:49,200 --> 00:13:52,640
AI kan dat analyseren
en kan dat daarna nabootsen.
271
00:13:52,800 --> 00:13:55,360
En AI kan ook videobewerking doen.
272
00:13:55,520 --> 00:13:59,320
En als je dat allemaal combineert,
kan je toffe trucjes uithalen.
273
00:13:59,920 --> 00:14:02,120
Voor jullie hier waren,
een uurtje geleden,
274
00:14:02,280 --> 00:14:05,080
stond ik hier op het podium
en heb ik dit filmpje opgenomen.
275
00:14:05,240 --> 00:14:08,360
Wat we daar precies mee gaan doen,
dat vertel ik jullie straks.
276
00:14:09,920 --> 00:14:12,080
Goedenavond,
dames en heren in Brugge.
277
00:14:12,240 --> 00:14:14,640
En ook aan de mensen
die thuis aan het kijken zijn.
278
00:14:14,800 --> 00:14:18,240
Ik sta hier dus in Brugge,
de mooiste stad van België.
279
00:14:18,400 --> 00:14:20,240
Na Gent, natuurlijk.
280
00:14:20,400 --> 00:14:23,560
Ik ben hier voor mijn voorstelling
over artificiële intelligentie
281
00:14:23,720 --> 00:14:25,360
die ik straks voor jullie ga spelen
282
00:14:25,520 --> 00:14:28,160
als jullie hier binnenkomen
in de zaal vanavond.
283
00:14:28,320 --> 00:14:31,080
En ik kan daar
heel veel demonstraties mee geven,
284
00:14:31,240 --> 00:14:34,080
want er worden heel veel toepassingen
gemaakt voor AI
285
00:14:34,240 --> 00:14:36,680
waarmee ik leuke demo's
kan geven in de zaal.
286
00:14:36,840 --> 00:14:39,880
En ik ga zo'n demo geven
met dit filmpje hier.
287
00:14:40,040 --> 00:14:43,280
Wat ik daar precies mee ga doen?
Dat vertel ik jullie nu.
288
00:14:44,680 --> 00:14:46,160
Voilà, dat heb ik opgenomen.
289
00:14:46,320 --> 00:14:49,040
En dan heb ik dat geüpload
naar een website. Die heet HeyGen.
290
00:14:49,200 --> 00:14:52,960
Ik heb gevraagd aan die website:
Zet dat filmpje nu eens in het Frans.
291
00:14:53,120 --> 00:14:55,560
Spreek alles wat ik gezegd heb
opnieuw uit in het Frans,
292
00:14:55,720 --> 00:14:59,080
maar imiteer mijn stem, zodat het
mijn stem is die Frans spreekt.
293
00:14:59,240 --> 00:15:01,760
En als je bezig bent,
pas dan ook de lipbewegingen aan,
294
00:15:01,920 --> 00:15:04,600
zodat ze beter lijken op
de lipbewegingen die gemaakt worden
295
00:15:04,760 --> 00:15:06,160
bij die Franse tekst.
296
00:15:06,320 --> 00:15:08,280
Die website
heeft tien minuten gerekend.
297
00:15:08,680 --> 00:15:11,000
Tien minuten. En toen kwam dit terug.
298
00:15:13,280 --> 00:15:17,720
Goedenavond, dames en heren in Brugge.
En ook aan zij die thuis kijken.
299
00:15:17,880 --> 00:15:19,440
Ik ben hier dus in Brugge.
300
00:15:19,600 --> 00:15:23,840
De mooiste stad van België,
in de richting van Gent natuurlijk.
301
00:15:24,000 --> 00:15:27,280
Ik ben hier voor mijn show
over artificiële intelligentie
302
00:15:27,440 --> 00:15:31,440
die ik voor jullie ga spelen
als jullie vanavond de zaal binnenkomen.
303
00:15:31,600 --> 00:15:34,040
Ik kan veel demo's geven
over dit onderwerp.
304
00:15:34,200 --> 00:15:36,680
Want er zijn veel applicaties
gemaakt voor AI
305
00:15:36,840 --> 00:15:39,960
waarmee ik wat mooie demo's
kan geven in de zaal.
306
00:15:40,120 --> 00:15:42,840
Ik zal een demonstratie doen
met deze video.
307
00:15:43,000 --> 00:15:46,360
Wat ik daarmee ga doen,
zal ik jullie nu zeggen.
308
00:15:47,200 --> 00:15:48,200
(applaus)
309
00:15:48,360 --> 00:15:49,880
Wat is dat? Wat?
310
00:15:50,640 --> 00:15:52,080
Ja, maar...
311
00:15:54,520 --> 00:15:56,920
Dank je wel, maar ik heb niks gedaan.
312
00:15:57,360 --> 00:16:00,880
Wat is dit? Wat voor hekserij is dat?
313
00:16:01,040 --> 00:16:03,200
Er zat ook een vertaalfout in.
Heb je ze gehoord?
314
00:16:03,360 --> 00:16:06,920
Mooiste stad, na Gent. 'Plus belle
ville en direction de Gand.'
315
00:16:07,080 --> 00:16:08,600
(publiek lacht)
316
00:16:08,760 --> 00:16:11,760
Maar dit is dus op tien minuten
zonder menselijke interactie
317
00:16:11,920 --> 00:16:15,640
volledig zelfstandig uitgerekend
door een AI-systeem.
318
00:16:15,800 --> 00:16:19,480
Het is waanzinnig
hoe goed die dingen geworden zijn.
319
00:16:19,640 --> 00:16:21,560
En dit gaat natuurlijk
heel wat veranderen
320
00:16:21,720 --> 00:16:23,480
voor bepaalde beroepsgroepen.
321
00:16:23,640 --> 00:16:26,360
Denk even aan de landen
waar films gedubd worden.
322
00:16:27,240 --> 00:16:29,880
Die acteurs
die films dubben in Italië?
323
00:16:30,040 --> 00:16:33,280
Heel die beroepsgroep
is over een paar jaar weg.
324
00:16:33,440 --> 00:16:36,360
De volgende James Bondfilm zal
waarschijnlijk niet gedubd worden,
325
00:16:36,520 --> 00:16:39,400
maar uitgesproken worden
in de originele stem van de acteur
326
00:16:39,560 --> 00:16:42,480
met aangepaste lipbewegingen
in het Italiaans.
327
00:16:43,360 --> 00:16:46,080
Alle gevolgen van simpelweg
patroonherkenning
328
00:16:46,240 --> 00:16:49,960
gaan dus heel veel veranderen
op heel veel verschillende gebieden
329
00:16:50,120 --> 00:16:51,640
in onze wereld.
330
00:16:51,800 --> 00:16:53,560
Waarom hebben wij nu
zo lang moeten wachten
331
00:16:53,720 --> 00:16:56,080
op software die goed is
in patroonherkenning?
332
00:16:56,240 --> 00:16:58,960
Ik heb daarnet gezegd: Onze klassiek
geprogrammeerde software,
333
00:16:59,120 --> 00:17:00,840
daar kan je
heel veel dingen mee doen,
334
00:17:01,000 --> 00:17:04,080
maar die is heel slecht
in patroonherkenning.
335
00:17:04,240 --> 00:17:07,600
Het gekke is wel
dat je hier op aarde al heel lang
336
00:17:07,760 --> 00:17:11,720
een paar supergoeie
patroonherkenningsmachines kan vinden
337
00:17:11,880 --> 00:17:14,040
en dat zijn menselijke hersenen.
338
00:17:14,200 --> 00:17:17,000
Ons brein is fantastisch goed
in patroonherkenning.
339
00:17:17,160 --> 00:17:21,000
Meer zelfs: dat is de belangrijkste
taak van onze hersenen.
340
00:17:21,160 --> 00:17:24,760
Patroonherkenning. Vanaf een kind
geboren wordt, is dat wat die doen.
341
00:17:24,920 --> 00:17:26,280
Die gaan gezichten herkennen,
342
00:17:26,440 --> 00:17:28,560
objecten herkennen
en die een naam geven.
343
00:17:28,720 --> 00:17:31,200
Die gaan stemmen herkennen,
situaties herkennen.
344
00:17:31,360 --> 00:17:33,640
Allemaal patroonherkenning.
345
00:17:33,800 --> 00:17:37,400
De reden dat ons hoofd zo goed is
in patroonherkenning,
346
00:17:37,560 --> 00:17:40,240
is omdat het totaal anders werkt
dan dit.
347
00:17:40,400 --> 00:17:43,280
Wij hebben geen logische regeltjes
in ons hoofd
348
00:17:43,440 --> 00:17:46,600
die één na één uitgevoerd worden.
Ons hoofd werkt anders.
349
00:17:46,760 --> 00:17:52,720
Onze hersenen zijn één grote spons
van 80 miljard hersencellen.
350
00:17:52,880 --> 00:17:56,920
Tien keer meer hersencellen in
je hoofd dan er mensen op aarde zijn.
351
00:17:57,720 --> 00:18:00,880
Die hersencellen zitten samen
en hebben verbindingen met elkaar.
352
00:18:01,040 --> 00:18:04,480
Dus zo ziet dat eruit. Elke knooppunt
is een hersencel of een neuron.
353
00:18:04,640 --> 00:18:06,240
En die hebben tentakeltjes
354
00:18:06,400 --> 00:18:09,240
waarmee ze verbinding maken
met sommige andere hersencellen
355
00:18:09,400 --> 00:18:13,200
en langs die tentakels kunnen ze
andere hersencellen activeren
356
00:18:13,360 --> 00:18:15,080
als ze zelf actief zijn.
357
00:18:15,240 --> 00:18:17,600
Linksonder worden
drie hersencellen actief.
358
00:18:17,760 --> 00:18:20,560
Via die uitsteeksels
gaan ze sommige andere hersencellen
359
00:18:20,720 --> 00:18:22,480
in het brein aanzetten.
360
00:18:23,200 --> 00:18:26,600
Een heel simpel principe.
Een netwerk van knooppunten
361
00:18:26,760 --> 00:18:29,120
die via sterkere
en minder sterke verbindingen
362
00:18:29,280 --> 00:18:32,520
andere knooppunten kunnen activeren.
En wat blijkt?
363
00:18:32,680 --> 00:18:36,080
Daaruit volgt bijna vanzelf
patroonherkenning.
364
00:18:37,040 --> 00:18:38,640
Ik ga je even een voorbeeld geven.
365
00:18:38,800 --> 00:18:44,160
Veel mensen herinneren zich zo een
specifieke geur uit hun kindertijd.
366
00:18:44,320 --> 00:18:47,800
Zodra die geur op een onbewaakt
moment binnenwaait in je neus,
367
00:18:47,960 --> 00:18:50,840
komt er een enorm sterke herinnering
naar boven.
368
00:18:51,000 --> 00:18:53,280
In mijn geval:
de refter van de kleuterklas.
369
00:18:54,040 --> 00:18:57,360
Je ruikt dat en onmiddellijk
komt die herinnering naar boven.
370
00:18:57,520 --> 00:19:01,600
Wat er dan gebeurt in je hoofd,
is exact dit.
371
00:19:02,440 --> 00:19:05,800
Laat ons zeggen dat die drie neuronen
linksonder verbonden zijn met je neus
372
00:19:05,960 --> 00:19:08,520
en die worden vanzelf geactiveerd
door die geur.
373
00:19:08,680 --> 00:19:12,760
En al die neuronen rechts
werden geactiveerd door die situatie
374
00:19:12,920 --> 00:19:15,720
waarin je die geur
vroeger vaak geroken hebt.
375
00:19:15,880 --> 00:19:18,960
Wat is er gebeurd? In je kindertijd
heb je die geur en die situatie
376
00:19:19,120 --> 00:19:22,400
heel vaak samen meegemaakt.
Die hersencellen waren samen actief
377
00:19:22,560 --> 00:19:24,960
en daarom hebben die
verbinding gelegd met elkaar.
378
00:19:25,120 --> 00:19:29,240
Neuronen die samen actief zijn in het
brein, proberen verbinding te leggen.
379
00:19:29,400 --> 00:19:33,080
In de neurologie zeggen ze:
'Fire together is wire together.'
380
00:19:33,240 --> 00:19:34,600
Wat is het gevolg daarvan?
381
00:19:34,760 --> 00:19:37,640
Als je later in je leven
opnieuw die geur ruikt,
382
00:19:37,800 --> 00:19:40,240
gaan die neuronen
via die getrainde verbindingen
383
00:19:40,400 --> 00:19:43,560
ook die neuronen
van die herinnering aanzetten.
384
00:19:43,720 --> 00:19:47,600
Er volgt vanzelf patroonherkenning
uit dit systeem.
385
00:19:48,560 --> 00:19:50,560
Daarom dachten
de computerwetenschappers:
386
00:19:50,720 --> 00:19:54,240
Als wij het zo moeilijk hebben met
patroonherkenning in onze software
387
00:19:54,400 --> 00:19:57,080
en die structuur
werkt daar zo goed voor,
388
00:19:57,240 --> 00:20:00,640
dan moeten wij misschien proberen
om deze structuur,
389
00:20:00,800 --> 00:20:06,320
een netwerk van knooppunten,
na te programmeren in software.
390
00:20:06,480 --> 00:20:09,040
Dat hebben ze gedaan
en dat ziet er zo uit.
391
00:20:09,920 --> 00:20:13,880
Dit is een neuraal netwerk zoals
het geprogrammeerd is in de computer.
392
00:20:14,040 --> 00:20:16,800
Het heet in de softwarewereld
ook een neuraal netwerk,
393
00:20:16,960 --> 00:20:20,600
genoemd naar onze hersenen.
Wat zien we hier nu precies staan?
394
00:20:20,760 --> 00:20:23,280
Helemaal links zie je allemaal
eentjes en nulletjes.
395
00:20:23,440 --> 00:20:25,040
Dat is een computerbestand.
396
00:20:25,200 --> 00:20:28,160
Een digitaal computerbestand.
Dat bestaat uit eentjes en nulletjes.
397
00:20:28,320 --> 00:20:31,120
Dat kan bijvoorbeeld
een digitale afbeelding zijn.
398
00:20:31,280 --> 00:20:34,560
Elk van die eentjes en nulletjes
zou je kunnen beschouwen
399
00:20:34,720 --> 00:20:37,760
als een hersencel
die aanstaat of uitstaat.
400
00:20:37,920 --> 00:20:41,640
En vanaf daar programmeer je allemaal
verbindingen, sterkere en zwakkere,
401
00:20:41,800 --> 00:20:43,080
naar een nieuwe rij neuronen.
402
00:20:43,240 --> 00:20:45,160
Die neuronen die aanstaan
in die eerste rij
403
00:20:45,320 --> 00:20:47,840
gaan via die verbinding
sommige neuronen activeren
404
00:20:48,000 --> 00:20:49,640
in die software in de tweede rij.
405
00:20:49,800 --> 00:20:53,520
En die gaan weer neuronen activeren
in de derde rij en in de vierde rij.
406
00:20:53,680 --> 00:20:57,240
En wat is het uiteindelijke doel
van dit neurale netwerk?
407
00:20:57,400 --> 00:21:00,040
Dat het kan zien
of er een hond of een kat staat
408
00:21:00,200 --> 00:21:04,320
op de digitale afbeelding die je daar
ingevoerd hebt in de eerste rij.
409
00:21:04,480 --> 00:21:08,120
Als je dit allemaal programmeert
en je start dat programma op,
410
00:21:08,280 --> 00:21:09,960
dan gebeurt er helemaal niks.
411
00:21:10,920 --> 00:21:13,200
Want je software is niet getraind.
412
00:21:13,360 --> 00:21:16,800
Een neuraal netwerk kan niets
als het niet getraind is.
413
00:21:16,960 --> 00:21:18,320
Je moet dat eerst trainen
414
00:21:18,480 --> 00:21:22,040
door dat heel veel afbeeldingen
te tonen van honden en katten
415
00:21:22,200 --> 00:21:24,080
en daar telkens
heel duidelijk bij te zeggen:
416
00:21:24,240 --> 00:21:26,080
Dit is een hond en dit is een kat.
417
00:21:26,240 --> 00:21:30,280
Dus ik toon dat neurale netwerk
een afbeelding van een kat.
418
00:21:30,440 --> 00:21:33,600
Ik zeg daar heel duidelijk bij:
Dit is een kat.
419
00:21:33,760 --> 00:21:37,840
Die twee kanten zijn samen actief
en die software gaat op basis daarvan
420
00:21:38,000 --> 00:21:41,800
bepaalde verbindingen in dat netwerk
sterker en zwakker maken.
421
00:21:41,960 --> 00:21:43,760
Net zoals in je kindertijd.
422
00:21:43,920 --> 00:21:47,440
Die geur en die situatie
waren samen actief in je hoofd
423
00:21:47,600 --> 00:21:50,240
en die hebben verbinding gelegd
met elkaar.
424
00:21:50,400 --> 00:21:52,280
Eén foto is niet genoeg
om het te trainen.
425
00:21:52,440 --> 00:21:55,400
Dus ik toon nog een foto van een kat
en zeg daar weer duidelijk bij:
426
00:21:55,560 --> 00:21:58,120
Dit is een kat.
Die twee kanten zijn samen actief
427
00:21:58,280 --> 00:22:00,120
en die software
gaat bepaalde verbindingen
428
00:22:00,280 --> 00:22:02,840
sterker en zwakker maken
in dat netwerk.
429
00:22:03,000 --> 00:22:04,800
Ik toon ook eens
een foto van een hond.
430
00:22:04,960 --> 00:22:07,560
Ik zeg daar heel duidelijk bij:
Dit is dus een hond.
431
00:22:07,720 --> 00:22:09,120
Die twee kanten zijn samen actief
432
00:22:09,280 --> 00:22:11,160
en de software
gaat weer nieuwe verbindingen
433
00:22:11,320 --> 00:22:13,280
sterker en zwakker maken
in dat netwerk.
434
00:22:13,440 --> 00:22:17,600
En bij elk van die stappen.
wordt dit netwerk beter aangepast
435
00:22:17,760 --> 00:22:20,320
om te reageren met het woord 'kat'
op een foto van een kat
436
00:22:20,480 --> 00:22:22,800
en met het woord 'hond'
op een foto van een hond.
437
00:22:22,960 --> 00:22:28,280
Als je dit duizenden keren gedaan
hebt met duizenden trainingsfoto's,
438
00:22:28,440 --> 00:22:31,440
dan kan je testen
of het netwerk al werkt.
439
00:22:31,600 --> 00:22:34,440
En dat doe je door het een nieuwe
foto te laten zien van een kat
440
00:22:34,600 --> 00:22:38,400
die het nog nooit gezien heeft, maar
dit keer verklap je daar niks bij.
441
00:22:38,560 --> 00:22:40,920
Je toont die foto
zonder te zeggen wat erop staat
442
00:22:41,080 --> 00:22:44,080
en die beginneuronen gaan
via die getrainde verbindingen
443
00:22:44,240 --> 00:22:46,000
de rest van het netwerk activeren.
444
00:22:46,160 --> 00:22:49,520
En als alles goed gaat,
zegt dat netwerk vanzelf:
445
00:22:49,680 --> 00:22:51,680
Dit is hoogstwaarschijnlijk een kat.
446
00:22:53,120 --> 00:22:56,960
Je hebt de structuur van hersenen
nageprogrammeerd in software
447
00:22:57,120 --> 00:22:59,000
en je hebt die getraind
tot die reageert
448
00:22:59,160 --> 00:23:00,920
met het woord 'kat'
op foto's van een kat
449
00:23:01,080 --> 00:23:03,320
en met het woord 'hond'
op foto's van een hond.
450
00:23:03,480 --> 00:23:06,400
En wat blijkt?
Dit werkt fantastisch goed.
451
00:23:07,360 --> 00:23:10,440
Neurale netwerken in software
zijn heel goed geschikt
452
00:23:10,600 --> 00:23:12,800
om objecten te herkennen op foto's.
453
00:23:12,960 --> 00:23:15,920
We hebben zo neurale netwerken
getraind die katten kunnen herkennen
454
00:23:16,080 --> 00:23:19,680
en die honden kunnen herkennen,
en nijlpaarden en strandfoto's
455
00:23:19,840 --> 00:23:23,480
en zeilbootjes en Calippo-ijsjes
en alles wat je wilt.
456
00:23:23,640 --> 00:23:27,760
En als je die allemaal samenpropt
tot één enorm neuraal netwerk
457
00:23:27,920 --> 00:23:31,760
van miljoenen knooppunten,
dan heb je objectherkenningssoftware.
458
00:23:31,920 --> 00:23:34,520
Objectherkenningssoftware
is een computerprogramma
459
00:23:34,680 --> 00:23:37,280
en daar laat je een foto aan zien
en dat programma zegt vanzelf:
460
00:23:37,440 --> 00:23:39,320
Ik zie een straat
en er staat een vrachtwagen.
461
00:23:39,480 --> 00:23:42,840
En ik zie een lantaarnpaal en er zit
een vogel in een boom, enzovoort.
462
00:23:43,000 --> 00:23:44,880
Die software bestaat nu.
463
00:23:45,040 --> 00:23:47,920
En wij hebben allemaal
een supercomputer in onze binnenzak.
464
00:23:48,080 --> 00:23:49,080
Dus dan denk ik:
465
00:23:49,240 --> 00:23:52,560
Waarschijnlijk komt die
objectherkenningssoftware binnenkort
466
00:23:52,720 --> 00:23:54,480
op onze telefoon terecht.
467
00:23:54,640 --> 00:23:58,520
En vanaf dan gaat je telefoon weten
wat er op je foto staat
468
00:23:58,680 --> 00:24:00,040
die je zelf genomen hebt.
469
00:24:01,960 --> 00:24:05,880
Het zou natuurlijk ook kunnen dat die
software nu al op je telefoon staat.
470
00:24:06,640 --> 00:24:08,400
Zullen we dat misschien eens testen?
471
00:24:09,200 --> 00:24:12,400
Als je een telefoon bij je hebt,
mag je die nu bovenhalen.
472
00:24:12,560 --> 00:24:17,160
Haal je smartphone er maar bij
en open eens je fotomap.
473
00:24:17,320 --> 00:24:20,720
Je map waar al je fotootjes in
zitten. Voilà, dat is mijn fotomapje.
474
00:24:22,440 --> 00:24:24,680
In je fotoalbum
heb je ergens een zoekfunctie.
475
00:24:24,840 --> 00:24:26,040
Dat is zo'n vergrootglaasje
476
00:24:26,200 --> 00:24:29,080
en als je daarop duwt,
kan je zoeken naar locaties
477
00:24:29,240 --> 00:24:31,520
of naar data
waarop foto's genomen zijn.
478
00:24:31,680 --> 00:24:34,360
Maar wij gaan iets anders doen.
Je duwt op je zoekfunctie
479
00:24:34,520 --> 00:24:36,880
en in die tekstbalk
tik je een woord in,
480
00:24:37,040 --> 00:24:39,680
zoals bijvoorbeeld het woord 'paard'.
481
00:24:39,840 --> 00:24:42,200
Dan krijg ik
al mijn foto's met paarden op.
482
00:24:44,040 --> 00:24:45,840
Je kunt het eens proberen met 'kat'.
483
00:24:46,560 --> 00:24:48,960
Je kan het eens proberen met 'hond'.
484
00:24:49,120 --> 00:24:51,400
Ik ga zelf eens zoeken
naar 'zwembad'.
485
00:24:51,800 --> 00:24:53,080
Zwembad.
486
00:24:53,760 --> 00:24:55,880
Ik krijg al mijn foto's
met zwembaden op.
487
00:24:56,040 --> 00:24:57,800
(geroezemoes)
488
00:24:57,960 --> 00:25:02,400
Je kunt het iets moeilijker maken
en zoeken naar 'zonsondergang'.
489
00:25:02,560 --> 00:25:04,440
Zonsondergang.
490
00:25:05,560 --> 00:25:07,880
Ik krijg al mijn foto's
met zonsondergangen.
491
00:25:09,480 --> 00:25:12,640
Je telefoon weet
wat er op je foto's staat.
492
00:25:12,800 --> 00:25:14,880
En je kan foto's van vroeger
gaan terugzoeken
493
00:25:15,040 --> 00:25:17,480
door gewoon in te tikken
wat daarop stond.
494
00:25:17,640 --> 00:25:19,360
(geroezemoes)
495
00:25:19,520 --> 00:25:21,080
Ik heb nu de cruciale fout gemaakt
496
00:25:21,240 --> 00:25:23,600
jullie te vragen
om je telefoon boven te halen...
497
00:25:23,760 --> 00:25:24,960
(publiek lacht)
498
00:25:25,120 --> 00:25:27,520
...en je dan
een nieuw trucje te leren.
499
00:25:27,680 --> 00:25:29,320
We gaan verder spelen na de les.
500
00:25:29,480 --> 00:25:30,560
(publiek lacht)
501
00:25:30,720 --> 00:25:31,960
Pennen neer.
502
00:25:33,520 --> 00:25:37,440
Ik zie jullie gezichtjes
gewoon nog oplichten in de zaal.
503
00:25:37,600 --> 00:25:41,200
En ik heb gezichtsherkenningssoftware
mee, dus let op wat je doet.
504
00:25:42,280 --> 00:25:45,640
Wat hebben we gedaan? We hebben een
neuraal netwerk gebouwd in software
505
00:25:45,800 --> 00:25:49,320
en we hebben dat getraind tot het
katten kan herkennen op foto's.
506
00:25:49,480 --> 00:25:51,360
Toen dit goed begon te werken,
507
00:25:51,520 --> 00:25:53,800
dachten ze
bij de computerwetenschappers:
508
00:25:53,960 --> 00:25:56,600
Misschien zoeken we nu beter
een nieuwe uitdaging.
509
00:25:56,760 --> 00:26:00,040
We gaan iets nieuws proberen.
En wat hebben ze bedacht? Ze dachten:
510
00:26:00,200 --> 00:26:02,760
Zouden wij ook
een neuraal netwerk kunnen bouwen
511
00:26:02,920 --> 00:26:04,960
dat geen afbeeldingen
van katten herkent,
512
00:26:05,120 --> 00:26:08,280
maar dat afbeeldingen van katten
kan maken?
513
00:26:08,440 --> 00:26:11,840
Dus een neuraal netwerk waartegen
je zegt: Teken eens een kat.
514
00:26:12,000 --> 00:26:14,520
En die doet dat.
Splinternieuwe tekening van een kat.
515
00:26:14,680 --> 00:26:16,560
Als je dat wilt bouwen,
moet je dat trainen.
516
00:26:16,720 --> 00:26:19,120
Een neuraal netwerk kan niets
als het niet getraind is.
517
00:26:19,280 --> 00:26:22,200
En je kan dat trainen
met reinforcement learning.
518
00:26:22,360 --> 00:26:24,000
En reinforcement learning wil zeggen:
519
00:26:24,160 --> 00:26:26,040
je laat dat netwerk
van alles proberen
520
00:26:26,200 --> 00:26:28,840
en dan zeg jij: Dit is goed gedaan
en dit is slecht gedaan.
521
00:26:29,000 --> 00:26:30,440
En zo leert dat ding bij.
522
00:26:32,160 --> 00:26:35,200
Alleen, om dat echt te doen werken,
moet je dat eigenlijk...
523
00:26:35,360 --> 00:26:37,880
Je moet dat afbeeldingen
laten maken van katten en zeggen:
524
00:26:38,040 --> 00:26:40,240
Dit lijkt op een kat
en dit lijkt niet op een kat.
525
00:26:40,400 --> 00:26:42,760
En dat netwerk gaat telkens
zijn verbindingen aanpassen
526
00:26:42,920 --> 00:26:45,520
om meer afbeeldingen te maken
waarvan jij zegt:
527
00:26:45,680 --> 00:26:46,880
Dit lijkt op een kat.
528
00:26:47,040 --> 00:26:48,840
Alleen moet je
dat miljoenen keren doen
529
00:26:49,000 --> 00:26:51,720
voor dat een beetje begint te werken.
En ik heb geen tijd
530
00:26:51,880 --> 00:26:55,000
om miljoenen keren te zeggen:
Dit lijkt op een kat en dit niet.
531
00:26:55,600 --> 00:26:59,000
Het grote voordeel is: ik hoef dat
ook niet meer zelf te doen.
532
00:26:59,160 --> 00:27:00,880
Want die eerste AI kan dat doen.
533
00:27:01,720 --> 00:27:05,480
Dus je koppelt die twee gewoon aan
elkaar. En je zegt tegen AI nummer 2:
534
00:27:05,640 --> 00:27:08,960
Probeer eens een afbeelding te maken
van een kat. En die probeert dat.
535
00:27:09,120 --> 00:27:12,960
En AI 1 kijkt ernaar en die zegt:
Dit trekt echt op geen kloten.
536
00:27:13,120 --> 00:27:14,640
(publiek lacht)
537
00:27:14,800 --> 00:27:16,800
En dan probeert AI 2 opnieuw
en AI 1 zegt:
538
00:27:16,960 --> 00:27:19,160
Dat is wat beter.
Probeert hij het nog eens: slechter.
539
00:27:19,320 --> 00:27:20,680
Nog eens: dat is veel beter.
540
00:27:20,840 --> 00:27:23,000
En zo laat je die
miljoenen keren proberen
541
00:27:23,160 --> 00:27:25,040
en na een tijdje
heb je een neuraal netwerk
542
00:27:25,200 --> 00:27:27,520
dat afbeeldingen kan maken
van een kat.
543
00:27:27,680 --> 00:27:30,920
En je traint ook eentje om honden
te tekenen en nijlpaarden te tekenen,
544
00:27:31,080 --> 00:27:35,000
en voetbalvelden en dropsnoepjes
en alles wat je wilt.
545
00:27:35,160 --> 00:27:39,400
En als je dat allemaal samenpropt
tot één enorm neuraal netwerk,
546
00:27:39,560 --> 00:27:42,680
dan kan je dus aan dat netwerk
vragen: Teken eens dit.
547
00:27:42,840 --> 00:27:44,640
En dan probeert die dat voor je.
548
00:27:44,800 --> 00:27:49,000
En dat neurale netwerk heb ik hier
nu openstaan. Dat is Dall-E 2.
549
00:27:49,160 --> 00:27:51,720
Dall-E 2 is software
gebouwd door OpenAI,
550
00:27:51,880 --> 00:27:53,960
het bedrijf dat ook
ChatGPT gebouwd heeft.
551
00:27:54,120 --> 00:27:55,680
Je hebt hier een tekstveldje.
552
00:27:55,840 --> 00:27:57,640
Daarin tik je iets in,
dan duw je op enter
553
00:27:57,800 --> 00:28:01,280
en dan probeert de AI te tekenen
wat je gevraagd hebt.
554
00:28:01,440 --> 00:28:03,840
En dat gaan wij nu dus
samen proberen.
555
00:28:04,000 --> 00:28:06,160
Noem eens een dier.
556
00:28:06,320 --> 00:28:07,720
Eenhoorn.
- Olifant.
557
00:28:07,880 --> 00:28:10,640
Een olifant. We hebben een olifant.
We blijven bij de olifant.
558
00:28:10,800 --> 00:28:12,280
Wat is de olifant aan het doen?
559
00:28:12,440 --> 00:28:14,080
Aan het schaken.
- Voetbal.
560
00:28:14,240 --> 00:28:15,600
Aan het schaken?
561
00:28:16,360 --> 00:28:18,720
Dat gaat niet met die poten.
Die zijn veel te dik, hè.
562
00:28:18,880 --> 00:28:22,000
Je zou zo eens...
Met twee pootjes alles omver.
563
00:28:22,160 --> 00:28:24,520
De olifant is aan het schaken.
Geen probleem, Brugge.
564
00:28:24,680 --> 00:28:26,800
Waar is de olifant aan het schaken?
565
00:28:26,960 --> 00:28:28,400
Op Uranus.
- In het zwembad.
566
00:28:28,560 --> 00:28:29,640
In het zwembad?
567
00:28:29,800 --> 00:28:31,840
(publiek lacht)
568
00:28:32,000 --> 00:28:34,760
Klein softdrugsprobleem
in Brugge precies, toch?
569
00:28:34,920 --> 00:28:36,680
(publiek lacht)
570
00:28:36,840 --> 00:28:40,360
Normaal vragen ze een hond
met een hoedje op, maar ça va.
571
00:28:40,520 --> 00:28:41,680
Ça va.
572
00:28:41,840 --> 00:28:45,400
Schakende olifant in het zwembad.
Bon...
573
00:28:45,960 --> 00:28:47,040
Daar gaan we.
574
00:28:47,760 --> 00:28:49,320
Een olifant...
575
00:28:49,800 --> 00:28:51,560
is aan het schaken...
576
00:28:53,000 --> 00:28:56,000
in een zwembad...
577
00:28:57,960 --> 00:29:02,120
in de stijl van een kindertekening.
578
00:29:03,200 --> 00:29:06,320
Dit hebben jullie zelf gewild,
zeg ik er eventjes bij. Dus...
579
00:29:06,480 --> 00:29:08,080
Ik ga straks op enter duwen.
580
00:29:08,400 --> 00:29:10,920
Dan worden die woorden verstuurd
naar een neuraal netwerk
581
00:29:11,080 --> 00:29:12,600
ergens in een groot rekencentrum.
582
00:29:12,760 --> 00:29:15,360
Aan de ene kant worden die
in dat neurale netwerk geduwd.
583
00:29:15,520 --> 00:29:18,840
Al die eentjes en nulletjes geven
signalen naar andere knooppunten
584
00:29:19,000 --> 00:29:21,080
en aan de andere kant
komen daar pixels uit
585
00:29:21,240 --> 00:29:24,160
en die worden weer samengesteld
tot een splinternieuwe afbeelding.
586
00:29:24,320 --> 00:29:25,640
En als we geluk hebben...
587
00:29:27,520 --> 00:29:28,960
lijkt die een beetje...
588
00:29:29,840 --> 00:29:33,520
op een kindertekening van een olifant
die schaak speelt in een zwembad.
589
00:29:33,680 --> 00:29:35,480
Oké, daar gaan we.
590
00:29:35,960 --> 00:29:39,400
En start. De opdracht is verstuurd,
het balkje loopt.
591
00:29:39,560 --> 00:29:41,320
Straks krijgen wij vier pogingen.
592
00:29:41,480 --> 00:29:44,360
Vier pogingen tot schaak spelende
olifanten in een zwembad.
593
00:29:44,520 --> 00:29:46,240
Ik ben even benieuwd als jullie.
594
00:29:47,760 --> 00:29:49,360
Normaal gaat... Oh, huppakee.
595
00:29:49,520 --> 00:29:51,600
(publiek) Oh...
596
00:29:51,760 --> 00:29:52,960
Jazeker.
597
00:29:55,760 --> 00:29:57,520
Eventjes voor de duidelijkheid...
598
00:29:58,240 --> 00:30:01,200
Elke afbeelding die je hier ziet,
is splinternieuw.
599
00:30:02,120 --> 00:30:04,640
Deze zijn niet gedownload
van het internet.
600
00:30:04,800 --> 00:30:06,600
Dit zijn ook geen collages.
601
00:30:06,760 --> 00:30:09,800
Het is niet zo dat die olifantjes
al klaar waren en die schaakborden
602
00:30:09,960 --> 00:30:13,480
en dat hij die samengekleefd heeft.
Elke pixel die je ziet,
603
00:30:13,640 --> 00:30:17,520
is nieuw gemaakt door die AI
in de voorbije 20 seconden.
604
00:30:17,680 --> 00:30:21,480
Deze afbeeldingen bestonden niet
20 seconden geleden.
605
00:30:21,640 --> 00:30:23,560
Dit is generative AI.
606
00:30:23,720 --> 00:30:27,280
AI die geen patronen herkent,
maar die patronen kan genereren.
607
00:30:27,440 --> 00:30:30,800
En dat is een soort revolutie
in de AI-revolutie.
608
00:30:30,960 --> 00:30:34,520
Generative AI is nog veel meer
aan het veranderen
609
00:30:34,680 --> 00:30:36,800
dan AI die enkel
patroonherkenning doet.
610
00:30:36,960 --> 00:30:38,960
Je kan daar een beetje mee spelen.
611
00:30:39,120 --> 00:30:42,600
Je kan ook wat andere dingen vragen.
We gaan de olifant behouden. Oké.
612
00:30:42,760 --> 00:30:46,400
Een olifant doet een dansje...
613
00:30:48,400 --> 00:30:50,280
terwijl hij een tutu draagt...
614
00:30:51,760 --> 00:30:55,720
alsof het een olieverfschilderij is van...
615
00:30:55,880 --> 00:30:57,040
Noem eens een schilder.
616
00:30:57,200 --> 00:30:58,480
Mozart.
- Van Gogh.
617
00:30:58,640 --> 00:31:00,880
Van Gogh? Oké, we gaan voor Van Gogh.
618
00:31:01,320 --> 00:31:03,520
Van Van Gogh.
619
00:31:03,680 --> 00:31:05,360
Nu vraag ik een olieverfschilderij.
620
00:31:05,520 --> 00:31:07,880
Dus ik zou die glans willen zien,
wat penseelstroken.
621
00:31:08,040 --> 00:31:10,120
We gaan kijken wat hij daar
precies mee doet. Ja.
622
00:31:10,280 --> 00:31:13,240
Dus een beetje glans, penseelstroken,
wat impressionistisch,
623
00:31:13,400 --> 00:31:14,640
want ik heb Van Gogh gevraagd.
624
00:31:14,800 --> 00:31:18,640
Mooie compositie, mooie lichtinval,
dansende olifant met een jurk aan.
625
00:31:18,800 --> 00:31:21,920
Daar gaan we.
Vier pogingen, en huppakee.
626
00:31:22,080 --> 00:31:24,240
(geroezemoes)
627
00:31:24,400 --> 00:31:28,160
Alweer: elke pixel die je ziet,
is splinternieuw.
628
00:31:28,320 --> 00:31:31,520
Gemaakt door die AI
in de voorbije 20 seconden.
629
00:31:31,680 --> 00:31:33,720
Het is onwaarschijnlijk
630
00:31:33,880 --> 00:31:37,640
hoe goed die generative AI
geworden is op een paar jaar tijd.
631
00:31:38,560 --> 00:31:42,360
Dit is Dall-E 2.
Vandaag is er ook al Dall-E 3.
632
00:31:43,120 --> 00:31:45,840
Als je een betalend account hebt
op ChatGPT,
633
00:31:46,000 --> 00:31:48,520
dan kan je daar al mee spelen.
Dall-E 3.
634
00:31:48,680 --> 00:31:50,120
En laat ons dat eens testen.
635
00:31:50,280 --> 00:31:54,080
Dall-E 3 is ongeveer anderhalf jaar
na Dall-E 2 uitgekomen.
636
00:31:54,240 --> 00:31:58,320
Dus het verschil is anderhalf jaar
verdere ontwikkeling
637
00:31:58,480 --> 00:31:59,640
aan die technologie.
638
00:31:59,800 --> 00:32:03,280
Wat hadden we nu daarjuist?
Oké. Een olifant...
639
00:32:04,400 --> 00:32:06,080
is aan het schaken...
640
00:32:06,840 --> 00:32:09,280
in een zwembad.
641
00:32:09,440 --> 00:32:14,600
Ik moet er wel bij zetten dat het een
afbeelding moet zijn. Daar gaan we.
642
00:32:17,160 --> 00:32:19,200
Een afbeelding...
643
00:32:20,160 --> 00:32:21,800
van een olifant...
644
00:32:22,440 --> 00:32:25,680
die aan het schaken is
in een zwembad.
645
00:32:25,840 --> 00:32:28,040
Oké. En start.
646
00:32:28,200 --> 00:32:31,240
Dus er is anderhalf jaar verschil
in ontwikkeling,
647
00:32:31,400 --> 00:32:35,280
anderhalf jaar meer ontwikkeling,
tussen Dall-E 2 en Dall-E 3.
648
00:32:35,440 --> 00:32:38,120
Dall-E 3 is veel groter,
is op meer afbeeldingen getraind,
649
00:32:38,280 --> 00:32:41,480
heeft veel meer knooppuntjes.
Moet dus ook iets langer nadenken,
650
00:32:41,640 --> 00:32:44,680
maar dit is anderhalf jaar
betere ontwikkeling.
651
00:32:44,840 --> 00:32:45,880
Dit.
652
00:32:46,040 --> 00:32:48,560
(geroezemoes)
653
00:32:51,440 --> 00:32:53,320
Je kunt je voorstellen
dat illustratoren
654
00:32:53,480 --> 00:32:55,440
hier een beetje nerveus van worden.
655
00:32:56,480 --> 00:32:59,120
Dit kost mij
20 cent per afbeelding ongeveer.
656
00:32:59,280 --> 00:33:01,560
En ik mag dat vrij gebruiken
waar ik wil.
657
00:33:02,440 --> 00:33:05,120
Als je vraagt om zulke afbeeldingen
te maken aan een illustrator,
658
00:33:05,280 --> 00:33:07,360
heeft die er makkelijk
één of twee dagen werk aan.
659
00:33:07,520 --> 00:33:10,240
Dat zal honderden
tot duizend euro kosten.
660
00:33:10,400 --> 00:33:13,360
Er is een klein probleem
met deze software. Namelijk:
661
00:33:13,520 --> 00:33:14,720
die is getraind
662
00:33:14,880 --> 00:33:17,400
door heel veel afbeeldingen
te downloaden van het internet
663
00:33:17,560 --> 00:33:20,480
waar een beschrijving bij stond
en zo dat netwerk te laten trainen.
664
00:33:20,640 --> 00:33:22,440
Die techniek heet 'scraping'.
665
00:33:22,600 --> 00:33:25,120
'Scraping' is het afschrapen
van het internet
666
00:33:25,280 --> 00:33:29,680
om publieke data te verzamelen en die
te gebruiken als trainingssoftware.
667
00:33:29,840 --> 00:33:33,360
Bij die gebruikte afbeeldingen,
die gedownloade afbeeldingen,
668
00:33:33,520 --> 00:33:36,800
zat veel werk van illustratoren
die nu nog aan het werk zijn.
669
00:33:37,520 --> 00:33:38,560
Die zeggen natuurlijk:
670
00:33:38,720 --> 00:33:41,720
Wij hebben nooit toestemming gegeven
om onze afbeeldingen te gebruiken
671
00:33:41,880 --> 00:33:44,640
om een machine te bouwen
die nu onze job afpakt.
672
00:33:44,800 --> 00:33:45,960
Bij OpenAI zeggen ze:
673
00:33:46,120 --> 00:33:48,520
Ja, we hebben nog eens gekeken
naar het auteursrecht
674
00:33:48,680 --> 00:33:50,840
en wij hebben die toestemming
niet nodig.
675
00:33:52,080 --> 00:33:53,880
Want als je kijkt
naar het auteursrecht:
676
00:33:54,040 --> 00:33:57,080
elke kunstenaar mag online
zoveel rondkijken als hij wil
677
00:33:57,240 --> 00:33:59,440
om zich te inspireren
en om dingen bij te leren,
678
00:33:59,600 --> 00:34:01,960
zolang je maar
geen exacte kopieën maakt.
679
00:34:02,720 --> 00:34:06,240
Als je kijkt naar het auteursrecht
van vandaag, is hier niks mis mee.
680
00:34:07,080 --> 00:34:09,040
Maar het voelt niet helemaal fair.
681
00:34:10,440 --> 00:34:12,560
Ik denk
dat we nieuwe wetten nodig hebben.
682
00:34:13,440 --> 00:34:17,040
Ik denk dat we in het AI-tijdperk
heel veel nieuwe wetten nodig hebben.
683
00:34:17,840 --> 00:34:20,880
Als je je afvraagt: Wat kan ik nog
doen als AI alle jobs overneemt?
684
00:34:21,040 --> 00:34:22,520
Ik denk advocaat. Denk ik.
685
00:34:22,680 --> 00:34:23,880
(publiek lacht)
686
00:34:24,040 --> 00:34:25,720
Redelijk veel te doen.
687
00:34:27,120 --> 00:34:30,320
Die Dall-E 3 die ik getoond heb,
is betalende software.
688
00:34:30,480 --> 00:34:34,080
Dus je hebt een betalend account
nodig op GPT-4. Op ChatGPT.
689
00:34:34,240 --> 00:34:39,080
Maar iedereen die wil, kan gratis
100 afbeeldingen maken met Dall-E 3
690
00:34:39,240 --> 00:34:40,720
en dat kan in Bing.
691
00:34:40,880 --> 00:34:43,160
Microsoft heeft een stuk
van OpenAI gekocht
692
00:34:43,320 --> 00:34:46,240
en sindsdien kan je
in de Bing Image Creator
693
00:34:46,400 --> 00:34:50,160
100 gratis afbeeldingen maken
met die technologie.
694
00:34:50,320 --> 00:34:52,680
Je gaat weinig slapen vannacht.
Ik zeg het je al.
695
00:34:54,080 --> 00:34:56,040
Voor de mensen
die niet weten wat Bing is:
696
00:34:56,200 --> 00:34:58,160
googel het even.
697
00:34:58,320 --> 00:35:00,280
(publiek lacht)
698
00:35:01,560 --> 00:35:05,240
Die technologie is dus getraind
met reinforcement learning.
699
00:35:05,400 --> 00:35:07,760
Je laat dat netwerk
van alles proberen en dan zeg je:
700
00:35:07,920 --> 00:35:11,600
Goed gedaan, slecht gedaan.
En zo leert die AI bij.
701
00:35:11,760 --> 00:35:15,320
Een beetje zoals een hond trainen.
Die hond doet van alles
702
00:35:15,480 --> 00:35:17,800
en als die iets verkeerds doet,
zeg je: Stoute hond.
703
00:35:17,960 --> 00:35:21,240
En als die iets goeds doet, zeg je:
Brave hond. Hier is een koekje.
704
00:35:21,400 --> 00:35:22,680
Zo leert de hond bij.
705
00:35:22,840 --> 00:35:24,800
Dat is
wat computerwetenschappers doen.
706
00:35:24,960 --> 00:35:26,400
Ze staren naar de computer
707
00:35:26,560 --> 00:35:30,000
en als die iets verkeerds doet,
zeggen ze: Stoute software.
708
00:35:30,160 --> 00:35:32,480
Als die iets goeds doet, zeggen ze:
Brave software.
709
00:35:32,640 --> 00:35:37,880
Hier is een USB-stick.
En zo leren die netwerken bij.
710
00:35:39,200 --> 00:35:42,040
Dat je dieren ook kan trainen
met reinforcement learning,
711
00:35:42,200 --> 00:35:45,080
is ontdekt in de jaren 40,
de jaren 1940,
712
00:35:45,240 --> 00:35:47,720
door een Amerikaanse psycholoog,
B. F. Skinner.
713
00:35:47,880 --> 00:35:51,240
En wat heeft Skinner gedaan?
Skinner heeft duiven leren lezen.
714
00:35:52,560 --> 00:35:55,600
Dit is een duif
en die zit in een doos.
715
00:35:56,280 --> 00:35:59,400
Voor haar snavel
staat een bordje met letters op.
716
00:35:59,560 --> 00:36:02,160
Het woord 'turn'. Draai een rondje.
717
00:36:02,320 --> 00:36:04,680
Die duif kijkt ernaar
en die snapt er niks van.
718
00:36:04,840 --> 00:36:07,960
Want het is een duif en die snappen
eigenlijk nergens iets van.
719
00:36:09,280 --> 00:36:11,200
Het zijn de stomste beesten op aarde.
720
00:36:11,880 --> 00:36:15,080
Als je niet gelooft dat duiven
de stomste beesten op aarde zijn,
721
00:36:15,240 --> 00:36:18,040
kom je niet genoeg in het
stadscentrum. Het is gewoon zo.
722
00:36:18,800 --> 00:36:20,000
Die duif zit daar en zegt:
723
00:36:20,160 --> 00:36:22,840
(West-Vlaams) Amai, ik zit
in een doos. Ik weet ook niet waarom.
724
00:36:23,000 --> 00:36:25,360
Er staan rare dingen voor mijn neus
die ik niet kan lezen.
725
00:36:25,520 --> 00:36:27,280
Goh ja, ik ga een beetje rondkijken.
726
00:36:28,440 --> 00:36:30,880
Duiven spreken West-Vlaams.
Dat is ook gewoon zo.
727
00:36:31,040 --> 00:36:32,160
(publiek lacht)
728
00:36:32,320 --> 00:36:34,920
Die duif begint een beetje
nieuwsgierig rond te kijken.
729
00:36:35,080 --> 00:36:37,520
Terwijl die nieuwsgierig rondkijkt,
heeft die na een tijd
730
00:36:37,680 --> 00:36:40,400
compleet toevallig
een volledig rondje gedraaid.
731
00:36:40,560 --> 00:36:42,680
Op dat moment geeft Skinner die eten.
732
00:36:42,840 --> 00:36:45,400
Die duif krijgt eten
en snapt niet waarom.
733
00:36:45,560 --> 00:36:48,560
Die denkt: Amai, ik heb eten gehad.
Dat is sympathiek van die mens.
734
00:36:48,720 --> 00:36:51,600
Maar ik zit nog altijd in een doos
en weet nog altijd niet waarom.
735
00:36:52,640 --> 00:36:56,000
Ik ga nog een beetje rondkijken.
Die duif begint weer rond te kijken
736
00:36:56,160 --> 00:36:58,160
en na een tijd heeft die weer,
heel toevallig,
737
00:36:58,320 --> 00:37:01,880
een volledig rondje gedraaid.
Dan geeft Skinner die weer eten.
738
00:37:02,560 --> 00:37:04,040
Zonder dat die duif dat beseft,
739
00:37:04,200 --> 00:37:05,960
telkens als die beloond wordt
met voedsel,
740
00:37:06,120 --> 00:37:08,080
gaan de hersenbanen in haar hoofd
741
00:37:08,240 --> 00:37:10,240
van het gedrag
dat ze net gesteld heeft
742
00:37:10,400 --> 00:37:14,520
een klein beetje versterkt worden.
Als je dat twee dagen lang doet,
743
00:37:14,680 --> 00:37:17,400
krijg je een duif
die obsessief rondjes draait
744
00:37:17,560 --> 00:37:21,360
zodra ze het woord 'turn' ziet.
Zonder dat ze zelf weet waarom.
745
00:37:22,320 --> 00:37:25,880
Dan kun je denken: Misschien
is dat gewoon een neurotische duif.
746
00:37:26,040 --> 00:37:27,760
Maar ze heeft ook
andere woorden geleerd.
747
00:37:27,920 --> 00:37:29,880
Het bordje verdraait nu
naar het woord 'peck'
748
00:37:30,040 --> 00:37:32,080
en ze heeft geleerd
om daarop te pikken.
749
00:37:33,240 --> 00:37:35,240
Je kunt een duif
twaalf woorden leren.
750
00:37:37,400 --> 00:37:39,000
Alweer een tof weekendprojectje.
751
00:37:39,160 --> 00:37:41,000
(publiek lacht)
752
00:37:42,400 --> 00:37:45,880
Skinner heeft dit ontdekt in
de jaren 40, tijdens Wereldoorlog II.
753
00:37:46,040 --> 00:37:49,440
Als je iets nieuws ontdekte
in Amerika tijdens Wereldoorlog II,
754
00:37:49,600 --> 00:37:51,520
kwam er snel iemand op bezoek
van het leger
755
00:37:51,680 --> 00:37:53,720
en die vroeg:
Kunnen wij hier ook iets mee doen?
756
00:37:53,880 --> 00:37:55,800
Is hier
een militaire toepassing voor?
757
00:37:55,960 --> 00:37:57,720
En Skinner zei: Ik ga het proberen.
758
00:37:58,240 --> 00:38:00,400
Wat heeft hij gedaan?
Hij heeft duiven getraind
759
00:38:00,560 --> 00:38:05,520
om op een projectiebeeld van de zee
Duitse oorlogsboten aan te duiden.
760
00:38:06,480 --> 00:38:09,520
Dus wat je hier ziet, dat grijs,
is een projectiebeeld van de zee.
761
00:38:09,680 --> 00:38:11,800
Het zwart is de achterkant
van een duivenkop.
762
00:38:11,960 --> 00:38:14,280
In de verte
ligt een wazig, wit lijntje.
763
00:38:14,440 --> 00:38:19,080
Het wazige witte lijntje
is een Duits oorlogsschip.
764
00:38:19,240 --> 00:38:22,160
In het begin pikt die duif een beetje
nieuwsgierig rond op dat scherm.
765
00:38:22,320 --> 00:38:25,400
Telkens als die toevallig
dat oorlogsschip raakt,
766
00:38:25,560 --> 00:38:28,960
krijgt die eten van Skinner.
Als je dat twee dagen lang doet,
767
00:38:29,120 --> 00:38:32,320
krijg je een duif
die fanatiek pikt op naziboten.
768
00:38:32,480 --> 00:38:34,240
(publiek lacht)
769
00:38:36,360 --> 00:38:38,960
Een soort antifascistisch pluimvee
heb je...
770
00:38:39,800 --> 00:38:40,920
heb je gecreëerd.
771
00:38:42,080 --> 00:38:45,400
En Skinner ging terug naar het leger
en zei: Kijk, het werkt.
772
00:38:45,560 --> 00:38:48,000
De nazibotendetecterende duif.
773
00:38:49,240 --> 00:38:50,520
De NBDD.
774
00:38:51,480 --> 00:38:53,240
Bij het leger zeiden ze:
Dat is prachtig,
775
00:38:53,400 --> 00:38:57,480
maar wat kunnen we hier juist mee?
Skinner zei: Ik heb een plan.
776
00:38:57,640 --> 00:39:00,480
Weet je wat?
We steken er drie in een bom.
777
00:39:01,640 --> 00:39:03,240
Dit is een bom,
die vliegt over de zee
778
00:39:03,400 --> 00:39:07,000
en in die bom is plaats voor drie
nazibotendetecterende duiven.
779
00:39:08,880 --> 00:39:11,360
Die zitten daarin gebonden
met voor hun snavel een scherm
780
00:39:11,520 --> 00:39:15,400
waarop een projectiebeeld verschijnt
van de zee voor de bom.
781
00:39:16,120 --> 00:39:18,440
Als in de verte
een Duits oorlogsschip verschijnt,
782
00:39:18,600 --> 00:39:20,520
begint die duif daar keihard
op te pikken.
783
00:39:20,680 --> 00:39:24,240
Maar stel dat die bom te hoog vliegt,
dan staat dat schip onderaan in beeld
784
00:39:24,400 --> 00:39:26,680
en dan pikt die duif
op de onderkant van het scherm.
785
00:39:26,840 --> 00:39:30,120
Dat scherm kan een beetje scharnieren
en daardoor klapt dat achteruit.
786
00:39:30,280 --> 00:39:33,680
Die scharniertjes hebben ze verbonden
met het staartroer van de bom,
787
00:39:33,840 --> 00:39:36,920
waardoor die een beetje bijstuurt
en dus lager gaat vliegen.
788
00:39:37,080 --> 00:39:40,840
Tot dat schip bij alle drie de duiven
mooi in het midden staat
789
00:39:41,000 --> 00:39:43,600
en die bom
recht op dat schip inslaat.
790
00:39:44,680 --> 00:39:47,160
De allereerste telegeleide bom...
791
00:39:47,840 --> 00:39:49,160
werkte op duif.
792
00:39:49,320 --> 00:39:51,000
(publiek lacht)
793
00:39:52,040 --> 00:39:53,320
Ze staken er altijd drie in,
794
00:39:53,480 --> 00:39:56,200
want dan kan je
het gemiddelde nemen van de drie.
795
00:39:56,360 --> 00:39:59,640
Voor het geval er een
pacifistische duif bij zou zitten.
796
00:40:01,040 --> 00:40:04,160
Die bom is gebouwd en getest
en die werkte perfect.
797
00:40:04,320 --> 00:40:08,200
Skinner ging terug naar het leger
en zei: Hij werkt. De duifbom.
798
00:40:08,360 --> 00:40:10,040
Bij het leger zeiden ze: Supercool.
799
00:40:10,200 --> 00:40:14,320
Toen hadden ze een vergadering met
de legertop en die vroegen zich af:
800
00:40:14,480 --> 00:40:17,320
Hoe hard gaan de Duitsers
met ons lachen als ze dit ontdekken?
801
00:40:17,480 --> 00:40:18,840
(publiek lacht)
802
00:40:19,000 --> 00:40:21,400
Ze hebben het niet durven
in te voeren.
803
00:40:21,560 --> 00:40:24,840
Wat later was de oorlog gedaan, nog
later waren er de eerste computers.
804
00:40:25,000 --> 00:40:28,200
En de duifbom is nooit gebruikt
in de strijd.
805
00:40:28,360 --> 00:40:30,480
Hij is wel één keer getest geweest,
dus...
806
00:40:30,640 --> 00:40:34,040
Ergens in de jaren 40 lag er dan
zo'n testschip op de oceaan.
807
00:40:34,200 --> 00:40:36,680
En in de verte hoor je dan: fieuw.
808
00:40:36,840 --> 00:40:38,400
Fieuw, boem.
809
00:40:38,560 --> 00:40:40,240
Roe... Pluim.
810
00:40:40,400 --> 00:40:42,200
(publiek lacht)
811
00:40:43,880 --> 00:40:46,200
Ik vind het prachtig symbolisch
dat wij als mensheid
812
00:40:46,360 --> 00:40:49,520
ons symbolische dier voor de vrede
in een bom gebonden hebben.
813
00:40:49,680 --> 00:40:51,040
(publiek lacht)
814
00:40:51,200 --> 00:40:53,720
Tekenend. Tekenend.
815
00:40:54,480 --> 00:40:57,520
Maar een duif kan dus ook
objecten herkennen op afbeeldingen,
816
00:40:57,680 --> 00:41:00,720
omdat een duif ook een neuraal
netwerk heeft in haar hoofd.
817
00:41:00,880 --> 00:41:04,200
Elk biologisch brein
is een neuraal netwerk.
818
00:41:04,360 --> 00:41:07,480
Ik heb net getoond hoe dat eruitziet
in de computer, een neuraal netwerk.
819
00:41:07,640 --> 00:41:10,080
Dat kan je dus
programmeren en trainen
820
00:41:10,240 --> 00:41:13,600
tot het heel goed patronen herkent
op afbeeldingen.
821
00:41:14,400 --> 00:41:15,840
Dat werkt fantastisch goed,
822
00:41:16,000 --> 00:41:19,080
maar ik vind het moeilijk te snappen
waarom het werkt.
823
00:41:19,800 --> 00:41:21,720
Ik vind het moeilijk te begrijpen
824
00:41:21,880 --> 00:41:25,600
waarom een netwerk van knooppuntjes
die elkaar kunnen activeren
825
00:41:25,760 --> 00:41:28,960
blijkbaar patronen
kan leren herkennen op afbeeldingen.
826
00:41:29,520 --> 00:41:31,760
Om dat iets beter te snappen,
827
00:41:31,920 --> 00:41:34,400
heb ik voor mezelf
een klein voorbeeldje uitgewerkt
828
00:41:34,560 --> 00:41:36,520
van een heel simpel neuraal netwerk,
829
00:41:36,680 --> 00:41:39,360
waarvan je wel kan begrijpen
hoe het werkt.
830
00:41:39,520 --> 00:41:43,000
Dat voorbeeldje zou ik graag
eventjes met jullie overlopen.
831
00:41:43,160 --> 00:41:47,280
Dat is een iets technischer stukje,
maar het duurt maar vijf minuutjes.
832
00:41:48,000 --> 00:41:50,720
En ik heb het
zo toegankelijk mogelijk gemaakt.
833
00:41:50,880 --> 00:41:52,080
Als je dit volgt,
834
00:41:52,240 --> 00:41:54,680
dan denk ik dat je straks
een soort begrip zult hebben
835
00:41:54,840 --> 00:41:59,000
van hoe een neuraal netwerk
patronen herkent op een afbeelding.
836
00:41:59,160 --> 00:42:02,520
Als je na een minuutje merkt:
ik heb hier eigenlijk geen zin in...
837
00:42:02,680 --> 00:42:05,080
Geen enkel probleem.
Ga even in stand-by.
838
00:42:05,240 --> 00:42:06,440
(publiek lacht)
839
00:42:06,600 --> 00:42:08,800
Zet een screensaver aan in je hoofd.
840
00:42:08,960 --> 00:42:11,440
Ik heb heel mijn middelbare school
zo overleefd.
841
00:42:11,600 --> 00:42:15,160
Als het klaar is, geef ik een teken
en dan zijn we weer allemaal samen.
842
00:42:15,960 --> 00:42:17,840
Dan zijn het weer
mopjes met diertjes.
843
00:42:19,160 --> 00:42:21,840
Het beste van al? Als je straks
denkt dat je het niet snapt,
844
00:42:22,000 --> 00:42:24,120
je kunt terugspoelen.
Dus dat is handig.
845
00:42:24,280 --> 00:42:25,800
Dat kan gewoon. Maar dus...
846
00:42:25,960 --> 00:42:29,040
Een voorbeeld van een simpel neuraal
netwerk waarvan je kan snappen
847
00:42:29,200 --> 00:42:31,040
hoe het een patroon herkent.
848
00:42:31,200 --> 00:42:33,440
Wat wil ik doen?
Ik wil graag software maken
849
00:42:33,600 --> 00:42:36,360
die kan zien op welk aantal
een dobbelsteen ligt.
850
00:42:36,520 --> 00:42:38,640
Ik toon een foto van
een dobbelsteen aan de computer
851
00:42:38,800 --> 00:42:42,400
en die moet kunnen zeggen: De
dobbelsteen ligt op zes of op twee.
852
00:42:43,920 --> 00:42:45,360
Goed, je zou kunnen zeggen:
853
00:42:45,520 --> 00:42:48,760
Dat kan je toch ook doen
met geprogrammeerde regels?
854
00:42:48,920 --> 00:42:51,440
Je kunt toch regels programmeren
om dat uit te voeren?
855
00:42:51,600 --> 00:42:54,680
Namelijk, eerste regel:
tel de zwarte bolletjes.
856
00:42:55,560 --> 00:42:58,240
Dat zal niet gaan, want
een zwart bolletje is een patroon.
857
00:42:58,400 --> 00:43:01,240
Wij zien zwarte bolletjes met
de patroonherkenning in ons hoofd.
858
00:43:01,400 --> 00:43:03,480
Een computer
ziet geen zwarte bolletjes.
859
00:43:03,640 --> 00:43:06,280
Die ziet alleen maar
pixels naast mekaar.
860
00:43:06,440 --> 00:43:08,680
Zwarte en witte vierkantjes
naast mekaar.
861
00:43:08,840 --> 00:43:11,560
Voor een computer zijn dat
geen kleuren, maar getallen.
862
00:43:12,200 --> 00:43:14,160
Laat ons zeggen
nulletjes voor de witte pixels
863
00:43:14,320 --> 00:43:15,720
en eentjes voor de zwarte.
864
00:43:16,360 --> 00:43:19,280
In het computergeheugen staan
die getallen niet in een vierkantje,
865
00:43:19,440 --> 00:43:20,680
zoals die afbeelding bij ons.
866
00:43:20,840 --> 00:43:22,880
In het computergeheugen
staan al die getallen
867
00:43:23,040 --> 00:43:27,560
achter elkaar op een lange rij.
Dus het enige wat die computer heeft
868
00:43:27,720 --> 00:43:29,840
om uit te maken
op welk aantal die dobbelsteen ligt,
869
00:43:30,000 --> 00:43:33,320
is een lange rij van duizenden
nulletjes en eentjes op een rij,
870
00:43:33,480 --> 00:43:35,320
waarvan je er hier
een paar ziet staan.
871
00:43:35,480 --> 00:43:38,880
Ik ga dat dus proberen op te lossen
met een neuraal netwerk.
872
00:43:39,040 --> 00:43:40,520
Al die nulletjes en eentjes,
873
00:43:40,680 --> 00:43:43,960
alle pixels van deze afbeelding,
gebruik ik als input.
874
00:43:44,120 --> 00:43:45,960
Dat zijn de inputneuronen.
875
00:43:46,120 --> 00:43:48,680
En nu maak ik ook
zes antwoordneuronen.
876
00:43:48,840 --> 00:43:51,080
Voor elk mogelijk antwoord eentje.
877
00:43:51,880 --> 00:43:54,760
Wat ik nu dus moet doen,
is verbindingen programmeren
878
00:43:54,920 --> 00:43:57,480
tussen de inputneuronen
en de antwoordneuronen,
879
00:43:57,640 --> 00:44:00,200
zodat die inputneuronen
via die verbindingen
880
00:44:00,360 --> 00:44:03,200
die antwoordneuronen
kunnen activeren.
881
00:44:03,360 --> 00:44:05,640
De bedoeling is,
als ik dan een foto toon...
882
00:44:05,800 --> 00:44:07,480
Ik geef die pixels als input,
883
00:44:07,640 --> 00:44:09,560
via die verbindingen
worden die geactiveerd.
884
00:44:09,720 --> 00:44:12,760
De bedoeling is dat het meest
actieve neuron van die zes
885
00:44:12,920 --> 00:44:15,240
dan het juiste antwoord is.
886
00:44:15,520 --> 00:44:18,040
Oké, laat ons beginnen
887
00:44:18,200 --> 00:44:21,320
met de verbindingen te bedenken
tussen de inputlaag
888
00:44:21,480 --> 00:44:25,200
en het eerste antwoordneuron voor
'dobbelsteen ligt op één'.
889
00:44:25,360 --> 00:44:26,520
Het belangrijkste gebied
890
00:44:26,680 --> 00:44:29,200
op de afbeelding van een dobbelsteen
die op één ligt,
891
00:44:29,360 --> 00:44:32,080
is dat centrale gebied
waar het zwarte bolletje staat.
892
00:44:32,240 --> 00:44:35,880
Dus ik ga beginnen met alle pixels
te zoeken uit dat groene gebied
893
00:44:36,040 --> 00:44:38,200
in die lange rij
nulletjes en eentjes.
894
00:44:38,360 --> 00:44:41,400
Bijvoorbeeld die drie daar.
En wat ga ik doen?
895
00:44:41,560 --> 00:44:45,480
Ik ga die allemaal vermenigvuldigen
met een groot, positief getal.
896
00:44:45,640 --> 00:44:49,440
Bijvoorbeeld maal tien.
Wat gebeurt er dan?
897
00:44:49,600 --> 00:44:51,520
Als er veel zwart
in dat groene gebied zit,
898
00:44:51,680 --> 00:44:54,240
staan er veel eentjes
bij die groene pixels.
899
00:44:54,400 --> 00:44:56,000
Eén maal tien is tien.
900
00:44:56,160 --> 00:44:58,560
Als ik dat allemaal optel
bij dat antwoordneuron,
901
00:44:58,720 --> 00:45:02,560
wordt dat getal daar steeds hoger,
wordt dat neuron dus steeds actiever.
902
00:45:02,720 --> 00:45:07,040
En dat is exact wat ik wil. Want
hoe meer zwart in dat groene gebied,
903
00:45:07,200 --> 00:45:10,560
hoe hoger de kans
dat die dobbelsteen op één ligt.
904
00:45:11,160 --> 00:45:13,800
Ik kijk ook eens naar
een ander gebied op die afbeelding.
905
00:45:13,960 --> 00:45:15,560
Bijvoorbeeld daar, linksboven.
906
00:45:15,720 --> 00:45:19,200
Als mijn dobbelsteen op één ligt,
moet dat daar allemaal wit zijn.
907
00:45:19,360 --> 00:45:22,000
Ik zoek weer alle pixels
uit dat rode gebied
908
00:45:22,160 --> 00:45:25,880
in die lange rij nulletjes en
eentjes. Bijvoorbeeld die drie daar.
909
00:45:26,040 --> 00:45:29,400
En nu ga ik ze vermenigvuldigen
met een groot negatief getal,
910
00:45:29,560 --> 00:45:33,240
bijvoorbeeld maal min tien.
Wat gebeurt er dan?
911
00:45:33,400 --> 00:45:36,760
Als alles wit is in dat rode gebied,
zijn al die pixels nulletjes.
912
00:45:36,920 --> 00:45:38,520
Nul maal min tien is nul.
913
00:45:38,680 --> 00:45:41,240
Als ik dat optel bij dat
antwoordneuron, verandert er niks,
914
00:45:41,400 --> 00:45:43,920
blijft dat heel actief.
Een heel hoog getal.
915
00:45:44,080 --> 00:45:47,320
Dat is exact wat ik wil.
Want als alles wit is in dat gebied,
916
00:45:47,480 --> 00:45:50,520
blijft de kans heel hoog
dat die dobbelsteen op één ligt.
917
00:45:50,680 --> 00:45:53,880
Maar stel dat ik een foto toon
van een dobbelsteen op drie,
918
00:45:54,040 --> 00:45:56,520
dan zit er opeens veel zwart
in dat rode gebied.
919
00:45:56,680 --> 00:46:00,120
Dan zijn die pixels daar
geen nulletjes, maar eentjes.
920
00:46:00,280 --> 00:46:03,880
Eén maal min tien is min tien. Als ik
dat optel bij dat antwoordneuron,
921
00:46:04,040 --> 00:46:07,360
wordt dat getal steeds lager
en dat is ook wat ik wil.
922
00:46:07,520 --> 00:46:10,240
Want hoe meer zwart
in dat gebied linksboven,
923
00:46:10,400 --> 00:46:13,440
hoe lager de kans
dat die dobbelsteen op één ligt.
924
00:46:14,400 --> 00:46:17,000
En dat is de redenering
die je toepast op alle gebieden
925
00:46:17,160 --> 00:46:19,320
die zwart kunnen zijn
op een dobbelsteen.
926
00:46:19,480 --> 00:46:21,000
Dat zijn deze zeven.
927
00:46:22,160 --> 00:46:25,440
Dus hoe ga ik mijn verbindingen
programmeren tussen die inputlaag
928
00:46:25,600 --> 00:46:28,160
en dat eerste antwoordneuron
voor 'dobbelsteen ligt op één'?
929
00:46:28,320 --> 00:46:30,680
Alle pixels uit dat groene gebied
doe ik maal tien,
930
00:46:30,840 --> 00:46:33,360
alle pixels uit de rode gebieden
doe ik maal min tien
931
00:46:33,520 --> 00:46:35,560
en alle andere pixels
doe ik maal nul,
932
00:46:35,720 --> 00:46:38,520
want die hebben eigenlijk
geen invloed op het antwoord.
933
00:46:38,680 --> 00:46:41,400
Zo kan ik dus
een volledige rij verbindingen
934
00:46:41,560 --> 00:46:44,880
zelf bedenken en programmeren
tussen de inputlaag
935
00:46:45,040 --> 00:46:48,200
en dat eerste antwoordneuron
voor 'dobbelsteen ligt op één'.
936
00:46:49,040 --> 00:46:51,880
Voor al die andere
mogelijke antwoorden
937
00:46:52,040 --> 00:46:54,440
is de redenering heel gelijklopend,
938
00:46:54,600 --> 00:46:58,240
maar met andere groene en rode
gebieden op die afbeelding.
939
00:46:58,400 --> 00:47:00,400
Bijvoorbeeld
het patroon voor de verbindingen
940
00:47:00,560 --> 00:47:03,240
naar het tweede antwoordneuron
voor 'dobbelsteen ligt op twee'.
941
00:47:03,400 --> 00:47:05,360
Die gaan deze structuur volgen.
942
00:47:05,520 --> 00:47:08,000
Alle pixels uit de groene gebieden
doe ik maal tien,
943
00:47:08,160 --> 00:47:10,440
alle pixels uit de rode gebieden
doe ik maal min tien
944
00:47:10,600 --> 00:47:11,960
en de rest doe ik maal nul,
945
00:47:12,120 --> 00:47:14,120
want die hebben geen invloed
op het antwoord.
946
00:47:14,280 --> 00:47:16,640
Zo kan je dus
een volledige set verbindingen
947
00:47:16,800 --> 00:47:19,960
zelf bedenken en programmeren
tussen de inputlaag,
948
00:47:20,120 --> 00:47:23,120
een afbeelding van een dobbelsteen
en die antwoordneuronen.
949
00:47:23,280 --> 00:47:25,680
Als je dit allemaal programmeert
en je zet dat aan
950
00:47:25,840 --> 00:47:28,680
en je toont dat een nieuwe afbeelding
van een dobbelsteen,
951
00:47:28,840 --> 00:47:31,840
zal het hoogste getal dat daar
verschijnt in die antwoordneuronen
952
00:47:32,000 --> 00:47:33,960
bij het juiste antwoord staan.
953
00:47:34,960 --> 00:47:36,640
Wie kan er nog volgen?
954
00:47:39,360 --> 00:47:41,400
Dertig mensen.
955
00:47:41,560 --> 00:47:43,400
Wie kan er niet meer volgen?
956
00:47:45,400 --> 00:47:46,480
Twee mensen.
957
00:47:47,840 --> 00:47:50,480
Wie durfde bij geen van beide vragen
de hand op te steken?
958
00:47:51,920 --> 00:47:54,160
Haha, tien.
959
00:47:54,720 --> 00:47:56,320
We zitten aan bijna vijftig.
960
00:47:57,080 --> 00:47:58,440
Wie heeft geen armen?
961
00:47:58,600 --> 00:48:00,000
Euh, soit.
962
00:48:01,560 --> 00:48:03,240
Geen zorgen, we zijn bijna klaar.
963
00:48:03,400 --> 00:48:05,720
Het is bijna rond. Geen probleem.
Je moet altijd denken:
964
00:48:05,880 --> 00:48:08,600
Het netwerk is banger van jou
dan jij van het netwerk.
965
00:48:08,760 --> 00:48:10,720
Maar als je dit dus
allemaal programmeert
966
00:48:10,880 --> 00:48:12,320
en je activeert dat programma,
967
00:48:12,480 --> 00:48:14,920
gaat dat goed werken.
Dat gaat dobbelstenen herkennen.
968
00:48:15,080 --> 00:48:18,760
Er is één probleem met dit neurale
netwerk en dat is het volgende:
969
00:48:18,920 --> 00:48:20,600
dit gaat enkel werken
voor dobbelstenen
970
00:48:20,760 --> 00:48:22,840
die exact zo op die foto staan.
971
00:48:23,000 --> 00:48:25,640
Als die dobbelsteen wat kleiner is,
werkt dat niet meer,
972
00:48:25,800 --> 00:48:28,480
want die ogen overlappen niet meer
met de gebieden.
973
00:48:28,640 --> 00:48:30,320
Als hij gedraaid op die foto staat,
974
00:48:30,480 --> 00:48:32,960
bijvoorbeeld voor de drie,
werkt het ook niet meer.
975
00:48:33,120 --> 00:48:35,040
Als je dobbelsteen
andere kleuren heeft,
976
00:48:35,200 --> 00:48:38,280
witte ogen op een rode dobbelsteen,
werkt dat ook niet meer.
977
00:48:38,440 --> 00:48:41,960
Dat is jammer.
Eigenlijk wil ik een neuraal netwerk
978
00:48:42,120 --> 00:48:45,440
dat elke soort foto
van elke soort dobbelsteen herkent
979
00:48:45,600 --> 00:48:47,800
en zegt op welk aantal die ligt.
980
00:48:47,960 --> 00:48:51,360
Dat is ook mogelijk.
Dat kan gebouwd worden.
981
00:48:51,520 --> 00:48:54,720
Maar dat gaat nooit lukken
met een neuraal netwerk van één laag.
982
00:48:54,880 --> 00:48:56,520
Dit is een neuraal netwerk
van één laag.
983
00:48:56,680 --> 00:49:00,040
Ik ga direct van mijn inputneuronen
naar mijn antwoordneuronen.
984
00:49:00,200 --> 00:49:01,560
Als ik een neuraal netwerk wil
985
00:49:01,720 --> 00:49:04,760
dat elke soort foto
van elke soort dobbelsteen herkent,
986
00:49:04,920 --> 00:49:08,720
heb ik er sowieso eentje nodig
van meerdere lagen diep.
987
00:49:09,480 --> 00:49:12,120
Vandaar de term 'deep learning'.
988
00:49:12,280 --> 00:49:15,200
Ik ga vanuit die inputlaag,
vanuit die pixels van die afbeelding,
989
00:49:15,360 --> 00:49:17,720
niet meteen
die antwoordneuronen activeren.
990
00:49:17,880 --> 00:49:20,240
Ik ga die gebruiken
om een tussenlaag te activeren.
991
00:49:20,400 --> 00:49:23,000
Die ga ik weer gebruiken
om een nieuwe tussenlaag te activeren
992
00:49:23,160 --> 00:49:26,920
en nog een nieuwe tussenlaag, en dan
pas ga ik naar die antwoordneuronen.
993
00:49:28,120 --> 00:49:32,360
Daarnet, bij dat heel simpele
neurale netwerkje van één laag,
994
00:49:32,520 --> 00:49:35,640
kon ik zelf bedenken wat de waarde
moest zijn van die verbindingen.
995
00:49:35,800 --> 00:49:37,240
Ik kon zelf beredeneren:
996
00:49:37,400 --> 00:49:39,240
als ik dit maal tien doe
en dit maal min tien,
997
00:49:39,400 --> 00:49:42,880
gaat het waarschijnlijk werken.
Dat gaat hier niet meer lukken.
998
00:49:43,720 --> 00:49:45,960
Dit is veel te complex
om zelf te bedenken
999
00:49:46,120 --> 00:49:48,160
wat de waarde
van die verbindingen moet zijn
1000
00:49:48,320 --> 00:49:50,280
tot het dobbelstenen herkent.
1001
00:49:50,440 --> 00:49:53,760
Het goede nieuws is:
ik hoef dat ook niet zelf te doen.
1002
00:49:53,920 --> 00:49:56,120
Dit is het moment
waarop je tegen je computer zegt:
1003
00:49:56,280 --> 00:49:58,080
Weet je wat?
Zoek het lekker zelf uit.
1004
00:50:00,120 --> 00:50:01,960
Je geeft je computer de opdracht:
1005
00:50:02,120 --> 00:50:04,800
ga zelf op zoek
naar een neuraal netwerk
1006
00:50:04,960 --> 00:50:09,640
dat dobbelstenen herkent op foto's.
Wat heeft die daarvoor nodig?
1007
00:50:09,800 --> 00:50:12,080
Heel veel voorbeeldfoto's
van dobbelstenen
1008
00:50:12,240 --> 00:50:13,880
waar het juiste antwoord bij staat.
1009
00:50:14,040 --> 00:50:16,200
Een hele map foto's
van dobbelstenen op één,
1010
00:50:16,360 --> 00:50:18,080
een hele map
van dobbelstenen op twee,
1011
00:50:18,240 --> 00:50:20,600
een hele map van dobbelstenen
op drie, enzovoort.
1012
00:50:20,760 --> 00:50:22,440
Dat zijn je trainingsdata.
1013
00:50:22,600 --> 00:50:26,400
De computer kan al die foto's
waar het antwoord bij staat gebruiken
1014
00:50:26,560 --> 00:50:29,880
om te testen hoe goed
zijn neurale netwerk al werkt
1015
00:50:30,040 --> 00:50:32,640
en ook om het stap voor stap
beter te maken.
1016
00:50:32,800 --> 00:50:34,600
Het eerste wat die computer doet,
1017
00:50:34,760 --> 00:50:37,680
is al die verbindingen
willekeurige waardes geven.
1018
00:50:37,840 --> 00:50:39,200
Die smijt daar zomaar iets op.
1019
00:50:39,360 --> 00:50:43,000
Dat is maal acht en dat is maal tien
en dat is maal min twaalf, enzovoort.
1020
00:50:43,800 --> 00:50:46,360
Als dat willekeurig gemaakte netwerk
af is,
1021
00:50:46,520 --> 00:50:50,120
gaat de computer alle voorbeeldfoto's
die je gegeven hebt
1022
00:50:50,280 --> 00:50:52,280
laten beoordelen door dat netwerk.
1023
00:50:52,440 --> 00:50:54,880
Dan zal die zien:
bijna alle antwoorden zijn fout,
1024
00:50:55,040 --> 00:50:58,840
want het is willekeurig gekozen.
Maar vanaf dat punt kan die computer
1025
00:50:59,000 --> 00:51:02,440
zijn netwerk stap voor stap
verbeteren tot het werkt.
1026
00:51:02,600 --> 00:51:05,880
Die kan bijvoorbeeld eerst eens
kijken naar die verbinding linksboven
1027
00:51:06,040 --> 00:51:08,440
en die een beetje sterker maken
en een beetje zwakker.
1028
00:51:08,600 --> 00:51:10,800
Dan kan die kijken: in welke richting
1029
00:51:10,960 --> 00:51:13,520
levert mijn netwerk
meer goede antwoorden op?
1030
00:51:13,680 --> 00:51:15,800
Als je netwerk
meer goede antwoorden geeft
1031
00:51:15,960 --> 00:51:17,840
als je die verbinding
wat sterker zet,
1032
00:51:18,000 --> 00:51:20,120
dan verzet de computer die naar daar.
1033
00:51:20,280 --> 00:51:22,000
Dan kijkt hij
naar die tweede verbinding
1034
00:51:22,160 --> 00:51:24,240
en maakt die
een beetje sterker en zwakker.
1035
00:51:24,400 --> 00:51:26,000
En hij kijkt: in welke richting
1036
00:51:26,160 --> 00:51:28,920
levert mijn netwerk
meer goede antwoorden op?
1037
00:51:29,080 --> 00:51:30,840
Als je netwerk
meer goede antwoorden geeft
1038
00:51:31,000 --> 00:51:34,560
als je die verbinding zwakker zet,
dan verzet de computer die naar daar.
1039
00:51:34,720 --> 00:51:36,840
Dan doet die hetzelfde
met die derde verbinding.
1040
00:51:37,000 --> 00:51:40,520
En met die vierde en met die vijfde.
En zo gaat die aan een razend tempo
1041
00:51:40,680 --> 00:51:44,600
al die verbindingen aflopen en ze
allemaal een klein beetje corrigeren
1042
00:51:44,760 --> 00:51:47,920
in de richting waarin het netwerk
meer goede antwoorden geeft.
1043
00:51:48,080 --> 00:51:49,480
Als die helemaal op het einde is,
1044
00:51:49,640 --> 00:51:52,000
heeft die
een nieuw en verbeterd netwerk,
1045
00:51:52,160 --> 00:51:54,520
maar het zal nog altijd
niet heel goed werken.
1046
00:51:54,680 --> 00:51:55,960
Daarom begint die opnieuw.
1047
00:51:56,120 --> 00:51:59,200
Die gaat weer al die verbindingen af,
en opnieuw en opnieuw.
1048
00:51:59,360 --> 00:52:01,240
Tienduizenden keren.
1049
00:52:01,400 --> 00:52:05,240
Je ziet waarom er zoveel rekenkracht
nodig is om AI te trainen.
1050
00:52:05,400 --> 00:52:07,080
Maar als alles goed gaat,
1051
00:52:07,240 --> 00:52:10,840
komt die op een bepaald moment uit
op een neuraal netwerk
1052
00:52:11,000 --> 00:52:14,800
dat voor alle voorbeeldfoto's
het juiste antwoord geeft.
1053
00:52:14,960 --> 00:52:17,760
Dan zegt die computer:
Ik denk dat ik het kan.
1054
00:52:19,000 --> 00:52:22,760
Dan moet je dat testen
door het nieuwe afbeeldingen te tonen
1055
00:52:22,920 --> 00:52:24,920
die het netwerk
nog nooit gezien heeft.
1056
00:52:25,080 --> 00:52:27,440
Als die daar ook
het juiste antwoord op geeft,
1057
00:52:27,600 --> 00:52:31,400
dan heeft die computer blijkbaar
een neuraal netwerk gevonden
1058
00:52:31,560 --> 00:52:35,440
dat dobbelstenen herkent op foto's
en zegt op welk aantal die liggen.
1059
00:52:37,440 --> 00:52:39,880
Hoe dat uiteindelijke netwerk
dat doet,
1060
00:52:40,040 --> 00:52:43,280
dus waarom die gevonden set
van verbindingen
1061
00:52:43,440 --> 00:52:47,600
blijkbaar dobbelstenen herkent
op foto's, dat snappen we niet.
1062
00:52:48,880 --> 00:52:50,160
Dat is een mysterie.
1063
00:52:51,560 --> 00:52:53,360
Maar het werkt,
dus laat het met rust.
1064
00:52:53,520 --> 00:52:54,960
(publiek lacht)
1065
00:52:55,120 --> 00:52:58,680
Dat is hoe we in België omgaan
met de staatsstructuur: blijf eraf,
1066
00:52:58,840 --> 00:53:00,040
het gaat kapotgaan.
1067
00:53:01,600 --> 00:53:04,200
Maar die computer heeft dus
verbindingen aangepast
1068
00:53:04,360 --> 00:53:07,760
tot dat netwerk
een bepaalde taak kon uitvoeren.
1069
00:53:07,920 --> 00:53:12,000
En dat werkt. Maar waarom dat werkt,
dat weten we niet.
1070
00:53:12,760 --> 00:53:15,080
Ze noemen dat 'the black box of AI'.
1071
00:53:15,240 --> 00:53:18,000
Het lijkt alsof er een zwarte doos
over je neurale netwerk zit.
1072
00:53:18,160 --> 00:53:20,360
Je stopt daar input in,
daar komt een antwoord uit,
1073
00:53:20,520 --> 00:53:22,680
wat daartussen gebeurt:
'nobody knows.'
1074
00:53:23,760 --> 00:53:26,480
Voilà, dat is het einde
van het moeilijke stukje.
1075
00:53:26,640 --> 00:53:30,880
Applaus voor jezelf. Zeer zeker.
Goed gedaan, allemaal.
1076
00:53:34,000 --> 00:53:36,840
Voor de mensen die in stand-by waren:
welkom terug.
1077
00:53:37,000 --> 00:53:39,680
Het was supergezellig.
Er was koffie en taart.
1078
00:53:39,840 --> 00:53:42,480
En het belangrijkste
wat je moet onthouden, is dit:
1079
00:53:42,640 --> 00:53:45,520
de computer gaat zelf op zoek
naar een neuraal netwerk
1080
00:53:45,680 --> 00:53:47,840
tot het een bepaalde taak
kan uitvoeren.
1081
00:53:48,000 --> 00:53:50,920
En uiteindelijk lukt dat
en we snappen niet waarom.
1082
00:53:51,080 --> 00:53:53,040
'The black box of AI'.
1083
00:53:53,200 --> 00:53:55,800
Het feit dat een neuraal netwerk
een beetje een zwarte doos is,
1084
00:53:55,960 --> 00:53:59,120
geeft natuurlijk problemen. Als een
neuraal netwerk iets heel geks doet,
1085
00:53:59,280 --> 00:54:01,960
kan het ons niet zeggen
waarom het gek doet.
1086
00:54:02,120 --> 00:54:04,040
Een paar jaar terug
hebben ze AI getraind
1087
00:54:04,200 --> 00:54:06,920
en die moest wolven en husky's
uit elkaar leren herkennen.
1088
00:54:07,480 --> 00:54:09,680
Met heel veel voorbeeldfoto's
van wolven en husky's
1089
00:54:09,840 --> 00:54:11,240
heeft dat netwerk zich aangepast
1090
00:54:11,400 --> 00:54:13,240
tot het die goed
uit elkaar kon herkennen.
1091
00:54:13,400 --> 00:54:16,880
Dan hebben ze dat getest met
nieuwe foto's en dat werkte perfect.
1092
00:54:17,040 --> 00:54:19,040
Tot ze dan opeens
een foto tonen van een wolf
1093
00:54:19,200 --> 00:54:22,200
en dat netwerk zegt:
Dit is 100 procent zeker een husky.
1094
00:54:23,200 --> 00:54:24,440
Er loopt iets fout.
1095
00:54:25,480 --> 00:54:28,360
Je kan niet vragen aan dat netwerk:
Waarom denk je dat dit een husky is?
1096
00:54:28,520 --> 00:54:31,520
Dat weet hij zelf niet.
'Computer says yes.'
1097
00:54:31,680 --> 00:54:33,120
(publiek lacht)
1098
00:54:33,280 --> 00:54:36,880
Ze hebben nieuwe software geschreven
die pixel per pixel ging controleren
1099
00:54:37,040 --> 00:54:40,640
hoeveel invloed die pixel gehad had
op het uiteindelijke antwoord.
1100
00:54:40,800 --> 00:54:44,600
Zo hebben ze ontdekt dat om wolven en
husky's van elkaar te onderscheiden,
1101
00:54:44,760 --> 00:54:46,800
het netwerk maar op één ding lette.
1102
00:54:47,800 --> 00:54:49,320
Ligt er sneeuw op de achtergrond?
1103
00:54:49,480 --> 00:54:51,840
(publiek lacht)
1104
00:54:55,600 --> 00:54:59,000
Als er bij al je voorbeeldfoto's
van husky's sneeuw ligt
1105
00:54:59,160 --> 00:55:01,800
en bij alle voorbeeldfoto's
van wolven niet,
1106
00:55:01,960 --> 00:55:04,280
is dat hetgeen
wat dat netwerk oppikt.
1107
00:55:04,440 --> 00:55:06,920
Die computer weet niet
dat hij dieren moet vergelijken.
1108
00:55:07,080 --> 00:55:10,520
Het enige wat die computer zoekt,
is het grootste statistische verschil
1109
00:55:10,680 --> 00:55:13,800
tussen twee fotosets. Als dat
de sneeuw op de achtergrond is,
1110
00:55:13,960 --> 00:55:15,600
komt dat terug in je neurale netwerk
1111
00:55:15,760 --> 00:55:18,160
zonder dat je het weet
en zonder dat je het wilt.
1112
00:55:19,280 --> 00:55:22,920
Deze anekdote, de sneeuw op de
achtergrond, wordt heel vaak gebruikt
1113
00:55:23,080 --> 00:55:25,160
om computerwetenschappers
te waarschuwen:
1114
00:55:25,320 --> 00:55:29,920
let op voor dit soort verborgen hints
in je trainingsdata
1115
00:55:30,080 --> 00:55:32,200
waar je geen rekening
mee gehouden hebt.
1116
00:55:32,360 --> 00:55:35,800
De bias wordt het genoemd.
'The bias in the training data'.
1117
00:55:35,960 --> 00:55:39,560
En wat blijkt? Dit gebeurt constant.
1118
00:55:39,720 --> 00:55:44,240
Mensen zijn heel slecht
in het samenstellen van trainingsdata
1119
00:55:44,400 --> 00:55:47,480
waar dit soort bias
niet in verborgen zit.
1120
00:55:47,640 --> 00:55:50,040
Een jaar of twee terug
hebben ze een app gemaakt
1121
00:55:50,200 --> 00:55:52,400
en die kon met een foto
van een huidvlek zien
1122
00:55:52,560 --> 00:55:55,200
of het een melanoom was
of een onschuldige huidvlek.
1123
00:55:55,360 --> 00:55:57,960
Heel veel trainingsfoto's
van melanomen gevraagd aan dokters
1124
00:55:58,120 --> 00:56:00,920
en heel veel gewone huidvlekfoto's
genomen bij vrijwilligers.
1125
00:56:01,080 --> 00:56:02,960
Bij de eerste versie
liep het al fout,
1126
00:56:03,120 --> 00:56:05,200
want het belangrijkste
waar de app op lette, was:
1127
00:56:05,360 --> 00:56:07,160
ligt er een latje
van de dokter naast?
1128
00:56:07,320 --> 00:56:09,160
(publiek lacht)
1129
00:56:09,320 --> 00:56:12,320
Zoals in de trainingsdata
met de melanomen.
1130
00:56:12,480 --> 00:56:15,200
De sneeuw op de achtergrond
is een hardnekkig probleem
1131
00:56:15,360 --> 00:56:16,880
in de AI-wetenschap.
1132
00:56:17,560 --> 00:56:20,200
En bij wolven en husky's
is dat best grappig,
1133
00:56:20,360 --> 00:56:22,560
bij melanoomdetectie ietsje minder.
1134
00:56:23,760 --> 00:56:25,680
Stel dat wij
technologie gaan gebruiken,
1135
00:56:25,840 --> 00:56:28,160
AI gaan gebruiken,
die beslissingen neemt
1136
00:56:28,320 --> 00:56:30,480
die een soort
maatschappelijk gevolg hebben,
1137
00:56:30,640 --> 00:56:32,280
dan wil je dat helemaal niet.
1138
00:56:32,440 --> 00:56:36,360
Daarom heeft de Europese Unie gezegd:
Wij staan het niet toe.
1139
00:56:36,520 --> 00:56:38,760
In de AI Act staat momenteel:
1140
00:56:38,920 --> 00:56:42,640
elk AI-systeem dat een beslissing
neemt met een maatschappelijke impact
1141
00:56:42,800 --> 00:56:43,960
moet 'explainable' zijn,
1142
00:56:44,120 --> 00:56:46,800
Moet kunnen uitleggen
hoe het tot die beslissing komt.
1143
00:56:46,960 --> 00:56:49,000
Veel neurale netwerken
zijn niet 'explainable'
1144
00:56:49,160 --> 00:56:51,840
en zijn zelfs niet
'explainable' te maken soms.
1145
00:56:52,560 --> 00:56:55,640
In Amerika zijn ze daar allemaal
wat minder ongerust over.
1146
00:56:55,800 --> 00:56:57,840
Zoals over vele dingen.
1147
00:56:58,000 --> 00:56:59,720
Merken we aan de voorverkiezingen.
1148
00:57:01,120 --> 00:57:04,480
Gekke oranje man nog een keer? Awel
ja, gekke oranje man nog een keer.
1149
00:57:04,640 --> 00:57:07,160
(publiek lacht)
1150
00:57:07,320 --> 00:57:09,960
In de States
wordt momenteel AI getest
1151
00:57:10,120 --> 00:57:13,680
die beslist wie een woonlening krijgt
en wie niet.
1152
00:57:13,840 --> 00:57:16,000
Je geeft een dossier
aan een neuraal netwerk
1153
00:57:16,160 --> 00:57:18,440
en dat zegt: Die moet je
een lening geven, die niet.
1154
00:57:18,600 --> 00:57:21,120
Maar op basis waarvan dat beslist,
weten we niet.
1155
00:57:21,280 --> 00:57:24,400
Getraind op dossiers van wanbetalers
en goede terugbetalers.
1156
00:57:24,560 --> 00:57:26,840
Daar kan sneeuw
op de achtergrond zitten.
1157
00:57:27,000 --> 00:57:30,880
De wijk waarin je geboren bent,
kan opeens meespelen in de beslissing
1158
00:57:31,040 --> 00:57:33,200
als daar veel wanbetalers
geboren waren.
1159
00:57:33,720 --> 00:57:35,920
Er wordt AI getraind in de States
1160
00:57:36,080 --> 00:57:39,720
die beslist wie voorwaardelijk
vrij mag komen uit de gevangenis.
1161
00:57:39,880 --> 00:57:43,400
COMPAS heet dat systeem.
Van het ministerie van Justitie.
1162
00:57:43,560 --> 00:57:46,120
Ook daar kan er zomaar sneeuw
op de achtergrond zitten
1163
00:57:46,280 --> 00:57:47,560
in die trainingsdata.
1164
00:57:47,720 --> 00:57:50,320
Er wordt AI getraind in de States
en gebruikt
1165
00:57:50,480 --> 00:57:52,280
die beslist wie
naar de volgende ronde mag
1166
00:57:52,440 --> 00:57:54,240
in een sollicitatieprocedure.
1167
00:57:55,320 --> 00:57:56,680
Hoe train je zo'n netwerk?
1168
00:57:56,840 --> 00:58:00,720
Door alle profielen van mensen die de
job vroeger goed uitgeoefend hebben.
1169
00:58:00,880 --> 00:58:04,400
Als dat jobs waren die vroeger heel
typisch aan mannen gegeven werden
1170
00:58:04,560 --> 00:58:05,880
of heel typisch aan vrouwen,
1171
00:58:06,040 --> 00:58:08,280
gaat je neurale netwerk
selecteren op geslacht
1172
00:58:08,440 --> 00:58:11,320
zonder dat je dat wilt
en zonder dat je dat weet.
1173
00:58:11,480 --> 00:58:14,520
De sneeuw op de achtergrond
is een hardnekkig probleem.
1174
00:58:14,680 --> 00:58:17,520
En zelfs in ons persoonlijke leven.
1175
00:58:17,680 --> 00:58:21,520
De spamfilter op je mailbox
is een neuraal netwerk.
1176
00:58:21,680 --> 00:58:24,040
Een neuraal netwerk getraind
met heel veel spammails
1177
00:58:24,200 --> 00:58:26,320
en met heel veel niet-spammails.
1178
00:58:26,480 --> 00:58:29,080
Wat blijkt nu?
Als je exact dezelfde tekst schrijft
1179
00:58:29,240 --> 00:58:31,440
en je ondertekent die
met een niet-westerse naam,
1180
00:58:31,600 --> 00:58:34,360
heb je vijf keer meer kans
om in de spam terecht te komen.
1181
00:58:35,360 --> 00:58:37,200
Niemand heeft dat daar
bewust in gestopt.
1182
00:58:37,360 --> 00:58:40,800
Er zit nergens een handenwrijvende,
kwaadaardige programmeur
1183
00:58:40,960 --> 00:58:45,040
dat erin te stoppen. Dat sluipt erin
via de sneeuw op de achtergrond
1184
00:58:45,200 --> 00:58:46,680
en als je het niet doorhebt,
1185
00:58:46,840 --> 00:58:49,160
selecteert dat effectief
op dat soort dingen.
1186
00:58:49,320 --> 00:58:51,440
Sneeuw op de achtergrond:
hardnekkig probleem.
1187
00:58:51,600 --> 00:58:53,680
Computerwetenschappers
zijn zich ervan bewust.
1188
00:58:53,840 --> 00:58:57,160
Ze proberen er op te letten, maar
het is niet altijd goed te spotten
1189
00:58:57,320 --> 00:58:58,320
of te vermijden.
1190
00:58:58,480 --> 00:59:01,200
Dit is iets wat we allemaal
in ons achterhoofd moeten houden.
1191
00:59:01,360 --> 00:59:04,920
Want wij gaan allemaal werken
met AI in de komende jaren.
1192
00:59:06,560 --> 00:59:10,200
Dan zeg ik tegen de zaal:
Jullie gaan allemaal werken met AI.
1193
00:59:10,360 --> 00:59:13,080
Ik heb net een joekel
van een neuraal netwerk laten zien
1194
00:59:13,240 --> 00:59:16,720
en hier en daar krijg ik blikken
die zeggen: Nee, dank je.
1195
00:59:16,880 --> 00:59:20,360
Laat mij maar lekker met rust
met de cijfers en de bolletjes.
1196
00:59:20,520 --> 00:59:24,080
Ik heb goed nieuws voor je:
hiermee hoef je niet te werken.
1197
00:59:24,240 --> 00:59:26,280
Dit zit onder de motorkap.
1198
00:59:26,440 --> 00:59:28,520
Dat hebben de experts
voor ons gebouwd.
1199
00:59:28,680 --> 00:59:30,280
Als wij gaan werken met AI,
1200
00:59:30,440 --> 00:59:33,680
zal dat via een
gebruiksvriendelijke interface zijn.
1201
00:59:33,840 --> 00:59:36,520
Net zoals je met de auto rijdt
met een stuur en pedalen.
1202
00:59:36,680 --> 00:59:40,160
Je moet niet zelf je
verbrandingsmotor in elkaar vijzen.
1203
00:59:40,320 --> 00:59:42,520
Dit is de verbrandingsmotor.
1204
00:59:42,680 --> 00:59:45,360
Als wij werken met AI,
zal dat via een interface zijn.
1205
00:59:45,520 --> 00:59:48,040
En die interfaces bestaan nu al.
1206
00:59:48,200 --> 00:59:51,760
Elk van jullie die vanavond
een neuraal netwerk wil trainen,
1207
00:59:51,920 --> 00:59:54,000
kan dat gewoon doen op het internet,
1208
00:59:54,160 --> 00:59:56,440
zonder dat je één lijn
moet programmeren.
1209
00:59:56,600 --> 01:00:01,000
Ik kan bijvoorbeeld op deze website,
customvision.ai van Microsoft...
1210
01:00:01,160 --> 01:00:03,320
Als je naar die website gaat
en je maakt een account
1211
01:00:03,480 --> 01:00:06,560
en jij hebt 20 foto's van wolven
en 20 foto's van husky's...
1212
01:00:06,720 --> 01:00:09,480
Jij geeft die het juiste label
en je uploadt die op die website.
1213
01:00:09,640 --> 01:00:11,960
Dan krijg jij een tijdje later
gratis software terug
1214
01:00:12,120 --> 01:00:14,480
die wolven en husky's
uit elkaar herkent.
1215
01:00:14,640 --> 01:00:17,280
Let op de sneeuw op de achtergrond,
maar voor de rest
1216
01:00:17,440 --> 01:00:18,800
werkt dat heel goed.
1217
01:00:19,680 --> 01:00:21,800
Als iemand van jullie
een webcam op de voordeur wil
1218
01:00:21,960 --> 01:00:23,800
die al je vrienden herkent
1219
01:00:23,960 --> 01:00:27,480
en een ander geluidje maakt bij
de toffe en niet zo toffe, dat kan.
1220
01:00:27,640 --> 01:00:29,680
(publiek lacht)
1221
01:00:29,840 --> 01:00:31,480
Kan je zelf bouwen.
1222
01:00:33,120 --> 01:00:35,360
Nog een website die het aanbiedt
die ik graag vernoem,
1223
01:00:35,520 --> 01:00:39,920
omdat hij gericht is op jongeren,
is Teachable Machine van Google.
1224
01:00:40,080 --> 01:00:42,800
Kan ook leren
om afbeeldingen te herkennen.
1225
01:00:42,960 --> 01:00:45,440
Kan muziekstijlen herkennen
van verschillende bands,
1226
01:00:45,600 --> 01:00:47,000
ze uit elkaar leren herkennen.
1227
01:00:47,160 --> 01:00:49,520
Kan je houding gebruiken
om je computer te besturen
1228
01:00:49,680 --> 01:00:52,080
en kan zelfs je stemgeluid
leren herkennen.
1229
01:00:52,240 --> 01:00:54,600
Gewoon genoeg opnames van jouw stem
en andere stemmen,
1230
01:00:54,760 --> 01:00:57,160
juiste label geven:
dit ben ik, dit ben ik niet.
1231
01:00:57,320 --> 01:01:00,560
En je krijgt software terug
die jouw stem herkent.
1232
01:01:00,720 --> 01:01:05,000
Elke tiener die een slot wil bouwen
op de deur van hun kamer
1233
01:01:05,160 --> 01:01:08,840
dat enkel opengaat als het hun stem
hoort, kan dat vandaag.
1234
01:01:09,000 --> 01:01:12,160
Met genoeg tijd, doorzettingsvermogen
en zonder veel programmeerwerk
1235
01:01:12,320 --> 01:01:14,160
kan je dat zelf bouwen.
1236
01:01:14,320 --> 01:01:15,920
Ik ga op het einde
van de voorstelling
1237
01:01:16,080 --> 01:01:19,240
een afbeelding tonen met alle apps
en websites die ik vernoemd heb.
1238
01:01:19,400 --> 01:01:21,680
Dan kan je daar een foto van nemen
als je naar buiten gaat
1239
01:01:21,840 --> 01:01:25,160
en kun je het hele weekend
spelen met AI als je dat wilt.
1240
01:01:25,320 --> 01:01:29,480
Maar dus, zelf knutselen met AI
via die websites
1241
01:01:29,640 --> 01:01:31,200
is heel toegankelijk geworden.
1242
01:01:31,360 --> 01:01:33,480
Vandaag al zijn er
over de hele wereld
1243
01:01:33,640 --> 01:01:37,920
gewone huis-, tuin- en keukenklussers
zonder veel computerkennis
1244
01:01:38,080 --> 01:01:39,800
aan het klussen met AI.
1245
01:01:40,480 --> 01:01:42,360
Zoals Ben Hamm.
1246
01:01:42,520 --> 01:01:46,160
Ben Hamm is een Amerikaanse man
en hij heeft een kat.
1247
01:01:46,320 --> 01:01:48,040
Hij heeft een klein probleem
met zijn kat,
1248
01:01:48,200 --> 01:01:50,400
want zijn kat vindt hem supercool.
1249
01:01:51,360 --> 01:01:53,440
Wat doet een kat
als ze je supercool vindt?
1250
01:01:53,600 --> 01:01:55,320
Dan brengt ze je cadeautjes.
1251
01:01:56,840 --> 01:01:59,360
In de vorm
van een stervende pimpelmees.
1252
01:02:00,240 --> 01:02:04,360
Die bloed en kak kotst over
je tapijt. Ben vindt dat niet tof.
1253
01:02:04,520 --> 01:02:07,840
Dus wat heeft Ben gedaan? Een webcam
op zijn kattenluik gehangen.
1254
01:02:08,000 --> 01:02:10,600
Daarmee heeft hij
een paar honderd foto's verzameld
1255
01:02:10,760 --> 01:02:12,240
van zijn kat met een prooi
1256
01:02:12,400 --> 01:02:15,360
en een paar duizend
van zijn kat zonder een prooi.
1257
01:02:15,520 --> 01:02:18,000
Die heeft hij handmatig gelabeld
1258
01:02:18,160 --> 01:02:20,320
en dan geüpload
naar Teachable Machine.
1259
01:02:20,480 --> 01:02:22,360
Een beetje later
kreeg hij software terug
1260
01:02:22,520 --> 01:02:25,440
die kon zien
of zijn kat een prooi bij zich heeft.
1261
01:02:25,600 --> 01:02:27,840
Die heeft hij op een computertje,
een Arduino, gezet.
1262
01:02:28,000 --> 01:02:29,640
Dat heeft hij verbonden
met die webcam.
1263
01:02:29,800 --> 01:02:32,440
Aan dat computertje heeft hij
een elektronisch slot gehangen
1264
01:02:32,600 --> 01:02:33,720
op zijn kattenluik.
1265
01:02:35,040 --> 01:02:37,160
Ben zijn kattenluik
gaat automatisch op slot
1266
01:02:37,320 --> 01:02:38,880
als zijn kat een prooi meeheeft.
1267
01:02:39,040 --> 01:02:40,480
(publiek lacht)
1268
01:02:40,640 --> 01:02:44,880
Twintig jaar geleden kon geen enkel
softwarebedrijf dat voor jou bouwen.
1269
01:02:45,040 --> 01:02:47,800
Vandaag maak je dat
aan je eigen keukentafel
1270
01:02:47,960 --> 01:02:49,960
voor 20 euro aan onderdelen.
1271
01:02:51,120 --> 01:02:53,120
Ik vraag me alleen soms af...
1272
01:02:53,280 --> 01:02:54,600
Hoe voelt het voor de kat?
1273
01:02:54,760 --> 01:02:56,400
(publiek lacht)
1274
01:02:56,560 --> 01:02:58,280
Maar die heeft een cadeautje mee.
1275
01:02:59,200 --> 01:03:03,800
Leef je even in: je gaat op bezoek
bij vrienden en hebt pralines mee.
1276
01:03:03,960 --> 01:03:06,360
(publiek lacht)
1277
01:03:06,520 --> 01:03:09,120
Je komt aan de voordeur: klak.
Raar...
1278
01:03:09,960 --> 01:03:11,080
Heel raar.
1279
01:03:12,440 --> 01:03:14,800
Je kunt dat ook omgekeerd trainen.
1280
01:03:14,960 --> 01:03:17,600
Als iemand van jullie
een voordeur wil die enkel opengaat
1281
01:03:17,760 --> 01:03:19,800
als je partner bloemen meeheeft:
dat kan.
1282
01:03:19,960 --> 01:03:21,320
(publiek lacht)
1283
01:03:21,480 --> 01:03:23,440
Als je partner
na het zien van deze voorstelling
1284
01:03:23,600 --> 01:03:26,120
heel veel foto's van je
begint te nemen
1285
01:03:26,280 --> 01:03:30,000
met en zonder bloemen,
maak je dan zorgen.
1286
01:03:31,720 --> 01:03:35,200
Klein voordeel: een T-shirt met een
boeket op werkt eigenlijk ook, dus...
1287
01:03:36,520 --> 01:03:39,840
Ik verkoop ze straks na de voor...
Nee, dat is niet waar.
1288
01:03:40,000 --> 01:03:42,200
Maar knutselen met AI:
iedereen kan het.
1289
01:03:42,360 --> 01:03:44,440
Nog een voorbeeldje.
Het komt uit Schotland,
1290
01:03:44,600 --> 01:03:46,360
van de voetbalploeg Inverness.
1291
01:03:46,520 --> 01:03:49,840
Tijdens de lockdown mochten er
geen fans binnen in het stadion.
1292
01:03:50,000 --> 01:03:52,760
Wat hebben ze gedaan? Ze hebben
een webcam op het veld gericht
1293
01:03:52,920 --> 01:03:55,680
en de mensen konden van thuis uit
meekijken naar de voetbalmatch
1294
01:03:55,840 --> 01:03:57,320
in het lege stadion.
1295
01:03:57,480 --> 01:04:00,760
Alleen: die webcam filmt heel
dat veld en dat is een beetje saai.
1296
01:04:00,920 --> 01:04:03,360
Je ziet een groot veld
met veel te kleine mannetjes.
1297
01:04:03,520 --> 01:04:05,720
Iemand van die ploeg
heeft AI getraind
1298
01:04:05,880 --> 01:04:09,040
tot die de voetbal kon herkennen
op het veld.
1299
01:04:09,200 --> 01:04:13,240
Dan kon de camera digitaal inzoomen
op het stuk waar er gespeeld werd.
1300
01:04:13,400 --> 01:04:17,160
Dat was veel toffer om naar te kijken
en dat werkte perfect.
1301
01:04:17,920 --> 01:04:18,960
Enfin...
1302
01:04:19,120 --> 01:04:21,480
Dat werkte perfect
tot bij deze wedstrijd.
1303
01:04:22,880 --> 01:04:24,800
Wat is het probleem
bij deze wedstrijd?
1304
01:04:24,960 --> 01:04:28,040
De lijnrechter is kaal. En...
1305
01:04:28,200 --> 01:04:30,200
(publiek lacht)
1306
01:04:31,680 --> 01:04:32,720
Ja...
1307
01:04:35,760 --> 01:04:38,480
De AI zoekt
een rond, glimmend object.
1308
01:04:38,640 --> 01:04:40,280
(publiek lacht)
1309
01:04:43,080 --> 01:04:46,280
Heel de wedstrijd lang
keken de mensen naar Patrick.
1310
01:04:50,560 --> 01:04:53,280
Zal deze aanval tot een goal leiden?
We gaan het nooit weten.
1311
01:04:53,440 --> 01:04:55,120
(publiek lacht)
1312
01:04:55,280 --> 01:04:58,920
Mensen belden naar het stadion.
Ze vroegen: Zet die man een pruik op.
1313
01:05:00,240 --> 01:05:03,880
Maar het is niet gelukt en dit is
heel de wedstrijd dus blijven duren.
1314
01:05:04,040 --> 01:05:05,640
Dit gebeurt af en toe.
1315
01:05:05,800 --> 01:05:09,280
Soms zijn er patronen die makkelijk
uit mekaar te houden zijn voor ons,
1316
01:05:09,440 --> 01:05:11,720
maar die heel moeilijk zijn voor AI.
1317
01:05:11,880 --> 01:05:14,440
Er circuleren
een paar bekende fotosets
1318
01:05:14,600 --> 01:05:16,040
die worden gebruikt om te testen
1319
01:05:16,200 --> 01:05:19,080
hoe goed je AI-systeem
al op details kan letten.
1320
01:05:19,240 --> 01:05:22,160
De bekendste is deze.
Dit is 'muffin of chihuahua'.
1321
01:05:22,320 --> 01:05:24,320
(publiek lacht)
1322
01:05:31,920 --> 01:05:33,240
Het is moeilijk.
1323
01:05:34,600 --> 01:05:35,960
Het is moeilijk.
1324
01:05:36,440 --> 01:05:38,760
Je hebt ook
'luiaard of chocoladebroodje'.
1325
01:05:38,920 --> 01:05:40,560
(publiek lacht)
1326
01:05:42,200 --> 01:05:45,240
Zoogdieren en gebak, het is
een dingetje. Ik weet niet juist hoe.
1327
01:05:46,000 --> 01:05:47,760
Appel of kerkuil? Enfin, het is...
1328
01:05:49,160 --> 01:05:50,440
eindeloos.
1329
01:05:51,360 --> 01:05:54,240
En mijn persoonlijke favorietje is
'windhond of Saruman'.
1330
01:05:54,400 --> 01:05:56,560
(publiek lacht)
1331
01:05:58,800 --> 01:06:02,240
Allemaal patronen
die gemakkelijk zijn voor ons
1332
01:06:02,400 --> 01:06:04,520
en heel moeilijk voor een AI-systeem.
1333
01:06:05,560 --> 01:06:07,200
Het gekke is:
1334
01:06:07,360 --> 01:06:11,760
het omgekeerde gebeurt ook al.
Er zijn steeds vaker momenten
1335
01:06:11,920 --> 01:06:16,720
waarop AI-systemen patronen zien
die wij als mens niet kunnen zien.
1336
01:06:16,880 --> 01:06:19,560
Dat zijn magische momenten.
AI ontdekt een patroon
1337
01:06:19,720 --> 01:06:21,720
dat wij als mens niet kunnen zien.
1338
01:06:21,880 --> 01:06:24,240
Ik heb een voorbeeld uit België.
Het komt van bij VITO,
1339
01:06:24,400 --> 01:06:26,680
de Vlaamse Instelling
voor Technologisch Onderzoek.
1340
01:06:26,840 --> 01:06:30,960
En bij VITO hebben ze AI getraind
die oogartsen kan assisteren
1341
01:06:31,120 --> 01:06:33,360
bij de controle van een netvliesfoto.
1342
01:06:33,520 --> 01:06:34,960
Dit is een netvliesfoto.
1343
01:06:35,120 --> 01:06:37,600
Dit is meer bepaald mijn netvlies
dat we hier zien.
1344
01:06:37,760 --> 01:06:41,000
Want ik toon al graag eens een foto
van mijn blote retina.
1345
01:06:41,160 --> 01:06:43,720
(publiek lacht)
1346
01:06:43,880 --> 01:06:46,120
Mensen met hoge cholesterol
of met diabetes
1347
01:06:46,280 --> 01:06:48,480
laten best één keer per jaar
naar hun netvlies kijken.
1348
01:06:48,640 --> 01:06:51,840
De oogarts kijkt dan naar schade
aan die kleine adertjes.
1349
01:06:52,000 --> 01:06:54,800
Dat kan tot slecht zicht leiden
en dan heb je een behandeling nodig.
1350
01:06:54,960 --> 01:06:57,120
Alleen zijn veel
van die oogartsen overbezet
1351
01:06:57,280 --> 01:07:00,040
en die hebben geen tijd om iedereen
voor de volle afspraak te zien.
1352
01:07:00,200 --> 01:07:04,120
Bij VITO hebben ze AI getraind
die dat voor een stuk kan overnemen.
1353
01:07:04,280 --> 01:07:07,200
Dus je toont dat AI-systeem
een foto van een netvlies
1354
01:07:07,360 --> 01:07:08,520
en dat systeem beslist:
1355
01:07:08,680 --> 01:07:11,160
jij moet zeker naar de arts
en jij misschien niet.
1356
01:07:12,120 --> 01:07:14,240
Toen ze dat getraind hebben,
hebben ze bij elke foto
1357
01:07:14,400 --> 01:07:16,520
ook heel veel
patiënteninformatie gegeven.
1358
01:07:16,680 --> 01:07:21,280
Geslacht van de patiënt, leeftijd,
roker of niet-roker, enzovoort.
1359
01:07:21,440 --> 01:07:23,640
Na een tijdje gebeurt er iets geks.
1360
01:07:23,800 --> 01:07:26,200
Ze tonen dat AI-systeem
een foto van een netvlies
1361
01:07:26,360 --> 01:07:29,440
en dat AI-systeem zegt:
Dit is een gezond netvlies
1362
01:07:29,600 --> 01:07:30,840
en het is van een vrouw.
1363
01:07:33,120 --> 01:07:36,200
Er is geen enkele oogarts
in heel de wereld
1364
01:07:36,360 --> 01:07:38,880
die aan je netvlies
je geslacht kan bepalen.
1365
01:07:39,040 --> 01:07:42,320
Niemand kan dat.
Dat AI-systeem doet dat feilloos.
1366
01:07:43,280 --> 01:07:46,680
De AI heeft een geslachtsafhankelijk
patroon gevonden in ons netvlies
1367
01:07:46,840 --> 01:07:49,600
waarvan wij niet eens wisten
dat het bestond.
1368
01:07:50,680 --> 01:07:53,200
Wat dat patroon is,
kan het ons niet zeggen.
1369
01:07:53,360 --> 01:07:54,680
Dat zit in de black box.
1370
01:07:55,600 --> 01:07:59,040
We weten nog altijd niet
hoe dat ding het doet.
1371
01:08:00,200 --> 01:08:02,200
Toen ze dat zagen bij VITO,
dachten ze:
1372
01:08:02,360 --> 01:08:04,520
Misschien zijn er nog aandoeningen
1373
01:08:04,680 --> 01:08:08,120
waar AI een voorspelling voor kan
doen op basis van een netvliesfoto
1374
01:08:08,280 --> 01:08:10,800
zonder dat de mens dat kan.
En ze hebben geprobeerd
1375
01:08:10,960 --> 01:08:14,360
om andere diagnoses te halen
uit een netvliesfoto.
1376
01:08:14,520 --> 01:08:16,440
En het is twee keer gelukt.
1377
01:08:16,600 --> 01:08:19,760
Het vroege begin van alzheimer
en het vroege begin van parkinson
1378
01:08:19,920 --> 01:08:22,800
kan AI detecteren
op basis van deze foto,
1379
01:08:22,960 --> 01:08:25,680
terwijl een mens
nog helemaal niks ziet.
1380
01:08:25,840 --> 01:08:28,480
AI die patronen ziet
die wij niet zien
1381
01:08:28,640 --> 01:08:32,000
en ons dan waarschuwt voor dingen
die gaan gebeuren in de toekomst.
1382
01:08:32,160 --> 01:08:34,680
Ik denk dat daar
heel veel toepassingen van komen.
1383
01:08:34,840 --> 01:08:36,320
Wellicht wereldwijde systemen
1384
01:08:36,480 --> 01:08:39,480
die kunnen waarschuwen voor
aardbevingen, vulkaanuitbarstingen,
1385
01:08:39,640 --> 01:08:42,880
tsunami's, droogtes,
overstromingen, enzovoort.
1386
01:08:43,040 --> 01:08:44,800
Maar evengoed zou je kunnen denken
1387
01:08:44,960 --> 01:08:48,320
aan AI-patronen
in ons eigen, persoonlijke leven.
1388
01:08:49,120 --> 01:08:50,760
Je domotica bijvoorbeeld.
1389
01:08:50,920 --> 01:08:53,240
Gekoppeld aan een AI-systeem
dat patronen zoekt.
1390
01:08:53,400 --> 01:08:55,480
Dat kijkt wanneer je opstaat
en gaat slapen.
1391
01:08:55,640 --> 01:08:57,880
Een camera die bijhoudt
wat je eet en wanneer.
1392
01:08:58,040 --> 01:09:00,160
Je gaat heel snel
voedselintoleranties
1393
01:09:00,320 --> 01:09:03,960
en allergieën kunnen detecteren.
Een camera die je hartslag volgt,
1394
01:09:04,120 --> 01:09:06,320
via je gezicht misschien
je gemoedstoestand.
1395
01:09:06,480 --> 01:09:08,080
Als die allemaal samenwerken,
1396
01:09:08,240 --> 01:09:10,680
kunnen die patronen zoeken
en je assisteren.
1397
01:09:11,520 --> 01:09:14,320
We moeten ook nog kiezen
wie al die data mag beheren,
1398
01:09:14,480 --> 01:09:16,640
maar daarvoor zijn we blind vanavond.
1399
01:09:17,880 --> 01:09:20,760
Maar als die systemen samenwerken,
kunnen ze wel patronen vinden.
1400
01:09:20,920 --> 01:09:23,120
Stel je voor dat je op een vrije dag
1401
01:09:23,280 --> 01:09:25,040
altijd te lang
in je nest blijft liggen.
1402
01:09:25,200 --> 01:09:28,280
Dan drink je veel te veel koffie,
daardoor sla je het middageten over
1403
01:09:28,440 --> 01:09:30,400
en 's avonds
ben je suf en chagrijnig.
1404
01:09:31,360 --> 01:09:33,560
Een mogelijk
autobiografisch voorbeeld.
1405
01:09:33,720 --> 01:09:34,720
(publiek lacht)
1406
01:09:34,880 --> 01:09:36,480
Dan zou het kunnen
over een jaar of 10,
1407
01:09:36,640 --> 01:09:38,440
dat je huis om 11u 's morgens
tegen jou zegt:
1408
01:09:38,600 --> 01:09:40,760
(in Oost-Vlaams)
Zou je niet eens gaan wandelen, hè?
1409
01:09:40,920 --> 01:09:42,520
(publiek lacht)
1410
01:09:43,160 --> 01:09:44,440
De mama-AI.
1411
01:09:44,600 --> 01:09:45,800
(publiek lacht)
1412
01:09:45,960 --> 01:09:47,400
En sowieso in het Meetjeslands.
1413
01:09:47,560 --> 01:09:49,720
Zou je niet eens gaan wandelen?
Dat is een bevel.
1414
01:09:49,880 --> 01:09:52,240
Limburgs is een uitnodiging.
1415
01:09:52,400 --> 01:09:55,200
Zou jij eens niet gaan wandelen?
Dan denk je: Nee, geen goesting.
1416
01:09:55,360 --> 01:09:56,920
Maar: Zou jij eens niet gaan
wandelen?
1417
01:09:57,080 --> 01:09:58,320
Je staat al buiten. Vandaar.
1418
01:09:59,640 --> 01:10:03,120
Maar de AI-assistent,
de AI-lifecoach,
1419
01:10:03,280 --> 01:10:05,960
zou er binnenkort
best wel kunnen zijn.
1420
01:10:06,120 --> 01:10:10,560
Nog een gebied waarop AI sowieso
ons leven binnenkomt, is in de auto.
1421
01:10:10,920 --> 01:10:13,800
Mensen die nu al een auto hebben
die voor een stuk zelfrijdend is,
1422
01:10:13,960 --> 01:10:15,120
daar zit al AI in.
1423
01:10:15,280 --> 01:10:18,480
Zonder AI kan die auto niet weten
waar de lijnen liggen van de baan,
1424
01:10:18,640 --> 01:10:21,320
kan die geen verkeersborden
herkennen, enzovoort.
1425
01:10:21,480 --> 01:10:24,720
Wat merken we nu?
De weg van een gewone auto
1426
01:10:24,880 --> 01:10:28,360
naar eentje die deels zelfrijdend is,
dat ging vrij vlot.
1427
01:10:28,520 --> 01:10:30,800
De weg van
een gedeeltelijk zelfrijdende auto
1428
01:10:30,960 --> 01:10:34,480
naar eentje die alles zelfstandig kan
zonder dat je zelf iets moet doen,
1429
01:10:34,640 --> 01:10:36,600
dat blijkt aartsmoeilijk te zijn.
1430
01:10:36,760 --> 01:10:39,880
En de belangrijkste reden is:
een volledig zelfrijdende auto
1431
01:10:40,040 --> 01:10:43,600
heeft 100 procent betrouwbare
patroonherkenning nodig.
1432
01:10:43,760 --> 01:10:46,240
Als daar AI in zit
die verkeerslichten herkent,
1433
01:10:46,400 --> 01:10:49,560
wil je niet dat die 99 procent
van de tijd juist zijn.
1434
01:10:49,720 --> 01:10:51,120
(publiek lacht)
1435
01:10:51,280 --> 01:10:53,000
En dat is lastig.
1436
01:10:53,160 --> 01:10:55,760
Twee jaar terug hebben ze
verkeerslichtherkenning opengezet
1437
01:10:55,920 --> 01:10:57,520
op de Tesla's in Amerika.
1438
01:10:57,680 --> 01:10:59,800
Vrij snel kregen ze bericht
van mensen die zeiden:
1439
01:10:59,960 --> 01:11:02,000
Mijn auto remt voor de volle maan.
1440
01:11:02,160 --> 01:11:04,000
(publiek lacht)
1441
01:11:04,160 --> 01:11:05,240
Het was oranje.
1442
01:11:06,560 --> 01:11:08,320
Iemand liet weten
dat zijn auto geremd had
1443
01:11:08,480 --> 01:11:10,160
voor het logo van Burger King.
1444
01:11:10,320 --> 01:11:12,320
(publiek lacht)
1445
01:11:13,440 --> 01:11:17,000
Verkeerslichtherkenning trainen
tot die 100 procent betrouwbaar is,
1446
01:11:17,160 --> 01:11:18,160
is aartsmoeilijk.
1447
01:11:18,320 --> 01:11:21,640
Omdat verkeerslichten verschillende
vormen en kleuren kunnen hebben.
1448
01:11:21,800 --> 01:11:25,960
Die kunnen in het licht staan,
in het donker, in de halfschaduw.
1449
01:11:26,120 --> 01:11:27,960
Die kunnen tussen de bladeren staan.
1450
01:11:28,120 --> 01:11:31,200
Als je wilt dat het
100 procent van de tijd juist gaat,
1451
01:11:31,360 --> 01:11:34,920
moet je letterlijk miljoenen keren
aan een AI-systeem zeggen:
1452
01:11:35,080 --> 01:11:38,400
Dit is een verkeerlicht, en dit.
En dit niet, dit niet en dit wel.
1453
01:11:38,560 --> 01:11:40,600
Miljoenen keren.
1454
01:11:40,760 --> 01:11:43,200
Wie heeft daar in godsnaam tijd voor?
1455
01:11:43,360 --> 01:11:46,480
Ja, wie heeft daar eigenlijk
in godsnaam tijd voor?
1456
01:11:46,640 --> 01:11:48,640
(publiek lacht)
1457
01:11:49,600 --> 01:11:51,280
Dat zijn wij dus aan het doen.
1458
01:11:51,440 --> 01:11:53,040
(publiek lacht)
1459
01:11:53,200 --> 01:11:56,080
Dit zijn de captcha's.
Trouwens, captcha staat voor
1460
01:11:56,240 --> 01:12:00,640
'completely automated program
to tell computers and humans apart'.
1461
01:12:00,800 --> 01:12:02,040
Captcha.
1462
01:12:02,200 --> 01:12:05,480
De captcha is bedoeld om te kijken
of je een menselijke gebruiker bent
1463
01:12:05,640 --> 01:12:07,960
of een softwaresysteem.
En hoe kan je dat doen?
1464
01:12:08,120 --> 01:12:11,840
Je geeft de gebruiker een taak die
net te moeilijk is voor een computer.
1465
01:12:12,000 --> 01:12:15,960
Dat is exact het soort labeling data
dat AI-wetenschappers nodig hebben
1466
01:12:16,120 --> 01:12:19,040
van een taak die nog net
te moeilijk is voor de computer.
1467
01:12:19,200 --> 01:12:23,160
Bij Google hadden ze dat door
en die hebben captcha gekocht.
1468
01:12:23,320 --> 01:12:26,280
En sinds die dag
werken wij allemaal voor Google.
1469
01:12:27,000 --> 01:12:30,080
Google bouwt een zelfrijdende auto,
wij zijn die aan het trainen.
1470
01:12:31,400 --> 01:12:34,680
En als je denkt: Dat kan toch niet?
Dit ding kan ons toch niet testen
1471
01:12:34,840 --> 01:12:37,880
en wij tegelijkertijd
dat ding trainen? Dat is waar.
1472
01:12:38,040 --> 01:12:40,520
Heb je gemerkt dat je meestal
twee of drie foto's krijgt?
1473
01:12:41,560 --> 01:12:43,160
Eentje is de test.
1474
01:12:43,640 --> 01:12:46,920
De andere zijn wij die als aapjes
in een kooitje werken voor Google.
1475
01:12:47,080 --> 01:12:48,320
Rikketikketik.
1476
01:12:48,480 --> 01:12:51,040
Klein voordeel: als je wilt,
kun je op je kaartje zetten:
1477
01:12:51,200 --> 01:12:54,120
ik heb AI getraind voor Google.
Want dat is wat we doen.
1478
01:12:55,480 --> 01:12:57,480
Een paar jaar terug
had Google een ander project.
1479
01:12:57,640 --> 01:13:00,240
Dan hebben ze bij heel veel
bibliotheken van universiteiten
1480
01:13:00,400 --> 01:13:03,600
wetenschappelijke boeken ingescand
en digitaal beschikbaar gemaakt.
1481
01:13:03,760 --> 01:13:06,320
De bibliotheek van Universiteit Gent
en Universiteit Leuven
1482
01:13:06,480 --> 01:13:08,680
ingescand en gedigitaliseerd
per Google.
1483
01:13:08,840 --> 01:13:11,920
In zo'n oud boek staat er soms
een woord dat wat te dik gedrukt is
1484
01:13:12,080 --> 01:13:14,280
en dan kan die AI dat niet lezen.
1485
01:13:14,440 --> 01:13:17,200
Daarom kregen wij
een paar jaar geleden deze captcha's.
1486
01:13:17,360 --> 01:13:19,360
(geroezemoes)
1487
01:13:19,520 --> 01:13:21,960
Dus rechts is de test:
ben je mens of software?
1488
01:13:22,120 --> 01:13:24,560
Links is een woord
uit een oud wetenschappelijk boek
1489
01:13:24,720 --> 01:13:26,200
dat de AI niet kon lezen.
1490
01:13:27,400 --> 01:13:30,080
Hadden wij toen afgesproken
om altijd piemel te typen...
1491
01:13:30,240 --> 01:13:32,000
(publiek lacht)
1492
01:13:35,240 --> 01:13:38,440
Dan zouden de werken van Mercator
veel boeiender geweest zijn vandaag.
1493
01:13:39,440 --> 01:13:43,520
Google is een van de grootste
AI-onderzoekers ter wereld.
1494
01:13:43,680 --> 01:13:45,880
Ze doen niet alleen AI-onderzoek
voor producten,
1495
01:13:46,040 --> 01:13:47,160
zoals die dingen daar.
1496
01:13:47,320 --> 01:13:49,400
Google zit ook
in het fundamentele onderzoek.
1497
01:13:49,560 --> 01:13:51,480
De fundamentele research naar:
1498
01:13:51,640 --> 01:13:54,720
wat is een neuraal netwerk, wat kan
het en wat kunnen we het bijleren?
1499
01:13:54,880 --> 01:13:56,240
Hoe kunnen we het beter maken?
1500
01:13:56,400 --> 01:13:59,480
Dat doen zij voornamelijk
via Google DeepMind.
1501
01:13:59,640 --> 01:14:02,640
Google DeepMind is
een onderzoeksinstelling in Londen,
1502
01:14:02,800 --> 01:14:04,280
is een wereldspeler.
1503
01:14:04,440 --> 01:14:07,680
Dat is eigenlijk
de enige echte grote in Europa.
1504
01:14:07,840 --> 01:14:10,640
De grote onderzoeken gebeuren
in Amerika en China.
1505
01:14:10,800 --> 01:14:12,720
Google DeepMind staat in Londen,
vlak bij ons.
1506
01:14:12,880 --> 01:14:16,320
Er werken ook redelijk wat Belgen.
Dat is best iets om trots op te zijn.
1507
01:14:16,480 --> 01:14:20,320
Het doel van Google DeepMind?
Het is opgericht door Demis Hassabis
1508
01:14:20,480 --> 01:14:22,640
en zijn doel bij de oprichting
was dit:
1509
01:14:22,800 --> 01:14:26,160
om de menselijke intelligentie
na te bootsen in een computer
1510
01:14:26,320 --> 01:14:30,080
en dan die computer gebruiken om alle
problemen van de wereld op te lossen.
1511
01:14:30,880 --> 01:14:35,360
'To first solve intelligence
and then solve everything else.'
1512
01:14:35,520 --> 01:14:38,600
Was het bescheiden missionstatement
van Google DeepMind.
1513
01:14:39,240 --> 01:14:42,800
Maar Demis Hassabis is wel begonnen
met kleine stapjes.
1514
01:14:42,960 --> 01:14:45,560
Kleine eerste stapjes.
Hij is zelf een spelletjesfreak.
1515
01:14:45,720 --> 01:14:48,000
Hij is een schaakkampioen
en hij dacht:
1516
01:14:48,160 --> 01:14:51,160
Om spelletjes te spelen, moeten
mensen toch een beetje redeneren.
1517
01:14:51,320 --> 01:14:53,560
Zouden we dat kunnen nabootsen
in een computer?
1518
01:14:53,720 --> 01:14:57,440
Hij heeft neurale netwerken gebouwd
en die spelletjes leren spelen.
1519
01:14:57,600 --> 01:15:01,840
Dammen en Stratego en Pong
en andere computerspelletjes.
1520
01:15:02,000 --> 01:15:03,800
En na een tijdje zelfs schaak.
1521
01:15:03,960 --> 01:15:06,880
Na een tijdje had hij een neuraal
netwerk dat goed kon schaken.
1522
01:15:07,640 --> 01:15:09,880
Niet iedereen was onder de indruk,
1523
01:15:10,040 --> 01:15:12,040
want we hebben al heel lang
schaakcomputers.
1524
01:15:12,200 --> 01:15:15,920
Sinds de jaren 90 kunnen computers
beter schaken dan de mens.
1525
01:15:16,080 --> 01:15:18,640
De reden dat het zo snel gelukt is
met schaak,
1526
01:15:18,800 --> 01:15:22,760
is omdat je schaak kan winnen
zuiver op rekenkracht.
1527
01:15:22,920 --> 01:15:24,760
Als je heel veel rekenkracht hebt,
1528
01:15:24,920 --> 01:15:27,680
kun je veel zetten,
miljoenen zetten, vooruitdenken
1529
01:15:27,840 --> 01:15:29,840
en kan je het beste pad kiezen
voor jezelf.
1530
01:15:30,000 --> 01:15:33,920
Je kan schaak 'brute forcen'.
Zuiver winnen op rekenkracht.
1531
01:15:34,520 --> 01:15:36,560
Er zijn ook bordspelletjes
1532
01:15:36,720 --> 01:15:39,400
die je niet kan winnen
zuiver op rekenkracht.
1533
01:15:39,560 --> 01:15:44,360
Het bekendste is go.
Go is een Chinees-Japans bordspel.
1534
01:15:44,520 --> 01:15:48,120
Dit is een go-bord.
Je hebt 19 lijnen op 19.
1535
01:15:48,280 --> 01:15:51,400
Eén speler speelt met witte stenen,
één met zwarte stenen.
1536
01:15:51,560 --> 01:15:55,640
Elk om beurt leggen die een steen
van hun kleur op een vrij kruispunt.
1537
01:15:56,400 --> 01:15:58,800
Wat is het doel van een go-spel?
Vrij simpel.
1538
01:15:58,960 --> 01:16:01,760
Om zoveel mogelijk gebied
te omsingelen.
1539
01:16:01,920 --> 01:16:04,240
Wit heeft nu linksonder
een stuk omsingeld.
1540
01:16:04,400 --> 01:16:07,400
Wie op het einde van het spel
het meeste gebied heeft omsingeld,
1541
01:16:07,560 --> 01:16:09,560
is de winnaar van het go-spel.
1542
01:16:09,720 --> 01:16:12,120
Die regels zijn
bedrieglijk eenvoudig.
1543
01:16:12,280 --> 01:16:15,680
De uitwerking van een go-spel
is enorm complex.
1544
01:16:15,840 --> 01:16:18,600
Vele malen complexer dan schaak.
1545
01:16:18,760 --> 01:16:22,360
De belangrijkste reden is dat je bij
elke zet zoveel mogelijkheden hebt.
1546
01:16:22,520 --> 01:16:25,440
Je eerste steen kan je
op 361 plaatsen leggen.
1547
01:16:26,320 --> 01:16:28,360
Je tweede steen op 360 plaatsen.
1548
01:16:29,200 --> 01:16:30,600
Wat is het gevolg?
1549
01:16:30,760 --> 01:16:33,440
Voor de eerste vier zetten
van een go-spel
1550
01:16:33,600 --> 01:16:36,080
zijn er 16 miljard mogelijkheden.
1551
01:16:37,320 --> 01:16:42,000
Als je elk mogelijk spel dat gespeeld
kan worden op dit bord optelt,
1552
01:16:42,160 --> 01:16:46,480
is dat aantal groter dan het kwadraat
van alle atomen in het universum.
1553
01:16:47,760 --> 01:16:49,080
Met andere woorden:
1554
01:16:49,240 --> 01:16:52,920
het is niet mogelijk om vele zetten
vooruit te denken voor een computer,
1555
01:16:53,080 --> 01:16:56,680
omdat het aantal mogelijkheden zo
snel exponentieel enorm groot wordt.
1556
01:16:56,840 --> 01:17:01,320
Je kan go niet 'brute forcen'.
Een mens kan dat natuurlijk ook niet.
1557
01:17:01,480 --> 01:17:04,400
Menselijke spelers zeggen:
We spelen een stuk op strategie
1558
01:17:04,560 --> 01:17:08,720
en een heel groot stuk
op intuïtie en op creativiteit.
1559
01:17:08,880 --> 01:17:13,000
Je moet jarenlang
uren per dag go spelen
1560
01:17:13,160 --> 01:17:16,080
om daar heel goed in te worden.
Tot je een soort gevoel ontwikkelt
1561
01:17:16,240 --> 01:17:18,240
voor wat er werkt
en wat er niet werkt.
1562
01:17:18,400 --> 01:17:22,080
Intuïtie en creativiteit zijn
essentieel om goed go te spelen.
1563
01:17:22,240 --> 01:17:24,760
Daarom wordt er gezegd:
Intuïtie en creativiteit
1564
01:17:24,920 --> 01:17:27,600
zijn menselijke eigenschappen
die een computer niet heeft.
1565
01:17:27,760 --> 01:17:30,880
Dus een computer zal nooit
heel goed go kunnen spelen.
1566
01:17:31,520 --> 01:17:34,040
En bij DeepMind zeiden ze:
We gaan het toch proberen.
1567
01:17:35,000 --> 01:17:37,200
Ze hebben een groot
neuraal netwerk gebouwd.
1568
01:17:37,360 --> 01:17:40,280
Ze hebben dat heel veel voorbeelden
getoond van go-spelletjes
1569
01:17:40,440 --> 01:17:42,400
tussen menselijke kampioenen.
1570
01:17:42,560 --> 01:17:45,000
Dat netwerk heeft zich aangepast,
verbindingen aangepast
1571
01:17:45,160 --> 01:17:47,920
tot het meer begon te spelen
als de winnende partij.
1572
01:17:48,800 --> 01:17:51,320
En na een tijdje
kon dat goed go spelen.
1573
01:17:52,280 --> 01:17:55,360
En toen zeiden ze bij DeepMind:
Nu willen wij een toernooi.
1574
01:17:55,520 --> 01:17:58,520
We willen een toernooi
tussen onze computer, AlphaGo,
1575
01:17:58,680 --> 01:18:01,160
en de beste go-speler
van heel de wereld.
1576
01:18:01,320 --> 01:18:04,600
Dat is Lee Sedol.
Dat is een Zuid-Koreaan.
1577
01:18:04,760 --> 01:18:08,480
Hij is 18 jaar op rij
wereldkampioen go.
1578
01:18:09,240 --> 01:18:11,760
Waarschijnlijk
de beste go-speler ooit.
1579
01:18:12,800 --> 01:18:14,440
Ze hebben een hotel gehuurd in Seoul
1580
01:18:14,600 --> 01:18:16,880
voor een officieel toernooi
van vijf partijen
1581
01:18:17,040 --> 01:18:19,840
tussen AlphaGo, de computer,
en Lee Sedol.
1582
01:18:20,000 --> 01:18:22,120
Dat toernooi werd online uitgezonden,
1583
01:18:22,280 --> 01:18:25,160
werd live bekeken
door 200 miljoen mensen.
1584
01:18:26,040 --> 01:18:28,200
Go is enorm populair in Azië.
1585
01:18:28,360 --> 01:18:30,880
Er keken twee keer meer mensen
naar dit toernooi
1586
01:18:31,040 --> 01:18:33,040
dan naar de Super Bowl in Amerika.
1587
01:18:34,640 --> 01:18:38,760
In de tweede partij van die vijf
gebeurt er iets geks.
1588
01:18:39,680 --> 01:18:41,560
Normaal gezien
in het begin van een go-spel
1589
01:18:41,720 --> 01:18:45,600
wordt er enkel gespeeld op de
buitenste vier lijnen van het bord.
1590
01:18:45,760 --> 01:18:49,600
Dat is geen regel.
Je mag eigenlijk spelen waar je wilt.
1591
01:18:49,760 --> 01:18:53,120
Maar dit is een strategie
die alle topspelers volgen.
1592
01:18:53,280 --> 01:18:56,440
Je zet je basis op die buitenranden
en als die stevig staat,
1593
01:18:56,600 --> 01:18:59,400
begin je naar binnen te werken.
Wat deed die computer nu?
1594
01:18:59,560 --> 01:19:03,840
Wat deed AlphaGo bij de 37e zet
van het tweede spel?
1595
01:19:04,000 --> 01:19:08,080
Hij zette zijn steen daar.
Vijf lijnen diep.
1596
01:19:08,960 --> 01:19:13,840
Dit is een zet die geen enkele
menselijke go-kampioen ooit zou doen.
1597
01:19:14,880 --> 01:19:17,800
Ze hebben direct gevraagd
aan de go-spelers in de zaal daar:
1598
01:19:17,960 --> 01:19:20,000
Wat vinden jullie van die zet?
Ze zeiden:
1599
01:19:20,160 --> 01:19:24,120
Dat is een vreselijke zet.
Dit is een ellendig slechte zet.
1600
01:19:25,520 --> 01:19:28,760
Dan vroegen ze waarom en zeiden ze:
Het voelt niet goed.
1601
01:19:28,920 --> 01:19:30,600
(publiek lacht)
1602
01:19:33,160 --> 01:19:35,320
Dit is het moment
waarop die zet gedaan wordt.
1603
01:19:35,480 --> 01:19:38,400
Dat is niet Lee Sedol, trouwens.
Dat is de AI-assistent.
1604
01:19:38,560 --> 01:19:42,240
Dat is de persoon die de bevelen
van het AI-systeem moet uitvoeren.
1605
01:19:43,120 --> 01:19:45,160
Dus onze toekomst. En...
1606
01:19:46,400 --> 01:19:48,240
Zodra hij die steen neerlegt,
1607
01:19:48,400 --> 01:19:51,920
hoor je aan de commentaarstemmen
dat daar iets geks gebeurd is.
1608
01:19:53,800 --> 01:19:56,000
(verbaasde reactie in Koreaans)
1609
01:19:57,600 --> 01:20:00,160
Dat is een verrassende zet.
1610
01:20:00,320 --> 01:20:04,200
Ik dacht dat het een vergissing was.
1611
01:20:04,360 --> 01:20:06,280
Ik dacht dat het een vergissing was.
1612
01:20:06,440 --> 01:20:08,560
Ze dachten dat de AI-assistent
zich vergist had.
1613
01:20:09,120 --> 01:20:10,680
Toen keken ze naar het computerscherm
1614
01:20:10,840 --> 01:20:13,360
en dit was effectief
wat die computer gevraagd had.
1615
01:20:13,520 --> 01:20:16,400
Toen dachten ze:
Oké, dit is een fout in de software.
1616
01:20:16,560 --> 01:20:20,040
Dit is een heel slechte zet. Deze
partij is waarschijnlijk verloren.
1617
01:20:20,840 --> 01:20:23,080
Lee Sedol is er niet,
zoals je kan zien.
1618
01:20:23,240 --> 01:20:25,040
Een go-match duurt een paar uur.
1619
01:20:25,200 --> 01:20:27,520
Lee Sedol heeft hier
een pauze genomen.
1620
01:20:27,680 --> 01:20:29,400
Even later
komt hij terug van die pauze
1621
01:20:29,560 --> 01:20:31,680
en 200 miljoen mensen vragen zich af:
1622
01:20:31,840 --> 01:20:34,560
Hoe gaat de beste go-speler
ter wereld reageren
1623
01:20:34,720 --> 01:20:37,280
als hij die knotsgekke zet
op dat bord ziet liggen?
1624
01:20:41,520 --> 01:20:43,480
(publiek lacht)
1625
01:20:44,480 --> 01:20:46,160
Hij moet een beetje lachen.
1626
01:20:47,520 --> 01:20:49,120
Maar zijn lachje verdwijnt.
1627
01:20:51,040 --> 01:20:52,360
Hij zet zich achterover.
1628
01:20:54,840 --> 01:20:56,480
En hij staart naar het bord.
1629
01:21:09,480 --> 01:21:11,800
Hij heeft twaalf minuten
naar het bord gestaard.
1630
01:21:13,680 --> 01:21:16,320
Twaalf minuten lang
zit de beste go-speler ooit
1631
01:21:16,480 --> 01:21:18,880
te kijken naar dat bord
en doet helemaal niks.
1632
01:21:20,200 --> 01:21:23,120
Na die twaalf minuten is hij
rechtgestaan voor een nieuwe pauze.
1633
01:21:24,920 --> 01:21:28,480
Hij is dan teruggekomen van die pauze
en heeft wel verder gespeeld.
1634
01:21:28,640 --> 01:21:30,240
Hij heeft deze partij verloren.
1635
01:21:31,080 --> 01:21:34,640
Helemaal op het einde bleek dat die
'move 37' een cruciale positie was
1636
01:21:34,800 --> 01:21:36,800
om een heel groot gebied
te omsingelen.
1637
01:21:37,760 --> 01:21:38,760
Ze vroegen Lee Sedol:
1638
01:21:38,920 --> 01:21:41,760
Wat was je aan het doen in die twaalf
minuten dat je naar dat bord keek?
1639
01:21:41,920 --> 01:21:45,440
En hij zegt: Ik probeerde eerst
een tegenstrategie te bedenken.
1640
01:21:45,600 --> 01:21:48,360
Toen ik merkte
hoe aartsmoeilijk dat was,
1641
01:21:48,520 --> 01:21:50,120
heb ik me vooral zitten afvragen
1642
01:21:50,280 --> 01:21:53,440
wat de begrippen schoonheid
en creativiteit eigenlijk betekenen.
1643
01:21:53,600 --> 01:21:55,600
(publiek lacht)
1644
01:21:55,760 --> 01:22:00,320
Hij zegt: Dit was een onmiskenbaar
mooie en creatieve zet.
1645
01:22:01,320 --> 01:22:04,960
Maar die was gedaan
door een machientje. Door software.
1646
01:22:05,800 --> 01:22:07,600
Dat vond hij heel confronterend.
1647
01:22:08,800 --> 01:22:11,600
Hij heeft dat toernooi uitgespeeld.
Vijf wedstrijden.
1648
01:22:11,760 --> 01:22:13,840
Lee Sedol heeft er vier verloren.
1649
01:22:15,000 --> 01:22:19,920
Dus de beste go-speler ooit verliest
met vier-één van de computer AlphaGo.
1650
01:22:21,160 --> 01:22:24,000
Een paar maanden later
is Lee Sedol gestopt met go spelen.
1651
01:22:25,680 --> 01:22:27,040
Op de top van zijn kunnen.
1652
01:22:28,040 --> 01:22:30,000
Ze hebben gevraagd waarom. Hij zegt:
1653
01:22:30,160 --> 01:22:32,800
Er bestaat nu een entiteit
die ik niet kan verslaan.
1654
01:22:32,960 --> 01:22:35,240
Het heeft voor mij
geen enkele zin meer.
1655
01:22:38,400 --> 01:22:40,440
Ik denk niet
dat er veel coureurs gestopt zijn
1656
01:22:40,600 --> 01:22:42,240
toen de bromfiets is uitgevonden.
1657
01:22:42,400 --> 01:22:44,600
(publiek lacht)
1658
01:22:44,760 --> 01:22:47,240
Daar kunnen we blijkbaar
wel mee overweg.
1659
01:22:47,920 --> 01:22:50,560
Een fiets met een motor
rijdt sneller dan wij. Geen probleem.
1660
01:22:50,720 --> 01:22:54,160
We gaan wat tegen elkaar koersen.
Maar voor een go-speler?
1661
01:22:54,320 --> 01:22:57,920
Die mensen hebben letterlijk
hun leven gewijd aan dat spel.
1662
01:22:58,080 --> 01:23:01,440
Sinds hun kindertijd
uren per dag gespeeld.
1663
01:23:01,600 --> 01:23:04,880
Die intuïtie die zij
ontwikkeld hebben, dat spelgevoel,
1664
01:23:05,040 --> 01:23:09,120
is een groot deel van hun identiteit
en van hun eigenwaarde.
1665
01:23:09,280 --> 01:23:13,680
Als dat opeens compleet onverwacht
beter gedaan wordt door software,
1666
01:23:13,840 --> 01:23:15,280
is dat enorm bedreigend.
1667
01:23:16,120 --> 01:23:19,360
Lee Sedol is gestopt met go
door die 'move 37'.
1668
01:23:20,720 --> 01:23:22,160
En ik vraag mij soms af:
1669
01:23:22,320 --> 01:23:24,680
Hoeveel van ons
gaan in de komende jaren
1670
01:23:24,840 --> 01:23:27,680
onze eigen kleine 'move 37' meemaken?
1671
01:23:27,840 --> 01:23:30,760
We hebben allemaal dingen waarvan we
trots zijn dat we ze kunnen.
1672
01:23:30,920 --> 01:23:33,280
Talenten die we hebben,
dingen die we geleerd hebben,
1673
01:23:33,440 --> 01:23:36,760
artistieke dingen, iets in ons werk,
iets in je persoonlijke leven.
1674
01:23:36,920 --> 01:23:40,640
Die AI-systemen leren heel snel
nieuwe dingen bij.
1675
01:23:40,800 --> 01:23:43,880
Voor velen van ons komt er een moment
waarop een AI-systeem
1676
01:23:44,040 --> 01:23:46,800
dat ding waar je trots op bent
beter doet dan jezelf.
1677
01:23:46,960 --> 01:23:49,120
En ik vraag mij af:
Hoe gaan wij reageren?
1678
01:23:50,040 --> 01:23:52,080
Ik ben begonnen als stand-upcomedian.
1679
01:23:52,760 --> 01:23:55,800
De dag dat een AI-systeem
een heel goeie punchline schrijft
1680
01:23:55,960 --> 01:23:58,880
en die met de perfecte timing
vertelt aan een zaal,
1681
01:23:59,040 --> 01:24:01,400
ga ik koude rillingen hebben.
1682
01:24:01,560 --> 01:24:05,320
Er staan al
AI-stand-upshows op YouTube.
1683
01:24:06,000 --> 01:24:09,200
Geschreven en uitgesproken
door een AI-systeem.
1684
01:24:09,360 --> 01:24:11,040
Die grappen zijn niet slecht.
1685
01:24:12,880 --> 01:24:14,400
De timing gelukkig wel.
1686
01:24:14,560 --> 01:24:15,920
(publiek lacht)
1687
01:24:16,080 --> 01:24:17,520
Dus ik heb nog eventjes.
1688
01:24:19,400 --> 01:24:20,720
Terug naar dat toernooi.
1689
01:24:20,880 --> 01:24:23,520
Na de overwinning
van AlphaGo op Lee Sedol
1690
01:24:23,680 --> 01:24:27,320
waren er toch weer kritische stemmen.
Dat waren de mensen die zeiden:
1691
01:24:27,480 --> 01:24:31,000
Wacht even,
heel je AI-systeem is getraind
1692
01:24:31,160 --> 01:24:35,160
op basis van go-spelletjes
tussen menselijke kampioenen.
1693
01:24:36,080 --> 01:24:39,720
Dus dat AI-systeem heeft niet zelf
intuïtie en creativiteit ontwikkeld,
1694
01:24:39,880 --> 01:24:42,000
die heeft dat afgekeken
van de menselijke spellen
1695
01:24:42,160 --> 01:24:44,800
en geremixt tot een soort rare zet.
1696
01:24:44,960 --> 01:24:47,400
Bij DeepMind zeiden ze:
Dat is een goed punt.
1697
01:24:47,560 --> 01:24:50,560
En ze hebben een nieuwe computer
gebouwd, AlphaZero.
1698
01:24:50,720 --> 01:24:52,800
En AlphaZero begint leeg
1699
01:24:52,960 --> 01:24:56,960
en krijgt geen enkel voorbeeld te
zien van een go-spel tussen mensen.
1700
01:24:57,120 --> 01:25:01,280
Het enige wat AlphaZero krijgt,
zijn de regels van go.
1701
01:25:01,440 --> 01:25:02,960
Dan zeggen ze tegen die computer:
1702
01:25:03,120 --> 01:25:06,160
Splits jezelf in twee en oefen
tegen jezelf tot je het kunt.
1703
01:25:07,440 --> 01:25:09,840
Die computer speelt miljoenen spellen
tegen zichzelf
1704
01:25:10,000 --> 01:25:11,840
en onthoudt wat wel en niet werkt.
1705
01:25:12,000 --> 01:25:15,160
Na een tijdje kon AlphaZero
goed go spelen.
1706
01:25:15,320 --> 01:25:17,880
Dan hebben ze gezegd:
Nu willen wij een officieel toernooi
1707
01:25:18,040 --> 01:25:21,280
tussen AlphaZero
en de beste go-speler ter wereld.
1708
01:25:21,440 --> 01:25:22,600
Lee Sedol was gestopt,
1709
01:25:22,760 --> 01:25:26,160
dus AlphaZero heeft gespeeld
tegen AlphaGo, de vorige computer.
1710
01:25:26,320 --> 01:25:28,080
(publiek lacht)
1711
01:25:29,160 --> 01:25:31,400
AlphaZero heeft gewonnen met 100-0.
1712
01:25:31,560 --> 01:25:33,440
(geroezemoes)
1713
01:25:34,400 --> 01:25:35,720
Dus wat blijkt?
1714
01:25:36,560 --> 01:25:38,840
In heel dat trainen van die AI...
1715
01:25:39,000 --> 01:25:42,640
Al die menselijke voorbeelden
remmen die een beetje af.
1716
01:25:44,560 --> 01:25:46,360
We zijn vervelende ruis.
1717
01:25:48,040 --> 01:25:49,880
Het gaat sneller
als ze het alleen doen.
1718
01:25:52,480 --> 01:25:54,840
Toen ze zagen dat
dat systeem met AlphaZero werkte,
1719
01:25:55,000 --> 01:25:57,600
dachten ze: Dit kunnen we ook
bij andere spelletjes doen.
1720
01:25:57,760 --> 01:26:01,360
Ze hebben AlphaZero leeggemaakt en
daar de regels van schaak in gestopt.
1721
01:26:01,520 --> 01:26:04,880
Weer hetzelfde: geen enkel voorbeeld
van een schaakspel tussen mensen.
1722
01:26:05,040 --> 01:26:08,080
Splits jezelf in twee en oefen
tegen jezelf tot je het kan.
1723
01:26:09,240 --> 01:26:13,680
Na een tijdje was AlphaZero beter in
schaak dan de beste mens ter wereld.
1724
01:26:15,480 --> 01:26:19,000
De tijd tussen het aanzetten
van AlphaZero als lege computer
1725
01:26:19,160 --> 01:26:22,440
en het moment dat hij beter was
dan de beste mens ter wereld,
1726
01:26:22,600 --> 01:26:23,760
was vier uur.
1727
01:26:26,680 --> 01:26:29,280
Het schaakspel is 1.500 jaar oud.
1728
01:26:30,400 --> 01:26:32,080
Zo lang hebben wij tijd gehad.
1729
01:26:33,400 --> 01:26:37,320
Met zijn allen,
om schaakstrategieën te bedenken.
1730
01:26:37,480 --> 01:26:40,960
Een AI-systeem haalt dat allemaal in
op vier uur tijd.
1731
01:26:42,360 --> 01:26:45,280
Moeten wij daar panisch bang
van worden? Ik weet het niet.
1732
01:26:45,440 --> 01:26:47,160
(publiek lacht)
1733
01:26:47,320 --> 01:26:48,360
Kies maar.
1734
01:26:49,920 --> 01:26:52,120
De pessimisten zeggen:
Nu is het wel duidelijk.
1735
01:26:52,280 --> 01:26:54,320
We hebben een systeem gebouwd
dat op vier uur tijd
1736
01:26:54,480 --> 01:26:59,120
betere strategieën ontwikkelt dan de
collectieve mensheid in 1.500 jaar.
1737
01:26:59,280 --> 01:27:01,520
Zodra ze het kunnen,
gaan ze de hele wereld overnemen
1738
01:27:01,680 --> 01:27:03,160
en de mensheid domineren.
1739
01:27:04,680 --> 01:27:07,560
Ik heb daar één belangrijke vraag bij
en dat is deze:
1740
01:27:07,720 --> 01:27:11,480
Waarom zou een AI-systeem
de mensheid willen domineren?
1741
01:27:12,760 --> 01:27:15,800
Dat ding wil helemaal niks.
Dat is software.
1742
01:27:15,960 --> 01:27:19,160
Als je morgen AlphaZero vraagt om
alle schaakspelletjes te verliezen,
1743
01:27:19,320 --> 01:27:22,200
doet hij dat gewoon.
Het is gewoon software.
1744
01:27:22,360 --> 01:27:24,840
Dat heeft geen agressie,
dat heeft geen instincten
1745
01:27:25,000 --> 01:27:27,080
en dat heeft geen dominantiedrang.
1746
01:27:27,240 --> 01:27:30,240
Je pc is niet kwaad als je
hem uitzet. Die vindt dat oké.
1747
01:27:30,400 --> 01:27:32,400
(publiek lacht)
1748
01:27:33,480 --> 01:27:37,240
De dominantiedrang die je ziet
in de mens, komt uit onze evolutie.
1749
01:27:37,400 --> 01:27:39,880
We zijn geëvolueerd
als aapjes die in groep leefden.
1750
01:27:40,040 --> 01:27:42,320
Dan is het blijkbaar goed
voor je voortplantingskans
1751
01:27:42,480 --> 01:27:43,760
om te proberen de baas te zijn
1752
01:27:43,920 --> 01:27:46,440
en de groepen in de buurt
een beetje weg te jagen.
1753
01:27:46,600 --> 01:27:49,520
Zo'n AI-systeem
heeft die evolutie niet doorgemaakt.
1754
01:27:49,680 --> 01:27:52,080
Dus ik zie niet in
waarom er vanuit het niets
1755
01:27:52,240 --> 01:27:56,000
een dominantiedrang zou ontstaan
in een AI-systeem.
1756
01:27:56,880 --> 01:28:00,360
Wil dat zeggen dat ik dan
vrij ben van zorgen? Zeker niet.
1757
01:28:00,520 --> 01:28:03,040
Een AI-systeem kan ook
grote fouten maken
1758
01:28:03,200 --> 01:28:05,280
op weg naar
een zeer slimme oplossing.
1759
01:28:05,440 --> 01:28:07,520
Ze noemen dat
'the alignment problem'.
1760
01:28:08,200 --> 01:28:11,400
Maar zonder slechte bedoelingen.
Als ik vraag aan een AI-systeem
1761
01:28:11,560 --> 01:28:14,160
om ervoor te zorgen dat mijn hond
nooit meer vlooien heeft,
1762
01:28:14,320 --> 01:28:17,360
is het een zeer adequate oplossing
om de hond in te vriezen.
1763
01:28:17,520 --> 01:28:19,520
(publiek lacht)
1764
01:28:19,680 --> 01:28:21,240
Perfect opgelost.
1765
01:28:22,000 --> 01:28:25,520
Want ik had niet gezegd dat het niet
mocht. Dat is een simpel voorbeeld.
1766
01:28:25,680 --> 01:28:28,960
Eens AI oplossingen gaat bedenken
die wij niet meer snappen,
1767
01:28:29,120 --> 01:28:31,320
wat bij go en schaak
nu al het geval is,
1768
01:28:31,480 --> 01:28:35,520
gaan we misschien niet meer herkennen
dat ze ergens dat soort afslag nemen
1769
01:28:35,680 --> 01:28:39,280
zonder dat ze het slecht bedoelen.
En ook AI zonder slechte bedoelingen
1770
01:28:39,440 --> 01:28:42,360
kan wel gebruikt worden
door mensen met slechte bedoelingen.
1771
01:28:42,520 --> 01:28:46,920
Er zijn nog een paar mensen op deze
aarde met een zekere dominantiedrang.
1772
01:28:47,880 --> 01:28:49,480
Ze staan soms in de krant.
1773
01:28:50,680 --> 01:28:54,080
Wanneer die beginnen te werken met
krachtige AI, ga ik nerveuzer worden.
1774
01:28:54,240 --> 01:28:55,640
Yuval Harari zegt:
1775
01:28:55,800 --> 01:29:00,520
Ik ben niet bang voor AI,
wel voor biologische domheid.
1776
01:29:01,320 --> 01:29:03,880
Dat zijn wij. Dat is gevaarlijker.
1777
01:29:05,560 --> 01:29:07,080
Oké, terug naar DeepMind.
1778
01:29:07,240 --> 01:29:09,760
Daar hadden ze dus
een heel goede schaakcomputer
1779
01:29:09,920 --> 01:29:12,200
en ze hadden
een heel goede go-computer.
1780
01:29:12,360 --> 01:29:14,760
En dat is het moment
waarop Demis Hassabis dacht:
1781
01:29:14,920 --> 01:29:17,520
Misschien heb ik nu
genoeg spelletjes gespeeld.
1782
01:29:17,680 --> 01:29:21,320
Misschien moet ik proberen een puzzel
op te lossen uit de wetenschap.
1783
01:29:22,200 --> 01:29:25,200
In de wetenschap
zijn nog veel onopgeloste puzzels.
1784
01:29:26,000 --> 01:29:29,240
En hij heeft gekozen voor
het 'protein folding problem'.
1785
01:29:29,400 --> 01:29:33,880
Het 'protein folding problem' is de
vraag hoe eiwitten zichzelf opplooien
1786
01:29:34,040 --> 01:29:36,000
tot hun uiteindelijke vorm.
1787
01:29:36,160 --> 01:29:38,800
In ons lichaam zitten
tienduizenden soorten eiwitten
1788
01:29:38,960 --> 01:29:40,680
die cruciale taken uitvoeren.
1789
01:29:40,840 --> 01:29:43,920
Dit is myoglobine,
levert zuurstof aan onze spieren.
1790
01:29:44,080 --> 01:29:46,920
Je hebt hemoglobine, transporteert
zuurstof door het bloed.
1791
01:29:47,080 --> 01:29:48,840
En een eiwit heeft dit soort vorm.
1792
01:29:49,000 --> 01:29:52,000
Een soort heel lange molecule
die samengekronkeld is
1793
01:29:52,160 --> 01:29:53,560
tot het zo'n propje is.
1794
01:29:53,720 --> 01:29:58,160
En dat propje kan een heel specifieke
taak uitoefenen in ons lichaam.
1795
01:29:58,320 --> 01:30:00,120
Als je de vorm kent van een eiwit,
1796
01:30:00,280 --> 01:30:01,920
kan je veel beter snappen
hoe het werkt,
1797
01:30:02,080 --> 01:30:03,680
kan je veel ziektes beter begrijpen,
1798
01:30:03,840 --> 01:30:07,080
sneller medicijnen ontwikkelen
en betere behandelingen ontwikkelen.
1799
01:30:07,240 --> 01:30:11,240
Alleen zijn eiwitten zo klein dat je
ze niet ziet onder een microscoop.
1800
01:30:11,400 --> 01:30:13,760
Om de vorm te bepalen
van één soort eiwit,
1801
01:30:13,920 --> 01:30:17,360
is er gemiddeld vier jaar
wetenschappelijk onderzoek nodig.
1802
01:30:17,520 --> 01:30:18,760
Per eiwit.
1803
01:30:18,920 --> 01:30:21,360
En er zitten tienduizenden soorten
in ons lichaam
1804
01:30:21,520 --> 01:30:23,600
en nog eens miljoenen
in de wereld rond ons.
1805
01:30:23,760 --> 01:30:26,400
Planten, dieren,
bacteriën en virussen.
1806
01:30:26,560 --> 01:30:30,080
Het gekke is wel dat elk eiwitje
ontstaat uit één lang sliertje.
1807
01:30:30,240 --> 01:30:33,400
Dat is één lang spaghettietje
en dat wordt gebouwd in onze cel.
1808
01:30:33,560 --> 01:30:36,080
Vanaf het moment dat
dat spaghettietje losgelaten wordt,
1809
01:30:36,240 --> 01:30:37,960
begint dat zich vanzelf
op te plooien.
1810
01:30:38,120 --> 01:30:41,120
Door allerlei atomaire krachten
gaat dat plooien en krullen
1811
01:30:41,280 --> 01:30:43,280
tot het
zijn uiteindelijke vorm heeft.
1812
01:30:43,440 --> 01:30:45,120
Dat is het 'protein folding problem'.
1813
01:30:45,280 --> 01:30:47,240
Zouden we de regels
kunnen achterhalen
1814
01:30:47,400 --> 01:30:49,760
volgens welke
dat eiwit zichzelf opvouwt?
1815
01:30:49,920 --> 01:30:52,280
Dan hoeven we geen vier jaar
onderzoek meer te doen
1816
01:30:52,440 --> 01:30:54,920
om de vorm te ontdekken.
Dan kunnen we het berekenen.
1817
01:30:55,080 --> 01:30:58,320
Dat hebben ze geprobeerd
met een neuraal netwerk bij DeepMind.
1818
01:30:58,480 --> 01:31:01,160
Twee jaar geleden is dat gelukt.
1819
01:31:01,320 --> 01:31:04,520
Sinds die dag duurt het
geen vier jaar onderzoek meer
1820
01:31:04,680 --> 01:31:08,400
om de vorm van een eiwit te kennen,
maar anderhalve minuut rekentijd.
1821
01:31:10,240 --> 01:31:12,840
Stel je even voor
dat je Demis Hassabis bent.
1822
01:31:13,000 --> 01:31:15,640
Je hebt software gebouwd
die op anderhalve minuut
1823
01:31:15,800 --> 01:31:19,600
vier jaar wetenschappelijk onderzoek
uitspaart. Je zou kunnen zeggen:
1824
01:31:19,760 --> 01:31:22,720
Ik verkoop elk van deze
berekeningen voor 100.000 dollar.
1825
01:31:22,880 --> 01:31:25,080
Dat is goedkoper
dan vier jaar onderzoek.
1826
01:31:26,360 --> 01:31:29,000
Demis Hassabis
heeft onmiddellijk gezegd:
1827
01:31:29,160 --> 01:31:30,880
Vanaf vandaag is deze software
1828
01:31:31,040 --> 01:31:33,960
gratis in open source beschikbaar
voor heel de wereld.
1829
01:31:35,320 --> 01:31:37,800
Die laat op dat moment
miljarden liggen.
1830
01:31:38,880 --> 01:31:41,840
Maar hij zegt: Dit voelde toch
als de beste beslissing
1831
01:31:42,000 --> 01:31:45,360
om de collectieve mensheid zo snel
mogelijk vooruit te laten gaan.
1832
01:31:45,520 --> 01:31:49,480
Dat is nu anderhalf jaar geleden.
Sinds dan zijn er elke dag opnieuw
1833
01:31:49,640 --> 01:31:52,840
tienduizenden wetenschappers
bezig met AlphaFold.
1834
01:31:53,000 --> 01:31:55,600
Vormen van eiwitten voorspellen,
ziektes beter begrijpen,
1835
01:31:55,760 --> 01:31:59,160
medicijnen proberen te voorspellen,
meer behandelingen ontwikkelen...
1836
01:31:59,320 --> 01:32:03,600
De onderzoeksfase is door
deze uitvinding enorm versneld
1837
01:32:03,760 --> 01:32:06,600
en de komende jaren gaan hier
heel veel toepassingen
1838
01:32:06,760 --> 01:32:08,320
en behandelingen uit komen.
1839
01:32:09,200 --> 01:32:11,680
Er zitten hier mensen in de zaal
1840
01:32:11,840 --> 01:32:15,080
wiens leven gered zal worden
dankzij AlphaFold.
1841
01:32:15,840 --> 01:32:17,520
Er gaan zo veel behandelingen
uit komen.
1842
01:32:17,680 --> 01:32:20,120
Dat gaat voor sommigen van ons
het verschil maken.
1843
01:32:20,280 --> 01:32:23,800
Dit is een van de belangrijkste
doorbraken in de geneeskunde
1844
01:32:23,960 --> 01:32:26,120
van de voorbije twintig jaar.
1845
01:32:26,280 --> 01:32:28,200
Je hebt daar weinig
over gehoord in het nieuws,
1846
01:32:28,360 --> 01:32:31,120
omdat er zo veel
technische uitleg nodig is
1847
01:32:31,280 --> 01:32:33,240
om te zeggen wat het precies doet.
1848
01:32:33,400 --> 01:32:35,760
Maar ik verwacht echt
dat dit ergens de komende jaren
1849
01:32:35,920 --> 01:32:37,640
een Nobelprijs gaat krijgen.
1850
01:32:38,640 --> 01:32:40,520
De vraag is nu:
Aan wie gaan ze hem geven?
1851
01:32:41,640 --> 01:32:44,520
Ofwel aan Demis Hassabis,
ofwel aan de AI zelf.
1852
01:32:45,480 --> 01:32:47,120
Stel je voor.
1853
01:32:47,280 --> 01:32:50,080
'Artificiële intelligentie
wint eerste Nobelprijs.'
1854
01:32:51,200 --> 01:32:53,520
Ik kijk uit
naar de overwinningsspeech.
1855
01:32:53,680 --> 01:32:55,680
(publiek lacht)
1856
01:32:55,840 --> 01:32:58,600
Die trouwens
best zou kunnen meevallen.
1857
01:32:59,040 --> 01:33:02,920
Toen ik begon met deze voorstelling
twee jaar terug, was dat een mop.
1858
01:33:03,080 --> 01:33:05,200
Dan zei ik: Ik kijk uit
naar de overwinningsspeech.
1859
01:33:05,360 --> 01:33:08,600
De zaal zei: Haha, een computer
die een speech schrijft. Ja...
1860
01:33:08,760 --> 01:33:10,440
(publiek lacht)
1861
01:33:10,600 --> 01:33:13,520
Wie werkt er met ChatGPT in de zaal?
Ja, het was te denken.
1862
01:33:14,600 --> 01:33:16,680
Oké.
Voor de mensen die het niet kennen:
1863
01:33:16,840 --> 01:33:19,600
ChatGPT is een taalmodel
en dat is software
1864
01:33:19,760 --> 01:33:24,120
die menselijke taal kan begrijpen
en in menselijke taal kan antwoorden.
1865
01:33:24,280 --> 01:33:27,760
En al sinds het begin van
de artificiële intelligentie in 1956
1866
01:33:27,920 --> 01:33:29,320
was dat een van de uitdagingen.
1867
01:33:29,480 --> 01:33:32,840
Gaan we erin slagen om computers
te maken die snappen wat we zeggen
1868
01:33:33,000 --> 01:33:34,920
als we gewoon een zin intikken?
1869
01:33:35,080 --> 01:33:37,400
Mensen praten heel raar
voor een computer.
1870
01:33:37,560 --> 01:33:42,520
Lange zinnen, grammatica, synoniemen,
dubbele betekenissen. Lastig.
1871
01:33:42,680 --> 01:33:44,600
Een computer
wil opdrachten en getallen
1872
01:33:44,760 --> 01:33:46,440
en wij maken het heel moeilijk.
1873
01:33:46,600 --> 01:33:49,680
Ze hebben heel lang geprobeerd
om regels te programmeren
1874
01:33:49,840 --> 01:33:52,360
die menselijke taal
konden interpreteren.
1875
01:33:52,520 --> 01:33:54,440
Als je dit woord daar ziet,
betekent het dat.
1876
01:33:54,600 --> 01:33:57,080
Als je dat werkwoord
na dat woord ziet, betekent het dat.
1877
01:33:57,240 --> 01:34:01,440
Duizenden regels code
en het werkte nooit echt heel goed.
1878
01:34:01,600 --> 01:34:04,440
Een paar jaar terug
was er een grote doorbraak
1879
01:34:04,600 --> 01:34:08,840
uit een beetje een onverwachte hoek.
Namelijk de 'autocomplete-systemen'.
1880
01:34:09,000 --> 01:34:10,400
'Autocomplete' is die software
1881
01:34:10,560 --> 01:34:12,600
die je volgende woord
probeert te voorspellen.
1882
01:34:12,760 --> 01:34:14,720
Je bent aan het tikken,
een e-mail of een sms,
1883
01:34:14,880 --> 01:34:18,280
en je telefoon geeft suggesties:
misschien is dat je volgende woord.
1884
01:34:18,440 --> 01:34:21,400
Dat is
de 'next word predicting software'.
1885
01:34:22,440 --> 01:34:24,320
Wat blijkt?
Het volgende woord voorspellen
1886
01:34:24,480 --> 01:34:26,600
kan je laten doen
door een neuraal netwerk.
1887
01:34:26,760 --> 01:34:29,120
Je bouwt gewoon
een enorm neuraal netwerk
1888
01:34:29,280 --> 01:34:31,360
en je laat dat
hele lappen tekst zien.
1889
01:34:31,520 --> 01:34:34,480
Je toont dat bijvoorbeeld honderd
woorden uit een bepaalde tekst
1890
01:34:34,640 --> 01:34:36,640
en het 101e woord verberg je.
1891
01:34:36,800 --> 01:34:39,400
Dat neurale netwerk moet zelf
zijn verbindingen aanpassen
1892
01:34:39,560 --> 01:34:40,880
om op basis van die 100 woorden
1893
01:34:41,040 --> 01:34:44,480
zo goed mogelijk
het 101e woord te voorspellen.
1894
01:34:44,640 --> 01:34:48,280
Dat doe je dan voor enorm veel tekst
die je downloadt van het internet.
1895
01:34:48,440 --> 01:34:49,920
Heel Wikipedia stop je daarin
1896
01:34:50,080 --> 01:34:53,360
en heel Reddit en heel Facebook
en een paar werken van Shakespeare.
1897
01:34:53,520 --> 01:34:56,360
Je laat dat netwerk zichzelf
aanpassen tot het voor al die teksten
1898
01:34:56,520 --> 01:34:59,040
zo goed mogelijk
het volgende woord kan voorspellen.
1899
01:34:59,200 --> 01:35:03,920
Dat was dus twee jaar geleden klaar
en dat heet GPT-3.
1900
01:35:04,080 --> 01:35:09,080
GPT-3 is gebouwd door OpenAI en die
software heb ik hier nu openstaan.
1901
01:35:09,240 --> 01:35:12,560
Dat is dus een website waarop je
een stuk tekst kan intikken.
1902
01:35:12,720 --> 01:35:15,960
Op een bepaald moment kan je stoppen
en dan duw je op enter.
1903
01:35:16,120 --> 01:35:19,880
Dan gaat de AI, op basis
van de tekst die er al staat,
1904
01:35:20,040 --> 01:35:23,800
proberen het volgende woord te
voorspellen en weer het volgende.
1905
01:35:23,960 --> 01:35:26,240
Laat ons dat vooral eens
samen proberen.
1906
01:35:26,400 --> 01:35:28,640
Goedenavond.
Wat is je naam, alsjeblieft?
1907
01:35:29,240 --> 01:35:30,760
Ellen.
- Ja, Ellen?
1908
01:35:30,920 --> 01:35:32,920
Dag, Ellen.
Vind je het heel vervelend
1909
01:35:33,080 --> 01:35:35,440
om aangesproken te worden
vanop een podium?
1910
01:35:36,080 --> 01:35:38,520
Een beetje, ja.
- Een beetje, ja.
1911
01:35:38,680 --> 01:35:40,600
Ben je hier alleen, Ellen?
- Nee.
1912
01:35:40,760 --> 01:35:43,040
Wie is er bij jou? Jolien?
1913
01:35:43,200 --> 01:35:47,160
Denk je dat Jolien het vervelender
of minder vervelend vindt dan jij
1914
01:35:47,320 --> 01:35:49,800
om aangesproken te worden
vanop een podium?
1915
01:35:49,960 --> 01:35:50,960
Die vindt dat erger.
1916
01:35:51,120 --> 01:35:53,120
Die vindt dat erger?
Is dat waar, Jolien?
1917
01:35:53,280 --> 01:35:56,480
Ja? Je wilt niet aangesproken worden
vanop het podium?
1918
01:35:56,640 --> 01:35:57,640
Goh, ja...
1919
01:35:57,800 --> 01:36:00,160
Dan ga ik daarvoor zorgen.
Terug naar Ellen.
1920
01:36:00,320 --> 01:36:03,120
Ik heb echt niet veel nodig.
Het enige wat ik nodig heb, is
1921
01:36:03,280 --> 01:36:05,200
iets wat je meegemaakt hebt.
Een situatie.
1922
01:36:05,360 --> 01:36:06,840
Dat kan tijdens een uitstap zijn
1923
01:36:07,000 --> 01:36:08,720
of tijdens het beoefenen
van een hobby.
1924
01:36:08,880 --> 01:36:11,840
Iets wat je misschien
de voorbije week meegemaakt hebt.
1925
01:36:12,840 --> 01:36:15,240
Heb je iets meegemaakt
de voorbije week?
1926
01:36:15,400 --> 01:36:17,400
(publiek lacht)
1927
01:36:18,680 --> 01:36:21,840
Een hobby, een uitstap gedaan?
Ergens naartoe geweest?
1928
01:36:22,000 --> 01:36:23,920
De voorbije maand? Komaan, Ellen.
1929
01:36:26,000 --> 01:36:29,640
Ja, euh... We zijn naar de...
1930
01:36:29,800 --> 01:36:31,920
liveopnames
van de Nerdland Podcast geweest.
1931
01:36:32,080 --> 01:36:35,040
Jullie zijn naar de liveopnames
van de Nerdland Podcast geweest?
1932
01:36:35,200 --> 01:36:38,200
Ah ja. In de Arenberg,
of in Antwerpen daar? In...
1933
01:36:38,360 --> 01:36:39,800
De Lotto Arena.
- In de Lotto Arena.
1934
01:36:39,960 --> 01:36:43,120
Dus je bent naar de liveopnames
van de Nerdland Podcast geweest.
1935
01:36:43,280 --> 01:36:45,480
Is er vooraf iets gebeurd
toen je ernaartoe reed?
1936
01:36:45,640 --> 01:36:46,840
Platte band gehad of zo?
1937
01:36:47,000 --> 01:36:50,160
Nee, we zijn naar de dinoshow
geweest op het FTI.
1938
01:36:50,320 --> 01:36:52,240
Je bent
naar de dinosaurusshow geweest.
1939
01:36:52,400 --> 01:36:54,000
Hoe ging het
bij de dinosaurusshow?
1940
01:36:54,160 --> 01:36:55,160
Goed.
- Tof?
1941
01:36:55,320 --> 01:36:57,200
Wat was de gemiddelde leeftijd daar?
1942
01:36:57,360 --> 01:36:58,760
(publiek lacht)
Zes.
1943
01:36:58,920 --> 01:37:01,080
Zes jaar? Oké, dat snap ik.
1944
01:37:01,240 --> 01:37:03,800
Dat is exact wat ik nodig had, Ellen.
Dank je wel.
1945
01:37:05,120 --> 01:37:07,320
Oké, daar gaan we iets mee doen, hè.
Dus...
1946
01:37:08,720 --> 01:37:12,360
Ellen zat klaar voor een...
1947
01:37:13,920 --> 01:37:15,840
Laat ons zeggen: lezing...
1948
01:37:17,200 --> 01:37:21,480
over dinosaurussen.
1949
01:37:23,480 --> 01:37:26,560
Ze had er erg veel zin in.
1950
01:37:29,400 --> 01:37:32,280
Toen keek ze om zich heen.
1951
01:37:34,200 --> 01:37:36,760
Ze zag enkel kinderen.
1952
01:37:40,200 --> 01:37:45,720
Die waren 20 jaar jonger dan zij.
1953
01:37:46,520 --> 01:37:47,840
Ellen haat kinderen.
1954
01:37:48,000 --> 01:37:50,720
(publiek lacht)
1955
01:37:51,240 --> 01:37:53,240
Ze vindt dat ze...
1956
01:37:54,040 --> 01:37:56,160
verschrikkelijk stinken.
1957
01:38:00,320 --> 01:38:03,840
Nee, dat was om te testen
of jullie wel wakker zijn.
1958
01:38:04,000 --> 01:38:05,640
(publiek lacht)
1959
01:38:07,560 --> 01:38:10,520
Een kind keek haar aan.
1960
01:38:10,680 --> 01:38:14,520
Ellen staarde terug.
1961
01:38:15,760 --> 01:38:17,880
Toen kwam er plots...
1962
01:38:18,040 --> 01:38:20,200
Oké, ik ga hier stoppen.
1963
01:38:21,040 --> 01:38:23,400
Dus ik ga straks op enter duwen
en al die woorden
1964
01:38:23,560 --> 01:38:25,360
worden ingevoerd
in een neuraal netwerk.
1965
01:38:25,520 --> 01:38:27,560
Alle verbindingen
gaan 'bliep bliep' zeggen.
1966
01:38:27,720 --> 01:38:29,920
Aan de andere kant zeggen ze:
Dit is een mogelijk woord
1967
01:38:30,080 --> 01:38:32,840
en dan kan misschien dit woord komen
en dan misschien dat woord.
1968
01:38:33,000 --> 01:38:35,000
Dan gaan we samen zien
wat er gebeurt.
1969
01:38:35,160 --> 01:38:37,160
Voilà, ik ga op enter duwen
en dan gaan we zien
1970
01:38:37,320 --> 01:38:40,440
hoe de AI volgende woorden aanvult.
Daar gaan we.
1971
01:38:40,600 --> 01:38:42,160
Toen kwam er plots...
1972
01:38:43,040 --> 01:38:46,040
een van de meest...
Rustig, AI, rustig.
1973
01:38:46,200 --> 01:38:49,040
Ja, ja. Dank je wel, dank je wel.
1974
01:38:49,200 --> 01:38:50,760
Goed. Bon...
1975
01:38:51,440 --> 01:38:52,960
Wat hebben we?
1976
01:38:53,120 --> 01:38:56,480
Toen kwam er plots een van de meest
lange koolmezen bij haar vandaan
1977
01:38:56,640 --> 01:38:59,120
en keek haar aan. Ellen schrok.
1978
01:38:59,280 --> 01:39:00,880
Hoe komt die zo lang, vroeg ze.
1979
01:39:01,760 --> 01:39:03,840
Hen doet deze week aten.
1980
01:39:04,640 --> 01:39:08,240
Ze moeten eten als ze naar
het kasteel komen, verzekerde hij.
1981
01:39:08,400 --> 01:39:11,840
Ellen keek naar het kasteel.
Wat zal ik doen? Ze moeten eten.
1982
01:39:12,000 --> 01:39:14,440
Miraris zei:
Leg haar in haar kast, Ellen.
1983
01:39:15,440 --> 01:39:20,080
Dankzij het klassieke linnenmes
bracht 'fop' die uit, van Fluffo.
1984
01:39:20,240 --> 01:39:21,840
Nee, je moet niet doen, hoor.
1985
01:39:22,000 --> 01:39:25,760
Hij glimlachte,
waardoor Ellen 'krompegaf' werd.
1986
01:39:25,920 --> 01:39:27,840
Oké, wat doe je nu?
1987
01:39:28,000 --> 01:39:30,680
Er kwam een vink voorbij
samen met een sneeuwpop.
1988
01:39:30,840 --> 01:39:31,920
Oké...
1989
01:39:32,080 --> 01:39:33,960
(publiek lacht)
1990
01:39:34,120 --> 01:39:36,080
Wat gebeurt hier?
1991
01:39:38,000 --> 01:39:41,200
Dat netwerk is getraind
op het hele internet.
1992
01:39:41,360 --> 01:39:44,800
Daar zaten ook alle tienerblogs bij
en alle reclamemails
1993
01:39:44,960 --> 01:39:47,840
en ook een hele hoop computercode.
Dus dat gaat even goed
1994
01:39:48,000 --> 01:39:50,680
en je ziet soms zinnen ontstaan
die grammaticaal kloppen,
1995
01:39:50,840 --> 01:39:53,920
maar qua inhoud
gaat dat heel snel de bocht uit.
1996
01:39:54,080 --> 01:39:57,640
En na een tijdje, omdat er zo veel
computercode op het internet staat,
1997
01:39:57,800 --> 01:39:59,840
begint die gewoon
'gibberish' te spreken.
1998
01:40:00,000 --> 01:40:02,200
Dan krijg je dingen zoals dit hier.
1999
01:40:02,680 --> 01:40:07,080
Paulidunnell 1285. Nu: Pisante 322.
2000
01:40:07,240 --> 01:40:09,880
Hondebrug exploderend
veel sproet geweest. Enfin...
2001
01:40:10,040 --> 01:40:12,120
(publiek lacht)
2002
01:40:13,840 --> 01:40:17,240
Dit was de eerste versie
van die 'autocomplete software'.
2003
01:40:17,400 --> 01:40:20,520
Ze hadden snel door bij OpenAI:
we hebben extra training nodig.
2004
01:40:21,840 --> 01:40:23,440
Hun volgende stap was
2005
01:40:23,600 --> 01:40:26,760
bijtrainen met 'human feedback'.
Met menselijke feedback.
2006
01:40:26,920 --> 01:40:30,160
Dus wat doe je? Je laat zo'n systeem
tien teksten schrijven
2007
01:40:30,320 --> 01:40:33,080
en een mens duidt aan:
dit klopt en dit niet.
2008
01:40:33,240 --> 01:40:35,880
Dat neurale netwerk kan dan
zijn verbindingen aanpassen
2009
01:40:36,040 --> 01:40:38,320
om meer antwoorden te geven
waarvan de mens zegt:
2010
01:40:38,480 --> 01:40:41,040
Dit is een goed antwoord.
Je kan het ook vragen:
2011
01:40:41,200 --> 01:40:43,680
Geef tien dingen om te doen
met een gezin in Portugal.
2012
01:40:43,840 --> 01:40:45,520
Dat geeft tien mogelijke antwoorden.
2013
01:40:45,680 --> 01:40:47,960
Een mens duidt aan:
dit is het beste antwoord.
2014
01:40:48,120 --> 01:40:50,880
En gek genoeg,
als dat netwerk zichzelf dan aanpast
2015
01:40:51,040 --> 01:40:53,040
om meer
dat soort antwoorden te geven,
2016
01:40:53,200 --> 01:40:55,280
leert dat niet alleen
beter antwoorden
2017
01:40:55,440 --> 01:40:57,600
op vragen over gezinsreizen
naar Portugal,
2018
01:40:57,760 --> 01:41:01,960
maar gaat het over het algemeen
beter antwoorden op vragen.
2019
01:41:02,120 --> 01:41:05,440
Dat is een van de gekke gedragingen
van een neuraal netwerk:
2020
01:41:05,600 --> 01:41:07,040
een soort emergent gedrag.
2021
01:41:07,200 --> 01:41:09,600
Het is zodanig complex,
als je het traint op één ding,
2022
01:41:09,760 --> 01:41:13,200
dat er ook allerlei andere dingen
uit komen die het plots ook kan.
2023
01:41:13,360 --> 01:41:15,800
En zo is GPT-4 gebouwd.
2024
01:41:15,960 --> 01:41:20,000
Laat ons nu eens kijken
of GPT-4 beter is dan GPT-3.
2025
01:41:20,160 --> 01:41:24,080
Dus ik ga deze tekst bijhouden.
Die heb ik gekopieerd.
2026
01:41:24,240 --> 01:41:27,840
En ik probeer nu in GPT-4 hetzelfde.
2027
01:41:28,000 --> 01:41:32,920
Vul dit verhaal aan met 150 woorden.
2028
01:41:33,080 --> 01:41:34,440
Oké, dezelfde tekst.
2029
01:41:34,600 --> 01:41:37,320
Ellen zat klaar voor een lezing
over dinosaurussen, enzovoort.
2030
01:41:37,480 --> 01:41:40,160
Toen kwam er plots...
En daar gaan we.
2031
01:41:40,320 --> 01:41:42,640
Wat maakt GPT-4 ervan? Dit.
2032
01:41:43,560 --> 01:41:46,880
Toen kwam er plots een groep
paleontologen de zaal binnen.
2033
01:41:47,040 --> 01:41:49,320
Ze droegen fossielen
en dinosaurusskeletten.
2034
01:41:49,480 --> 01:41:52,200
Ellens ogen fonkelden.
Ze vergat de kinderen om haar heen
2035
01:41:52,360 --> 01:41:54,320
en focuste zich op de sprekers.
2036
01:41:54,480 --> 01:41:56,840
De eerste paleontoloog
begon enthousiast te vertellen
2037
01:41:57,000 --> 01:41:58,640
over de Tyrannosaurus rex.
2038
01:41:58,800 --> 01:42:00,800
Ellen, een fervent
dinosaurusliefhebber,
2039
01:42:00,960 --> 01:42:04,760
luisterde aandachtig terwijl de
kinderen rondom haar onrustig werden.
2040
01:42:04,920 --> 01:42:06,080
Plots ging het licht uit
2041
01:42:06,240 --> 01:42:10,440
en werd een gigantische projectie van
een dinosaurus op de muur getoond.
2042
01:42:10,600 --> 01:42:12,320
De kinderen gilden van opwinding,
2043
01:42:12,480 --> 01:42:14,600
maar Ellen was geïntrigeerd
door de details
2044
01:42:14,760 --> 01:42:18,680
die de paleontoloog deelde over
het leven van deze machtige wezens.
2045
01:42:18,840 --> 01:42:22,320
Ze leerde over hun eetgewoonten,
leefomgeving en uitsterven.
2046
01:42:22,480 --> 01:42:26,160
De presentatie was zo boeiend
dat ze zelfs begon te waarderen
2047
01:42:26,320 --> 01:42:29,960
hoe de kinderen met open mond
luisterden en leerden.
2048
01:42:30,120 --> 01:42:31,440
Toen de lichten weer aangingen,
2049
01:42:31,600 --> 01:42:33,280
voelde Ellen
zich verrassend verfrist.
2050
01:42:33,440 --> 01:42:36,360
Ze realiseerde zich
dat haar passie voor dinosaurussen
2051
01:42:36,520 --> 01:42:38,840
sterker was
dan haar afkeer voor kinderen.
2052
01:42:39,000 --> 01:42:40,240
(publiek lacht)
2053
01:42:40,400 --> 01:42:44,200
Met een glimlach verliet ze de zaal,
blij dat ze was gebleven.
2054
01:42:44,360 --> 01:42:45,440
Ja, maar...
2055
01:42:45,600 --> 01:42:46,720
Wat?
2056
01:42:46,880 --> 01:42:48,160
(applaus)
2057
01:42:52,160 --> 01:42:57,240
Dit is splinternieuwe tekst
die 20 seconden geleden niet begon,
2058
01:42:57,400 --> 01:43:01,600
die gewoon door een neuraal netwerk
woord na woord aangevuld is.
2059
01:43:01,760 --> 01:43:05,720
Dit is waarom mensen denken
dat AI een bewustzijn heeft.
2060
01:43:05,880 --> 01:43:08,920
Het lijkt alsof die software weet
waar het over gaat
2061
01:43:09,080 --> 01:43:12,080
en dat bewust en creatief aanvult.
2062
01:43:12,240 --> 01:43:13,360
Maar dat is niet zo.
2063
01:43:14,240 --> 01:43:18,360
Deze software weet niet eens
wat een dinosaurus is.
2064
01:43:18,520 --> 01:43:22,120
Die heeft geen conceptueel idee
van wat een dino eigenlijk is.
2065
01:43:22,280 --> 01:43:25,560
Het woord 'dinosaurus'
is voor die software een datapunt
2066
01:43:25,720 --> 01:43:28,440
dat statistisch volgt
op de voorgaande datapunten.
2067
01:43:28,600 --> 01:43:32,320
Maar toch komt daar
zo'n samenhangende tekst uit.
2068
01:43:32,480 --> 01:43:36,880
Het is ongelooflijk hoe goed
die taalsystemen geworden zijn.
2069
01:43:37,040 --> 01:43:38,640
Voor de eerste keer
in de geschiedenis
2070
01:43:38,800 --> 01:43:40,400
kan je vragen aan je computer
2071
01:43:40,560 --> 01:43:43,520
om teksten te schrijven,
compleet nieuwe teksten,
2072
01:43:43,680 --> 01:43:46,400
die nuttig zijn voor je werk
of voor je persoonlijke leven.
2073
01:43:46,560 --> 01:43:48,880
Natuurlijk is dit een klassieker.
2074
01:43:50,320 --> 01:43:51,880
Schrijf een opstel...
2075
01:43:53,160 --> 01:43:57,160
over de geschiedenis van Brugge.
2076
01:43:57,680 --> 01:43:59,120
En huppakee.
2077
01:44:00,160 --> 01:44:02,720
De geschiedenis van Brugge
door de middeleeuwen en erna.
2078
01:44:02,880 --> 01:44:05,400
In hartje West-Vlaanderen,
tussen kabbelende kanalen
2079
01:44:05,560 --> 01:44:07,440
en sierlijke stenen bruggen,
2080
01:44:07,600 --> 01:44:10,080
ligt Brugge, een stad
die een rijke geschiedenis uitademt.
2081
01:44:10,240 --> 01:44:12,160
Dit opstel neemt u mee
op een reis door de eeuwen
2082
01:44:12,320 --> 01:44:14,760
om de fascinerende geschiedenis
van Brugge te verkennen.
2083
01:44:14,920 --> 01:44:17,200
Enzovoort, enzovoort, enzovoort.
2084
01:44:17,360 --> 01:44:19,480
En dat ding
schrijft je huiswerk voor je.
2085
01:44:20,400 --> 01:44:21,840
Wie zat er nog in het middelbaar?
2086
01:44:22,000 --> 01:44:23,000
(publiek lacht)
2087
01:44:23,160 --> 01:44:24,240
Jeej.
2088
01:44:25,760 --> 01:44:28,120
Als je deze tekst opzoekt
op het internet, vind je niks,
2089
01:44:28,280 --> 01:44:31,720
want dit is nieuwe tekst.
Deze tekst heeft nog nooit bestaan.
2090
01:44:31,880 --> 01:44:33,840
Als ik over vijf minuten
nog eens vraag
2091
01:44:34,000 --> 01:44:36,200
naar een opstel
over de geschiedenis van Brugge,
2092
01:44:36,360 --> 01:44:38,520
krijg ik een totaal andere tekst.
2093
01:44:38,680 --> 01:44:41,840
Omdat hij niet altijd het meest
waarschijnlijke volgende woord kiest,
2094
01:44:42,000 --> 01:44:45,000
maar soms ook eentje kiest uit de
tien mogelijke meest waarschijnlijke
2095
01:44:45,160 --> 01:44:48,200
en zo heel snel
op totaal andere teksten uitkomt.
2096
01:44:48,360 --> 01:44:51,280
Je kan dit dus niet betrappen
op plagiaat.
2097
01:44:51,440 --> 01:44:54,160
Maar er wordt momenteel wel
software geschreven
2098
01:44:54,320 --> 01:44:57,480
die kan zien of iets
door AI gemaakt is of niet.
2099
01:44:57,640 --> 01:45:00,040
Dus het zou kunnen
dat je binnenkort betrapt wordt.
2100
01:45:01,240 --> 01:45:02,760
Als dat gebeurt,
2101
01:45:02,920 --> 01:45:05,840
geef ik je nu even het perfecte
antwoord om dan te geven.
2102
01:45:06,000 --> 01:45:08,600
Je wordt betrapt door je leerkracht
op het gebruik van ChatGPT,
2103
01:45:08,760 --> 01:45:13,360
je kijkt je leerkracht aan en zegt:
Maar mevrouw, ik ben 16 jaar oud.
2104
01:45:13,520 --> 01:45:16,520
Wat kan er mij nu beter voorbereiden
op mijn toekomst
2105
01:45:16,680 --> 01:45:18,720
dan leren werken met AI-systemen?
2106
01:45:20,520 --> 01:45:22,800
Als je een slimme leerkracht hebt,
gaat die zeggen:
2107
01:45:22,960 --> 01:45:24,760
Dat is eigenlijk waar.
2108
01:45:24,920 --> 01:45:27,280
Toon eens aan de rest van de klas
hoe het werkt.
2109
01:45:28,640 --> 01:45:31,800
Als je een minder slimme leerkracht
hebt, gaat die heel kwaad worden.
2110
01:45:32,640 --> 01:45:34,280
Dan moet je straf schrijven.
2111
01:45:34,440 --> 01:45:36,560
Dat is geen probleem, hè. Dus het...
2112
01:45:36,720 --> 01:45:38,600
(publiek lacht)
2113
01:45:38,760 --> 01:45:40,600
Het lost zichzelf op.
2114
01:45:41,920 --> 01:45:44,760
Maar dus: als je een tekst
moet schrijven vandaag
2115
01:45:44,920 --> 01:45:47,520
en je hebt er geen tijd voor, hebt
geen zin of bent er niet goed in,
2116
01:45:47,680 --> 01:45:49,960
kan je het gewoon vragen
aan je computer.
2117
01:45:50,120 --> 01:45:54,080
Stel je voor, je bent tien jaar
samen geweest met iemand
2118
01:45:54,240 --> 01:45:56,800
en je hebt het gevoel:
nu is het wel een beetje op.
2119
01:45:56,960 --> 01:45:59,680
Maar je wilt dat op een mooie,
romantische manier meedelen.
2120
01:45:59,840 --> 01:46:01,160
(publiek lacht)
2121
01:46:01,320 --> 01:46:03,360
En je weet van jezelf:
ik ben daar niet goed in.
2122
01:46:03,520 --> 01:46:05,400
Geen enkel probleem.
2123
01:46:05,560 --> 01:46:08,360
Je gaat naar de computer
en je vraagt:
2124
01:46:11,520 --> 01:46:13,640
Schrijf een mooie,
romantische brief...
2125
01:46:16,520 --> 01:46:18,120
van 150 woorden...
2126
01:46:19,440 --> 01:46:20,880
van Simonneke aan Frank...
2127
01:46:21,040 --> 01:46:23,240
(publiek lacht)
2128
01:46:24,680 --> 01:46:28,520
...om een einde te maken
aan hun liefdesrelatie.
2129
01:46:28,680 --> 01:46:31,480
Oké, en daar gaan we. Start.
2130
01:46:32,280 --> 01:46:35,040
Liefste Frank,
terwijl ik deze woorden schrijf,
2131
01:46:35,200 --> 01:46:38,360
voel ik een mengeling van tederheid
en een onvermijdelijk verdriet.
2132
01:46:39,480 --> 01:46:41,800
Je bent altijd een bijzondere man
voor me geweest.
2133
01:46:41,960 --> 01:46:44,160
Samen hebben we gelachen, gehuild...
Dat is zeker.
2134
01:46:44,320 --> 01:46:47,320
En bovenal hebben we
van elkaar geleerd.
2135
01:46:47,480 --> 01:46:50,040
Maar het hart volgt
zijn eigen mysterieuze wegen
2136
01:46:50,200 --> 01:46:53,360
en soms leiden die wegen ons
in verschillende richtingen.
2137
01:46:53,520 --> 01:46:55,960
Ik heb diep in mijn hart gekeken
en besef nu
2138
01:46:56,120 --> 01:46:58,440
dat onze paden
uit elkaar moeten gaan.
2139
01:46:58,600 --> 01:47:01,040
Dit is geen besluit
dat ik lichtvaardig heb genomen,
2140
01:47:01,200 --> 01:47:04,360
maar ik geloof dat het eerlijk is,
voor ons allebei.
2141
01:47:04,520 --> 01:47:07,720
Weet dat je altijd een speciale
plaats in mijn hart zult hebben,
2142
01:47:07,880 --> 01:47:10,000
een herinnering aan liefde en groei.
2143
01:47:10,160 --> 01:47:12,880
Ik hoop dat je begrip kunt vinden
voor mijn beslissing
2144
01:47:13,040 --> 01:47:15,480
en dat je, net als ik,
de mooie momenten koestert
2145
01:47:15,640 --> 01:47:16,880
die we samen hebben gedeeld.
2146
01:47:17,040 --> 01:47:19,360
Ik wens je alle geluk
en liefde in de wereld.
2147
01:47:19,520 --> 01:47:21,400
Altijd de jouwe, Simonneke.
2148
01:47:21,560 --> 01:47:23,760
(applaus en gelach)
2149
01:47:23,920 --> 01:47:25,200
Ja, hè?
2150
01:47:29,000 --> 01:47:31,480
Control A, control C,
control V, 'send'.
2151
01:47:31,640 --> 01:47:33,400
(publiek lacht)
2152
01:47:33,560 --> 01:47:36,400
Het zou ook kunnen dat Simonneke
die brief leest en denkt:
2153
01:47:36,560 --> 01:47:40,360
Rustig aan, AI.
Zo goed was het nu ook niet.
2154
01:47:41,760 --> 01:47:44,840
Ze denkt aan alle moeilijke momenten
en wordt langzaam kwaad.
2155
01:47:45,000 --> 01:47:47,120
Ze denkt:
dit was een vreselijke relatie.
2156
01:47:47,280 --> 01:47:50,720
Dan ga je gewoon terug
naar de computer en dan vraag je:
2157
01:47:53,800 --> 01:47:55,680
Schrijf deze brief nu kwaad...
2158
01:47:57,120 --> 01:47:58,320
en vol verwijten.
2159
01:47:58,480 --> 01:47:59,480
(publiek lacht)
2160
01:47:59,640 --> 01:48:01,280
Huppa.
2161
01:48:01,440 --> 01:48:05,800
Frank, ik schrijf dit met een mix
van woede en teleurstelling.
2162
01:48:05,960 --> 01:48:07,120
Na alles wat er gebeurd is,
2163
01:48:07,280 --> 01:48:10,040
kan ik niet anders dan deze pijnlijke
waarheid onder ogen zien.
2164
01:48:10,200 --> 01:48:13,280
Je hebt me zoveel keer teleurgesteld,
Frank, en ik ben het zat.
2165
01:48:13,440 --> 01:48:14,920
(publiek lacht)
2166
01:48:15,080 --> 01:48:17,720
Denk je echt dat ik blind ben
voor je fouten?
2167
01:48:17,880 --> 01:48:20,880
Jouw egoïsme en onverschilligheid
hebben keer op keer bewezen
2168
01:48:21,040 --> 01:48:23,520
dat je niet de man bent
die ik ooit dacht dat je was.
2169
01:48:23,680 --> 01:48:26,800
Hoeveel kansen
verwachtte je nog van mij?
2170
01:48:26,960 --> 01:48:31,320
Ik ben klaar met deze vermoeiende
dans van excuses en lege beloftes.
2171
01:48:31,480 --> 01:48:32,640
Oké...
2172
01:48:32,800 --> 01:48:35,600
Onze relatie is een opeenstapeling
van jouw fouten
2173
01:48:35,760 --> 01:48:39,160
en mijn naïviteit in het geloven
dat je zou veranderen.
2174
01:48:39,320 --> 01:48:41,880
Dus hier stoppen we.
Ik verdien beter dan dit
2175
01:48:42,040 --> 01:48:43,880
en diep vanbinnen weet jij dat ook.
2176
01:48:44,040 --> 01:48:47,520
Misschien vind je ooit iemand
die je onvolwassen gedrag tolereert,
2177
01:48:47,680 --> 01:48:51,000
maar ik ben klaar. Vaarwel, Frank.
En laat dit duidelijk zijn:
2178
01:48:51,160 --> 01:48:54,360
vanaf nu ben je niets meer
dan een vervelende herinnering.
2179
01:48:54,520 --> 01:48:55,680
Simonneke.
2180
01:48:57,480 --> 01:48:59,800
(applaus)
2181
01:49:03,000 --> 01:49:07,520
Dit staat gratis online, hè.
Hier kun je heel de nacht mee spelen.
2182
01:49:08,320 --> 01:49:11,840
Je kunt vragen: Schrijf een tekst.
Maak hem blij en maak hem boos.
2183
01:49:12,000 --> 01:49:17,000
En maak hem poëtisch.
En schrijf alsof je een pinguïn bent.
2184
01:49:17,160 --> 01:49:20,840
Awel, ja. We zullen toch
nog een keer... Ja.
2185
01:49:21,440 --> 01:49:23,000
Euh, ja. Hier.
2186
01:49:23,960 --> 01:49:27,000
Schrijf deze brief opnieuw...
2187
01:49:29,000 --> 01:49:31,480
alsof je een pinguïn bent.
2188
01:49:33,160 --> 01:49:34,400
En start.
2189
01:49:35,200 --> 01:49:38,280
Beste Frank, ik schrijf je
deze brief vanaf een ijzige berg.
2190
01:49:38,440 --> 01:49:39,480
(publiek lacht)
2191
01:49:39,640 --> 01:49:41,320
Alleen en koud.
2192
01:49:42,160 --> 01:49:44,640
Onze tijd samen voelde
als een dans in de sneeuw,
2193
01:49:44,800 --> 01:49:46,800
maar nu is het tijd
dat onze paden scheiden.
2194
01:49:46,960 --> 01:49:48,720
Ik ben een pinguïn, Frank,
2195
01:49:48,880 --> 01:49:51,440
en onze werelden zijn gewoon
te verschillend.
2196
01:49:51,600 --> 01:49:53,680
(publiek lacht)
2197
01:49:53,840 --> 01:49:55,320
We deelden vele visjes.
2198
01:49:56,640 --> 01:49:59,040
En gleden samen over het ijs.
2199
01:49:59,200 --> 01:50:01,960
Maar ik kan niet langer negeren
hoe anders wij zijn.
2200
01:50:02,120 --> 01:50:05,800
Jij houdt van de warmte, terwijl ik
verlang naar de koude zeeën.
2201
01:50:05,960 --> 01:50:07,560
Jij droomt van uitgestrekte velden,
2202
01:50:07,720 --> 01:50:10,200
terwijl ik alleen denk
aan ijzige kusten.
2203
01:50:10,360 --> 01:50:13,680
Ik zal altijd koesteren
hoe we samen over het ijs schaatsten,
2204
01:50:13,840 --> 01:50:17,600
maar het is tijd voor mij
om terug te keren naar mijn kolonie.
2205
01:50:17,760 --> 01:50:20,600
Misschien vind je iemand
die beter bij je warme wereld past.
2206
01:50:20,760 --> 01:50:23,480
Dus vaarwel, Frank.
Blijf warm en gelukkig,
2207
01:50:23,640 --> 01:50:26,320
ver weg van de bevroren diepten
van mijn hart.
2208
01:50:27,040 --> 01:50:28,320
Met een koude flipper.
2209
01:50:28,480 --> 01:50:29,680
(publiek lacht)
2210
01:50:29,840 --> 01:50:31,520
Simonneke de pinguïn.
2211
01:50:31,680 --> 01:50:33,680
(applaus en gelach)
2212
01:50:34,600 --> 01:50:36,960
Dat is toch... Oh, Jezus...
2213
01:50:39,400 --> 01:50:41,040
(hij lacht)
2214
01:50:41,200 --> 01:50:43,920
Maak een afbeelding bij deze brief.
2215
01:50:44,080 --> 01:50:46,200
En huppakee. Maar dat...
2216
01:50:46,360 --> 01:50:48,760
Dat hou je toch niet voor mogelijk?
2217
01:50:48,920 --> 01:50:51,800
Een neuraal netwerk
dat volgende woorden voorspelt
2218
01:50:51,960 --> 01:50:55,000
op basis van een opdracht,
kan dit schrijven.
2219
01:50:55,160 --> 01:50:58,840
Het is waanzinnig hoe goed
die taalsystemen geworden zijn.
2220
01:50:59,000 --> 01:51:00,840
Voilà, een afbeelding erbij.
2221
01:51:01,000 --> 01:51:03,360
Daar is ze... Oh...
(publiek lacht)
2222
01:51:03,520 --> 01:51:04,960
Oh...
2223
01:51:05,120 --> 01:51:06,880
Oooh...
2224
01:51:07,960 --> 01:51:09,560
Simonneke de pinguïn.
2225
01:51:09,720 --> 01:51:11,280
(publiek lacht)
2226
01:51:11,440 --> 01:51:15,480
Ik ga niet kunnen slapen vannacht.
Vreselijk...
2227
01:51:18,840 --> 01:51:23,520
Het is krankzinnig hoe goed
de generative AI geworden is.
2228
01:51:23,680 --> 01:51:29,000
En we staan nog maar aan het begin.
Een jaar geleden kon je dit nog niet.
2229
01:51:29,160 --> 01:51:31,800
Ik heb zitten denken:
wat kun je nog doen
2230
01:51:31,960 --> 01:51:33,520
om eens te rammelen met die AI?
2231
01:51:33,680 --> 01:51:38,640
Om eens te testen: waar ligt
de grens? Wanneer breekt dit?
2232
01:51:38,800 --> 01:51:41,400
Ik dacht bij mezelf:
de moeilijkste opdracht voor AI
2233
01:51:41,560 --> 01:51:43,960
lijkt mij toch
om poëzie te schrijven.
2234
01:51:44,120 --> 01:51:45,800
De moeilijkste opdracht voor software
2235
01:51:45,960 --> 01:51:47,840
lijkt mij om te vragen
om poëzie te schrijven.
2236
01:51:48,000 --> 01:51:49,680
Dus laat het ons eens proberen.
2237
01:51:49,840 --> 01:51:51,280
Schrijf een sonnet...
2238
01:51:52,640 --> 01:51:56,040
Een olifant hadden we daarnet, hè?
Een olifant, ja.
2239
01:51:56,200 --> 01:51:58,000
Over een olifant...
2240
01:52:00,840 --> 01:52:02,400
die graag...
2241
01:52:03,720 --> 01:52:05,280
een vogel wil zijn.
2242
01:52:07,160 --> 01:52:10,000
Dus een sonnet over een olifant
die graag een vogel wil zijn.
2243
01:52:10,160 --> 01:52:12,960
Een sonnet is een dichtvorm die
bestaat uit strofes van vier regels,
2244
01:52:13,120 --> 01:52:14,680
die rijmen ABAB.
2245
01:52:14,840 --> 01:52:17,920
Maar een regel in een sonnet moet
eigenlijk ook een vast ritme hebben.
2246
01:52:18,080 --> 01:52:20,560
De klemtoon en de niet-klemtoon
moeten een ritme volgen.
2247
01:52:20,720 --> 01:52:23,440
Tadam, tadam, tadam, tadam.
2248
01:52:23,600 --> 01:52:26,600
Na die strofes van vier regels...
Daarin wordt een gevoel,
2249
01:52:26,760 --> 01:52:29,960
een soort emotie opgewekt, maar
niet in rechtstreeks taalgebruik,
2250
01:52:30,120 --> 01:52:32,040
maar in metaforisch taalgebruik.
2251
01:52:32,200 --> 01:52:35,120
Op het einde wordt dat gevoel
een beetje afgerond
2252
01:52:35,280 --> 01:52:38,880
in een soort catharsis,
in twee regels die ook rijmen.
2253
01:52:39,040 --> 01:52:42,560
Dat zijn veel opdrachten
voor een softwaresysteem
2254
01:52:42,720 --> 01:52:45,240
dat niet eens weet
wat de woorden betekenen.
2255
01:52:45,400 --> 01:52:48,040
Bon, ik ga op enter duwen.
2256
01:52:49,560 --> 01:52:53,040
Soms lukt dit en soms niet.
Soms lukt het hem om te rijmen,
2257
01:52:53,200 --> 01:52:56,240
soms gaat hij woorden verzinnen
omdat hij niet kan rijmen.
2258
01:52:56,400 --> 01:52:59,520
Soms zit dat metrum juist,
soms ook niet.
2259
01:52:59,680 --> 01:53:02,680
Heel af en toe slaagt hij erin
om een gevoel op te wekken
2260
01:53:02,840 --> 01:53:04,560
en dat op het einde af te sluiten.
2261
01:53:04,720 --> 01:53:07,640
En soms gebeuren er kleine mirakels
en dan lukt alles.
2262
01:53:08,840 --> 01:53:10,000
We gaan het proberen.
2263
01:53:10,560 --> 01:53:14,200
Een sonnet over een olifant die
graag een vogel wil zijn. En start.
2264
01:53:15,840 --> 01:53:18,680
Een olifant,
groot in zijn grijze pracht,
2265
01:53:18,840 --> 01:53:21,520
droomde vaak
van het blauwe hemelrijk.
2266
01:53:21,680 --> 01:53:24,520
Wilde zweven als vogel,
zacht en licht.
2267
01:53:24,680 --> 01:53:27,880
Ver boven de savanne,
's nachts bij nacht.
2268
01:53:28,040 --> 01:53:30,720
Zijn slurf zong liedjes
naar de wolken toe.
2269
01:53:30,880 --> 01:53:33,680
Zijn oren fladderden
als vleugels wild.
2270
01:53:33,840 --> 01:53:36,480
In dromen was hij vogel,
vrij en mild.
2271
01:53:36,640 --> 01:53:39,480
Zwevend op de wind,
waarheen hij ook vloog.
2272
01:53:39,640 --> 01:53:42,000
Maar och, bij 't ontwaken,
zwaar en groot,
2273
01:53:42,160 --> 01:53:44,560
voelde hij de aarde,
niet de luchtse troon.
2274
01:53:44,720 --> 01:53:48,040
Zijn hart zwaar,
in zijn borstkas als een lood.
2275
01:53:48,200 --> 01:53:50,560
Toch, in zijn ogen,
schitterde een droom.
2276
01:53:50,720 --> 01:53:53,280
Dat zelfs een olifant,
met vaste poot,
2277
01:53:53,440 --> 01:53:56,400
kan vliegen in zijn dromen,
zonder schroom.
2278
01:53:56,560 --> 01:53:58,080
Niet slecht.
2279
01:53:59,200 --> 01:54:01,520
Maar het is voor tv,
dus we gaan het nog eens proberen.
2280
01:54:04,040 --> 01:54:05,800
We gaan deze eens proberen. Dus...
2281
01:54:06,640 --> 01:54:08,240
Schrijf een sonnet...
2282
01:54:09,080 --> 01:54:10,680
over een zebra...
2283
01:54:11,560 --> 01:54:13,840
die graag rood wil zijn.
2284
01:54:14,000 --> 01:54:15,200
En start.
2285
01:54:17,120 --> 01:54:19,360
In 't rijk der wilde vlakten,
zwart en wit.
2286
01:54:19,520 --> 01:54:22,680
Een zebra droomt van kleuren,
rood en fel.
2287
01:54:22,840 --> 01:54:25,600
Verlangend naar een kleed,
onuitgezegd.
2288
01:54:25,760 --> 01:54:29,160
Waar rood haar strepen kleurt,
een wens zo snel.
2289
01:54:29,320 --> 01:54:32,120
In graslanden,
onder 't Afrikaans azuur,
2290
01:54:32,280 --> 01:54:34,560
begluurt zij bloemen,
vlinders in hun pracht.
2291
01:54:34,720 --> 01:54:37,160
Ziet zij de rozen bloeien,
uur na uur.
2292
01:54:37,320 --> 01:54:40,480
En wenst dezelfde kleur,
met al haar kracht.
2293
01:54:40,640 --> 01:54:43,360
O, mocht ik dansen
in een veld van rood.
2294
01:54:43,520 --> 01:54:45,760
Verliezen zwart en wit, die oude dos.
2295
01:54:45,920 --> 01:54:48,480
En stralen in de zon als rozen groot.
2296
01:54:48,640 --> 01:54:51,880
Mijn strepen scharlaken,
zonder verlies of los.
2297
01:54:52,040 --> 01:54:54,680
Maar dromen zijn als schaduwen,
zo vlucht.
2298
01:54:54,840 --> 01:54:58,560
De zebra blijft zichzelf
in zwart-wit, zucht.
2299
01:54:58,720 --> 01:55:00,440
Niet slecht.
2300
01:55:01,280 --> 01:55:02,920
Laat ons even deze strofe nemen.
2301
01:55:03,880 --> 01:55:06,920
In graslanden,
onder 't Afrikaanse azuur,
2302
01:55:07,080 --> 01:55:09,240
begluurt zij bloemen,
vlinders in hun pracht.
2303
01:55:09,400 --> 01:55:11,720
Ziet zij de rozen bloeien,
uur na uur.
2304
01:55:11,880 --> 01:55:14,520
En wenst dezelfde kleur,
met al haar kracht.
2305
01:55:14,680 --> 01:55:19,040
Ik denk dat sommige menselijke
dichters hier al jaloers op zijn.
2306
01:55:20,200 --> 01:55:24,680
Terwijl... De combinatie van dingen
dat dat ding hier combineert,
2307
01:55:24,840 --> 01:55:27,800
zou niet mogelijk mogen zijn
voor software.
2308
01:55:27,960 --> 01:55:33,120
Ik snap niet meer hoe dit kan
met 'next word prediction'.
2309
01:55:33,280 --> 01:55:34,520
ChatGPT spreekt 100 talen.
2310
01:55:34,680 --> 01:55:38,680
Spreekt Italiaans, Frans, Japans,
Hindi, wat je maar wilt.
2311
01:55:38,840 --> 01:55:41,280
En het spreekt
niet alleen mensentalen,
2312
01:55:41,440 --> 01:55:43,600
want op het internet
staan ook andere talen.
2313
01:55:43,760 --> 01:55:47,360
Zoals bijvoorbeeld Python.
Python is een programmeertaal.
2314
01:55:48,080 --> 01:55:51,920
En stel dat ik nu vraag aan ChatGPT:
Schrijf eens Python-software
2315
01:55:52,080 --> 01:55:53,760
die aan vijf mensen
hun leeftijd vraagt
2316
01:55:53,920 --> 01:55:56,440
en dan de gemiddelde leeftijd
berekent van de vijf.
2317
01:55:56,600 --> 01:56:00,040
Als je op enter duwt, moet die
eerst eventjes diep nadenken
2318
01:56:00,200 --> 01:56:01,720
en de vraag analyseren.
2319
01:56:02,480 --> 01:56:04,720
Dan begint hij te programmeren.
2320
01:56:06,800 --> 01:56:10,080
Dit is software die kan programmeren.
2321
01:56:11,040 --> 01:56:13,680
Software die zelf
software kan schrijven
2322
01:56:13,840 --> 01:56:15,520
en opnieuw uitvoeren.
2323
01:56:16,440 --> 01:56:18,360
We hebben computers
leren programmeren.
2324
01:56:18,520 --> 01:56:21,120
Was dat wel een goed plan?
Ik weet het niet.
2325
01:56:21,840 --> 01:56:24,720
Er bestaan nu hulpprogramma's
voor programmeurs.
2326
01:56:24,880 --> 01:56:26,760
Dat is AI.
Als je aan het programmeren bent,
2327
01:56:26,920 --> 01:56:30,800
zet je dat open op een scherm
naast je. Zoals GitHub Copilot.
2328
01:56:30,960 --> 01:56:33,600
Terwijl je programmeert, volgt
die AI wat je aan het doen bent.
2329
01:56:33,760 --> 01:56:36,240
Na een tijdje zegt die:
Je probeert dit te schrijven zeker?
2330
01:56:36,400 --> 01:56:37,960
Dan zeg jij: Ja, dat is waar.
2331
01:56:39,240 --> 01:56:41,320
AI die zelf software kan schrijven.
2332
01:56:41,480 --> 01:56:44,000
De volgende stap zal zijn
dat we AI bouwen
2333
01:56:44,160 --> 01:56:46,280
die zelf nieuwe AI kan bouwen.
2334
01:56:46,920 --> 01:56:50,000
In het begin zullen die
dat slechter kunnen dan de mens.
2335
01:56:50,160 --> 01:56:52,240
Misschien worden die daar
steeds beter in.
2336
01:56:52,400 --> 01:56:55,520
Misschien komt er een punt
waarop de AI beter wordt dan de mens
2337
01:56:55,680 --> 01:56:58,000
in het bouwen van nieuwe AI.
2338
01:56:58,160 --> 01:57:01,800
Dat is een heel belangrijk punt.
Dat noemen we de 'singularity'.
2339
01:57:01,960 --> 01:57:05,600
Het moment waarop AI beter wordt dan
de mens in het bouwen van nieuwe AI.
2340
01:57:05,760 --> 01:57:07,720
Vanaf dan verandert er veel.
2341
01:57:07,880 --> 01:57:10,880
Want vanaf dan gaan wij niet
de nieuwe AI bouwen,
2342
01:57:11,040 --> 01:57:14,640
maar gaat de AI de nieuwe AI bouwen.
En in theorie is het vanaf daar
2343
01:57:14,800 --> 01:57:18,720
een zelfversterkend,
exponentieel slimmer wordend systeem.
2344
01:57:18,880 --> 01:57:22,680
Hoe ver die 'singularity' nog van ons
is, is heel moeilijk te voorspellen.
2345
01:57:22,840 --> 01:57:25,040
Dat is misschien nog 300 of 400 jaar.
2346
01:57:25,200 --> 01:57:27,640
Maar het kan evengoed
over tien jaar al zijn.
2347
01:57:28,360 --> 01:57:31,640
Sowieso staan er ons nog
zotte tijden te wachten.
2348
01:57:32,520 --> 01:57:34,040
Laat ons daarom, tot slot,
2349
01:57:34,200 --> 01:57:37,600
eventjes kijken waar we ons
hier en nu bevinden.
2350
01:57:38,320 --> 01:57:41,320
Ik zei in het begin: Dit is eigenlijk
alleen maar nieuwe software
2351
01:57:41,480 --> 01:57:44,240
die goed is in patroonherkenning.
Dat is ook zo.
2352
01:57:45,040 --> 01:57:47,520
Maar door die software
te trainen en bij te trainen,
2353
01:57:47,680 --> 01:57:50,640
dat te combineren met zichzelf
en zichzelf te laten trainen,
2354
01:57:50,800 --> 01:57:52,520
zijn we nu al
toepassingen aan het bouwen
2355
01:57:52,680 --> 01:57:56,320
die we amper voor mogelijk hielden.
En we zijn nog maar net begonnen.
2356
01:57:56,480 --> 01:57:58,680
We zijn letterlijk
nog maar net begonnen
2357
01:57:58,840 --> 01:58:01,920
met de mogelijkheden
van neurale netwerken te onderzoeken.
2358
01:58:02,080 --> 01:58:05,600
We zijn nog maar net binnengestapt
door dat deurtje waar 'AI' op stond.
2359
01:58:05,760 --> 01:58:07,320
En we hebben een zaklamp bij ons.
2360
01:58:07,480 --> 01:58:11,000
Die schijnt een paar meter ver.
Wat erachter ligt, weten we niet.
2361
01:58:11,920 --> 01:58:15,160
Misschien komen we snel
een muur tegen. Dat kan altijd.
2362
01:58:15,320 --> 01:58:17,280
Maar wellicht
ligt daar een enorm gebied
2363
01:58:17,440 --> 01:58:20,640
dat wij de komende jaren
gaan ontdekken.
2364
01:58:20,800 --> 01:58:22,920
De AI-revolutie is begonnen
2365
01:58:23,080 --> 01:58:25,800
en die wordt groter
dan de internetrevolutie.
2366
01:58:26,680 --> 01:58:28,000
Wat kunnen wij nu doen?
2367
01:58:28,160 --> 01:58:30,480
Ik zou zeggen,
leer het zo goed mogelijk kennen.
2368
01:58:30,640 --> 01:58:31,920
Werk eens met een AI-systeem,
2369
01:58:32,080 --> 01:58:34,520
train eens een fotoset
op Teachable Machine.
2370
01:58:34,680 --> 01:58:37,480
Dat geeft je een gevoel
van wat het is en wat het kan.
2371
01:58:37,640 --> 01:58:39,160
Als je er bang van geworden bent,
2372
01:58:39,320 --> 01:58:41,880
leer het dan zeker
zo goed mogelijk kennen.
2373
01:58:42,040 --> 01:58:43,680
Ofwel gaat dat je geruststellen,
2374
01:58:43,840 --> 01:58:47,960
en anders gaat dat je helpen
om de juiste risico's te zien.
2375
01:58:48,120 --> 01:58:50,000
Er zijn risico's aan AI.
2376
01:58:50,160 --> 01:58:53,160
Als je AI niet goed kent,
ga je verkeerde risico's zien.
2377
01:58:54,200 --> 01:58:57,440
En misschien mijn belangrijkste
advies voor de komende jaren:
2378
01:58:57,600 --> 01:58:59,200
geniet van het spektakel.
2379
01:59:00,520 --> 01:59:05,080
Er komen waanzinnige tijden aan.
Eigenlijk zijn ze al begonnen.
2380
01:59:05,600 --> 01:59:07,360
Wij mogen die meemaken.
2381
01:59:08,280 --> 01:59:12,440
Wij zijn de generatie die
erbij mag zijn terwijl het gebeurt.
2382
01:59:12,600 --> 01:59:14,960
Wij zijn de generatie
die erop mag staan kijken
2383
01:59:15,120 --> 01:59:16,560
terwijl het geboren wordt.
2384
01:59:16,720 --> 01:59:19,560
'Science
is the greatest show on earth.'
2385
01:59:19,720 --> 01:59:22,680
Zet je op de eerste rij
en 'enjoy the ride'.
2386
01:59:22,840 --> 01:59:24,160
Dank je wel.
2387
01:59:24,320 --> 01:59:26,360
(applaus)
2388
01:59:26,520 --> 01:59:27,920
Merci.
2389
01:59:29,880 --> 01:59:31,080
Dank je.
2390
01:59:32,920 --> 01:59:35,640
Thanks. Bye.
2391
01:59:51,760 --> 01:59:54,720
Dank je wel. Applausje voor Ludo.
2392
01:59:54,880 --> 01:59:57,200
(applaus en gejoel)
2393
01:59:57,760 --> 02:00:00,040
Merci. Bye.
194924
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.