All language subtitles for lieven.scheire.ai.2024.flemish.1080p.web.h264-mercator

af Afrikaans
ak Akan
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bem Bemba
bn Bengali
bh Bihari
bs Bosnian
br Breton
bg Bulgarian
km Cambodian
ca Catalan
ceb Cebuano
chr Cherokee
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English Download
eo Esperanto
et Estonian
ee Ewe
fo Faroese
tl Filipino
fi Finnish
fr French
fy Frisian
gaa Ga
gl Galician
ka Georgian
de German
el Greek
gn Guarani
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ia Interlingua
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
rw Kinyarwanda
rn Kirundi
kg Kongo
ko Korean
kri Krio (Sierra Leone)
ku Kurdish
ckb Kurdish (Soranî)
ky Kyrgyz
lo Laothian
la Latin
lv Latvian
ln Lingala
lt Lithuanian
loz Lozi
lg Luganda
ach Luo
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mfe Mauritian Creole
mo Moldavian
mn Mongolian
my Myanmar (Burmese)
sr-ME Montenegrin
ne Nepali
pcm Nigerian Pidgin
nso Northern Sotho
no Norwegian
nn Norwegian (Nynorsk)
oc Occitan
or Oriya
om Oromo
ps Pashto
fa Persian
pl Polish Download
pt-BR Portuguese (Brazil)
pt Portuguese (Portugal)
pa Punjabi
qu Quechua
ro Romanian
rm Romansh
nyn Runyakitara
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
sh Serbo-Croatian
st Sesotho
tn Setswana
crs Seychellois Creole
sn Shona
sd Sindhi
si Sinhalese
sk Slovak
sl Slovenian
so Somali
es Spanish
es-419 Spanish (Latin American)
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
tt Tatar
te Telugu
th Thai
ti Tigrinya
to Tonga
lua Tshiluba
tum Tumbuka
tr Turkish
tk Turkmen
tw Twi
ug Uighur
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
wo Wolof
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:32,960 --> 00:00:35,720 (applaus) 2 00:00:35,880 --> 00:00:37,360 Goedenavond. 3 00:00:37,520 --> 00:00:39,200 Dank je wel, dames en heren. 4 00:00:39,680 --> 00:00:42,240 Dank je wel, Ludo. Goedenavond, dames en heren. 5 00:00:42,400 --> 00:00:46,400 Welkom op mijn theatervoorstelling over artificiële intelligentie. 6 00:00:46,560 --> 00:00:49,880 Dat is het onderwerp voor vanavond, mijn nieuwe favoriete onderwerp. 7 00:00:50,040 --> 00:00:53,000 Niet toevallig, natuurlijk. Het is de nieuwe toptechnologie. 8 00:00:53,160 --> 00:00:54,920 Het kan spectaculaire dingen 9 00:00:55,080 --> 00:00:58,120 en het is steeds aanweziger in ons persoonlijke leven, 10 00:00:58,280 --> 00:01:00,520 vaak zonder dat we het zelf goed doorhebben. 11 00:01:00,680 --> 00:01:02,200 En veel mensen hebben vragen. 12 00:01:02,360 --> 00:01:04,200 Dus ik wil vanavond eventjes uitleggen 13 00:01:04,360 --> 00:01:07,080 wat artificiële intelligentie precies is, 14 00:01:07,240 --> 00:01:09,600 wat het allemaal kan, hoe het werkt 15 00:01:09,760 --> 00:01:12,800 en wat het in de nabije toekomst allemaal zal kunnen. 16 00:01:12,960 --> 00:01:15,760 Ik zei daarnet: Het is de nieuwste toptechnologie. 17 00:01:15,920 --> 00:01:17,560 Dat klopt niet helemaal. 18 00:01:17,720 --> 00:01:21,320 Artificiële intelligentie is al 68 jaar oud. 19 00:01:22,080 --> 00:01:25,000 De term is verzonnen in 1956 20 00:01:25,160 --> 00:01:29,440 op de allereerste zomerconferentie voor artificiële intelligentie. 21 00:01:29,600 --> 00:01:32,120 68 jaar onderzoek. 22 00:01:32,280 --> 00:01:35,880 En dan kan je je afvragen: Waarom heeft het zo lang geduurd 23 00:01:36,040 --> 00:01:40,680 voor we die AI-boom zagen, die AI-revolutie die we nu meemaken? 24 00:01:40,840 --> 00:01:43,040 Het antwoord daarop is vrij simpel. 25 00:01:43,200 --> 00:01:46,040 We hebben nu pas computers die krachtig genoeg zijn 26 00:01:46,200 --> 00:01:48,120 om goede AI mee te bouwen. 27 00:01:48,280 --> 00:01:51,000 En we hebben nu pas genoeg data op het internet 28 00:01:51,160 --> 00:01:53,680 om AI goed mee te kunnen trainen. 29 00:01:53,840 --> 00:01:56,960 Want als je AI probeert te bouwen met te weinig rekenkracht 30 00:01:57,120 --> 00:01:58,320 en met te weinig data, 31 00:01:58,480 --> 00:02:01,360 dan kom je niet uit op artificiële intelligentie. 32 00:02:01,520 --> 00:02:04,720 Dan kom je uit op artificiële betweterigheid. 33 00:02:04,880 --> 00:02:06,760 En dat hebben we ook geprobeerd. 34 00:02:07,520 --> 00:02:08,960 Dat zag er zo uit. 35 00:02:09,120 --> 00:02:10,960 (publiek lacht) 36 00:02:11,960 --> 00:02:15,440 Iedereen boven de 30 denkt nu: Oh nee, niet hij weer. 37 00:02:15,600 --> 00:02:17,160 (publiek lacht) 38 00:02:18,320 --> 00:02:21,560 Iedereen onder de 30 denkt nu: Is dat een Pokémon? Nee. 39 00:02:23,200 --> 00:02:24,520 Het is geen Pokémon. 40 00:02:25,160 --> 00:02:26,440 Dit is Clippy. 41 00:02:27,800 --> 00:02:30,120 Ook Clippy wou je heel graag helpen. 42 00:02:32,200 --> 00:02:34,320 En dat was eigenlijk je grootste probleem. 43 00:02:34,480 --> 00:02:35,600 (publiek lacht) 44 00:02:35,760 --> 00:02:38,280 Je was aan het typen in Word, zet drie koppeltekens op een rij: 45 00:02:38,440 --> 00:02:39,920 Clippy verschijnt. 46 00:02:40,080 --> 00:02:42,560 Die zegt: Oh, drie koppeltekens op een rij? 47 00:02:42,720 --> 00:02:45,480 Jij wilt vast een lijn over de hele pagina. 48 00:02:46,600 --> 00:02:47,680 Nee, Clippy. 49 00:02:47,840 --> 00:02:49,520 (publiek lacht) 50 00:02:49,680 --> 00:02:50,880 Dat wou ik niet. 51 00:02:52,040 --> 00:02:54,120 Dus je duwt: delete, delete, delete. 52 00:02:54,280 --> 00:02:56,560 De lijn schuift nu omhoog op de pagina. 53 00:02:57,560 --> 00:03:00,560 Je selecteert de lijn, je drukt op enter, nu heb je twee lijnen. 54 00:03:01,880 --> 00:03:04,440 Dat was AI met te weinig rekenkracht. 55 00:03:04,600 --> 00:03:08,200 En nu hebben we dus eindelijk computers die krachtig genoeg zijn 56 00:03:08,360 --> 00:03:11,560 om AI te bouwen die wel spectaculaire dingen kan doen. 57 00:03:11,720 --> 00:03:14,880 En het is spectaculair wat er gebeurt momenteel. Dat vind ik zelf ook. 58 00:03:15,040 --> 00:03:16,800 En ik ga een paar demo's geven vanavond 59 00:03:16,960 --> 00:03:20,440 die hopelijk ook voor jullie spectaculair zullen zijn. 60 00:03:20,600 --> 00:03:24,120 Maar ook al is het spectaculair, ik wil toch beginnen met die term, 61 00:03:24,280 --> 00:03:27,640 artificiële intelligentie, even met de voetjes op de grond te zetten. 62 00:03:27,800 --> 00:03:30,880 Want mensen stellen zich daar waanzinnige dingen bij voor. 63 00:03:31,040 --> 00:03:34,680 Sommige mensen denken: Artificiële intelligentie, dat zijn computers 64 00:03:34,840 --> 00:03:38,120 die kunnen nadenken en redeneren, net zoals wij. 65 00:03:38,280 --> 00:03:41,280 Of dit zijn computers die een bewustzijn hebben. 66 00:03:41,440 --> 00:03:45,120 Dat is het allemaal niet. Dus even voor de duidelijkheid, 67 00:03:45,280 --> 00:03:48,200 om het even zo droog mogelijk te zetten in het begin, 68 00:03:48,360 --> 00:03:50,320 wat is AI in één zin? 69 00:03:51,240 --> 00:03:54,920 Artificiële intelligentie is gewoon een nieuwe vorm van software 70 00:03:55,080 --> 00:03:58,200 die goed is in patroonherkenning. En dat is alles. 71 00:03:59,080 --> 00:04:02,600 Een nieuwe vorm van software die goed is in patroonherkenning. 72 00:04:02,760 --> 00:04:05,640 En patroonherkenning zijn dingen zoals gezichten herkennen, 73 00:04:05,800 --> 00:04:08,760 objecten herkennen op foto's, stemmen herkennen, 74 00:04:08,920 --> 00:04:12,080 gedragspatronen analyseren van online consumenten... 75 00:04:12,240 --> 00:04:14,400 Dat is allemaal patroonherkenning. 76 00:04:14,560 --> 00:04:17,680 De software, de gewone, klassiek geprogrammeerde software, 77 00:04:17,840 --> 00:04:19,920 waar wij al tientallen jaren mee werken, 78 00:04:20,080 --> 00:04:22,120 kan heel veel dingen supergoed, 79 00:04:22,280 --> 00:04:24,800 maar die is heel slecht in patroonherkenning. 80 00:04:24,960 --> 00:04:28,040 Klassiek geprogrammeerde software ziet er een beetje zo uit. 81 00:04:28,200 --> 00:04:30,200 Een programmeur heeft regels bedacht, 82 00:04:30,360 --> 00:04:33,040 heeft uitvoerbare stappen bedacht voor een computer, 83 00:04:33,200 --> 00:04:35,360 heeft dat opgeschreven in programmeertaal. 84 00:04:35,520 --> 00:04:37,960 De computer voert die stappen één na één uit 85 00:04:38,120 --> 00:04:40,840 en zo wordt er een taak geautomatiseerd. 86 00:04:41,000 --> 00:04:44,720 Dit is software. Die vraagt aan vijf mensen hun leeftijd 87 00:04:44,880 --> 00:04:47,040 en berekent de gemiddelde leeftijd van de vijf. 88 00:04:47,200 --> 00:04:49,760 Dat is een taak die je heel gemakkelijk kan opschrijven 89 00:04:49,920 --> 00:04:52,720 in uitvoerbare stappen voor een computer. 90 00:04:52,880 --> 00:04:56,720 Wat blijkt? Het is aartsmoeilijk om met dit soort software 91 00:04:56,880 --> 00:05:01,320 patroonherkenning te programmeren. Probeer het even voor jezelf. 92 00:05:01,480 --> 00:05:05,200 Welke stappen zou een computer één na één moeten uitvoeren 93 00:05:05,360 --> 00:05:09,440 om te kunnen besluiten of er een hond of een kat op een foto staat? 94 00:05:09,600 --> 00:05:12,120 Op gelijk welke foto van een hond of een kat. 95 00:05:12,280 --> 00:05:13,880 Dat is aartsmoeilijk. 96 00:05:14,040 --> 00:05:17,440 En dat is ons niet gelukt met dit soort software. 97 00:05:17,600 --> 00:05:21,080 En dat zie je ook aan de economie: alles is geautomatiseerd, 98 00:05:21,240 --> 00:05:24,120 behalve dingen waar patroonherkenning voor nodig is. 99 00:05:24,280 --> 00:05:26,880 Je auto wordt voor een groot stuk door robots gebouwd. 100 00:05:27,040 --> 00:05:29,000 Want die moeten altijd diezelfde voorruit 101 00:05:29,160 --> 00:05:30,720 in diezelfde carrosserie stoppen 102 00:05:30,880 --> 00:05:32,760 en dat is gemakkelijk te programmeren. 103 00:05:32,920 --> 00:05:37,840 Maar iets heel basics als fruitpluk is nog altijd mensenwerk. 104 00:05:38,000 --> 00:05:40,600 Want zonder patroonherkenning kan je niet zien 105 00:05:40,760 --> 00:05:43,360 waar de appel hangt tussen de bladeren. 106 00:05:43,520 --> 00:05:47,560 En dus wat er nu gebeurt, is: we hebben sinds een paar jaar software 107 00:05:47,720 --> 00:05:49,680 die heel goed is in patroonherkenning 108 00:05:49,840 --> 00:05:51,480 en dat is een soort nieuwe superkracht. 109 00:05:51,640 --> 00:05:53,200 We hebben dat nooit eerder gehad. 110 00:05:53,360 --> 00:05:56,880 Heel die AI-revolutie die je nu ziet, is daar het gevolg van. 111 00:05:57,040 --> 00:05:59,720 Software die goed is in patroonherkenning. 112 00:05:59,880 --> 00:06:02,480 En sinds we die nieuwe superkracht hebben, 113 00:06:02,640 --> 00:06:05,080 zijn de slimste mensen op aarde bezig 114 00:06:05,240 --> 00:06:09,800 om daarmee de grote problemen van onze samenleving op te lossen. 115 00:06:09,960 --> 00:06:13,000 Zoals bijvoorbeeld: 'Waar is Wally?' 116 00:06:13,160 --> 00:06:15,360 (publiek lacht) 117 00:06:15,520 --> 00:06:18,920 (publiek lacht luider) 118 00:06:21,280 --> 00:06:24,960 Dit is een Waar is Wally-robot. Een webcam met AI. 119 00:06:25,120 --> 00:06:28,160 Die zoekt het patroon van Wally zijn hoofd op de pagina 120 00:06:28,320 --> 00:06:31,640 en als die het gevonden heeft, zegt de robotarm: Daar is Wally. 121 00:06:31,800 --> 00:06:33,040 Want ook onze ontspanning 122 00:06:33,200 --> 00:06:35,960 wordt blijkbaar geautomatiseerd in de toekomst. 123 00:06:36,440 --> 00:06:39,920 20 jaar geleden kon geen enkel softwarebedrijf dit voor je bouwen. 124 00:06:40,080 --> 00:06:43,120 Vandaag kan je dat zelf maken aan je eigen keukentafel. 125 00:06:43,280 --> 00:06:44,440 Ik ga je straks leren hoe. 126 00:06:44,600 --> 00:06:47,360 Heel gemakkelijk. Als je absoluut een Waar is Wally-robot wilt, 127 00:06:47,520 --> 00:06:51,560 ga ik je straks leren hoe je dat zelf kan zonder al te veel programmeren. 128 00:06:51,720 --> 00:06:52,800 Maar goed, dat is het dus. 129 00:06:52,960 --> 00:06:56,040 We hebben een nieuwe superkracht in de software: patroonherkenning. 130 00:06:56,200 --> 00:06:58,760 En alles wat je ziet, heel die AI-revolutie, 131 00:06:58,920 --> 00:07:00,040 is daar een gevolg van. 132 00:07:00,200 --> 00:07:02,840 Dat is enorm veel aan het veranderen op wereldschaal. 133 00:07:03,000 --> 00:07:05,800 Amerika en China kijken heel nerveus naar elkaar. 134 00:07:05,960 --> 00:07:09,000 Ze zijn alle twee bang dat de andere AI-dominant zal worden, 135 00:07:09,160 --> 00:07:11,920 dus veel betere AI zal hebben dan de concurrentie. 136 00:07:12,080 --> 00:07:15,440 Militair wordt er AI getest. In Oekraïne op dit moment 137 00:07:15,600 --> 00:07:19,360 worden splinternieuwe AI-toepassingen militair getest. 138 00:07:19,520 --> 00:07:22,080 Het gaat socio-economisch veel veranderen. 139 00:07:22,240 --> 00:07:24,840 Er gaan jobs verschuiven. Er gaan jobs veranderen. 140 00:07:25,000 --> 00:07:29,520 Wij gaan moeten herdenken hoe we onze samenleving en ons werk inrichten. 141 00:07:29,680 --> 00:07:33,440 Maar AI komt ook gewoon binnen in je persoonlijke leven. 142 00:07:33,600 --> 00:07:38,320 Wij hebben AI elke dag bij ons in de nabije toekomst. 143 00:07:38,480 --> 00:07:42,440 De AI in je broekzak. En laat ons daar beginnen. 144 00:07:42,600 --> 00:07:43,720 Bij de AI in je broekzak. 145 00:07:43,880 --> 00:07:47,680 Als ik zeg 'AI in je broekzak', bedoel ik natuurlijk je smartphone. 146 00:07:48,320 --> 00:07:53,360 En je smartphone is eigenlijk een technologisch mirakel. 147 00:07:53,520 --> 00:07:56,400 Dat is een onwaarschijnlijk apparaat 148 00:07:56,560 --> 00:07:59,080 waar wij heel snel gewoon aan zijn geworden. 149 00:07:59,240 --> 00:08:03,800 Maar ik ga het even illustreren. Als je teruggaat naar 1969, 150 00:08:03,960 --> 00:08:08,320 het jaar van de eerste mensen op de maan, de Apollo 11-missie, 151 00:08:08,480 --> 00:08:11,760 en als je alle rekenkracht van Apollo 11 samentelt... 152 00:08:11,920 --> 00:08:15,360 En dan bedoel ik twee supercomputers in de raket 153 00:08:15,520 --> 00:08:19,680 en het volledige serverpark van de NASA op aarde in Houston. 154 00:08:19,840 --> 00:08:22,960 Alle rekenkracht nodig voor Apollo 11 opgeteld... 155 00:08:24,160 --> 00:08:27,200 Jouw smartphone is 100.000 keer krachtiger. 156 00:08:27,960 --> 00:08:30,320 En wij gebruiken dat om fruitsnoepjes op een rij te zetten 157 00:08:30,480 --> 00:08:31,640 tot ze ontploffen. 158 00:08:31,800 --> 00:08:32,880 (publiek lacht) 159 00:08:33,040 --> 00:08:35,000 Dat is de menselijke vooruitgang. 160 00:08:37,240 --> 00:08:40,600 Maar omdat wij zo'n krachtige computer bij ons dragen heel de dag 161 00:08:40,760 --> 00:08:43,000 en omdat die AI-toepassingen zo goed geworden zijn, 162 00:08:43,160 --> 00:08:47,360 kan je vandaag dus AI-apps downloaden. Vaak gratis apps 163 00:08:47,520 --> 00:08:50,240 die met artificiële intelligentie waanzinnige dingen doen. 164 00:08:50,400 --> 00:08:53,760 Ik ga er eens een telefoon bij halen, dan kan ik er een paar demonstreren. 165 00:08:53,920 --> 00:08:57,720 Dag, Ludo. Mag ik mijn telefoon, alsjeblieft? Dank je wel, Ludo. 166 00:08:57,880 --> 00:08:59,960 Ja, voilà. Ja. (applaus) 167 00:09:00,120 --> 00:09:01,240 Ja, ja. 168 00:09:04,840 --> 00:09:07,800 De eerste generatie AI-apps deden aan patroonherkenning. 169 00:09:07,960 --> 00:09:09,960 Die gingen een patroon zoeken en dat herkennen. 170 00:09:10,120 --> 00:09:13,400 Je hebt apps waarmee je foto's neemt van planten en dieren 171 00:09:13,560 --> 00:09:16,360 en die zeggen je onmiddellijk welke plant of welk dier dat is. 172 00:09:16,800 --> 00:09:20,160 Je hebt een app waarmee je in het bos vogelgeluiden kan opnemen 173 00:09:20,320 --> 00:09:23,440 en die app luistert mee en geeft je een lijst van alle vogels 174 00:09:23,600 --> 00:09:25,480 die op dat moment te horen zijn. 175 00:09:25,640 --> 00:09:28,880 Maar de nieuwe generatie AI-apps gaan niet gewoon een patroon herkennen, 176 00:09:29,040 --> 00:09:31,520 die gaan er daarna nog extra bewerkingen mee uitvoeren 177 00:09:31,680 --> 00:09:33,440 en doorgeven aan volgende software. 178 00:09:33,600 --> 00:09:36,200 En zo ontstaan er magische toepassingen. 179 00:09:36,360 --> 00:09:38,640 Ik ga eens eentje opendoen. Daar is mijn telefoon. 180 00:09:38,800 --> 00:09:40,200 Ik ga beginnen met Photomath. 181 00:09:40,360 --> 00:09:42,640 Die staat helemaal rechts in het midden, die rode app. 182 00:09:42,800 --> 00:09:46,040 En als je die opent, begint die gewoon de omgeving te filmen. 183 00:09:46,200 --> 00:09:48,000 Voilà, daar zijn jullie allemaal. 184 00:09:48,160 --> 00:09:50,360 Zwaai maar eens naar de AI, natuurlijk. 185 00:09:51,200 --> 00:09:53,800 Altijd vriendelijk zijn tegen AI. 186 00:09:53,960 --> 00:09:56,400 Op een dag zijn ze de baas. Dus... 187 00:09:56,560 --> 00:09:58,720 Die app filmt gewoon de zaal. 188 00:09:58,880 --> 00:10:01,840 Maar stel je voor: je zit in de wiskundeles 189 00:10:02,000 --> 00:10:04,880 en er verschijnt een pittige integraal op het schoolbord. 190 00:10:05,720 --> 00:10:08,720 Wat doe je dan? Je richt je camera op die integraal 191 00:10:08,880 --> 00:10:11,000 en je neemt daar een foto van. Zo, huppakee. 192 00:10:11,160 --> 00:10:13,720 Bliep, bliep, bliep. De integraal is opgelost. 193 00:10:13,880 --> 00:10:16,120 (publiek lacht) 194 00:10:16,480 --> 00:10:17,600 Dat is leuk. 195 00:10:18,520 --> 00:10:19,840 Wie zit er nog in het middelbaar? 196 00:10:20,000 --> 00:10:21,000 (publiek lacht) 197 00:10:21,160 --> 00:10:22,760 Jeej. 198 00:10:23,600 --> 00:10:25,760 Wie geeft er les in het middelbaar? 199 00:10:25,920 --> 00:10:27,520 Jeej. 200 00:10:28,960 --> 00:10:32,720 Wat moet je in godsnaam doen als leerkracht wiskunde vandaag de dag, 201 00:10:32,880 --> 00:10:34,880 nu er een gratis app is die in één seconde 202 00:10:35,040 --> 00:10:38,440 alle taken van een huiswerk oplost? Wat moet je doen? 203 00:10:39,560 --> 00:10:42,320 Gelukkig zijn leerkrachten wiskunde slim genoeg. 204 00:10:42,480 --> 00:10:44,640 En die weten: als ik een huistaak geef vandaag, 205 00:10:44,800 --> 00:10:46,520 moet ik altijd eisen dat de leerlingen 206 00:10:46,680 --> 00:10:48,880 alle logische tussenstappen opschrijven. 207 00:10:49,040 --> 00:10:51,240 Dan weet ik zeker dat ze zelf nagedacht hebben. 208 00:10:52,080 --> 00:10:55,320 Als ik op dit rode knopje duw, krijg ik alle logische... 209 00:10:55,480 --> 00:10:57,520 (publiek lacht) 210 00:10:57,680 --> 00:11:00,640 (applaus) 211 00:11:03,000 --> 00:11:05,000 Ik vind het een toffe app. 212 00:11:05,160 --> 00:11:08,200 Hij komt 30 jaar te laat, maar ik ben fan. Sowieso. 213 00:11:08,800 --> 00:11:10,280 Is dit een ramp voor ons onderwijs? 214 00:11:10,440 --> 00:11:13,520 Gaan onze leerlingen nu immens veel dommer worden? Ik weet het niet. 215 00:11:13,680 --> 00:11:16,840 Je kunt die app gebruiken om het hele jaar vals te spelen op je huiswerk. 216 00:11:17,000 --> 00:11:19,760 Je komt op je examen, je snapt er niks van en je buist. 217 00:11:19,920 --> 00:11:22,160 Je kunt die app ook gebruiken doorheen het jaar, 218 00:11:22,320 --> 00:11:24,800 als je een opgave niet snapt en je krijgt ze niet opgelost, 219 00:11:24,960 --> 00:11:26,320 om te vragen hoe het moet, 220 00:11:26,480 --> 00:11:28,640 extra uitleg te vragen bij al die tussenstappen 221 00:11:28,800 --> 00:11:30,480 en daardoor beter in wiskunde te worden. 222 00:11:30,640 --> 00:11:33,000 Dat is een van de vele voorbeelden van technologie 223 00:11:33,160 --> 00:11:36,600 die ons de keuze geven of we er slimmer of dommer van worden. 224 00:11:36,760 --> 00:11:39,520 Kies wijs, jongeren. Kies wijs. 225 00:11:40,200 --> 00:11:42,160 Ik ga naar een volgende app: Google Translate. 226 00:11:42,320 --> 00:11:43,600 Dat is een heel bekende app. 227 00:11:43,760 --> 00:11:45,800 Die ziet er zo uit en je hebt zo'n tekstveldje. 228 00:11:45,960 --> 00:11:48,160 Je tikt daar iets in en dan kun je vragen aan die app: 229 00:11:48,320 --> 00:11:51,840 Vertaal dat eens van het Frans naar het Nederlands. Bestaat al lang. 230 00:11:52,000 --> 00:11:54,680 Maar nu zit er ook AI in de Google Translate-app. 231 00:11:54,840 --> 00:11:57,720 En die zit in die icoontjes die je onderaan ziet staan. 232 00:11:57,880 --> 00:12:00,040 Je hebt daar bijvoorbeeld zo'n camera-icoontje. 233 00:12:00,200 --> 00:12:04,400 En als je daarop tikt, gaat die app weer doodgewoon de omgeving filmen. 234 00:12:04,560 --> 00:12:08,480 En stel je voor: je bent op reis in Frankrijk. 235 00:12:08,640 --> 00:12:10,200 En je spreekt geen Frans. 236 00:12:11,200 --> 00:12:13,360 Want je bent een Hollander, bijvoorbeeld. 237 00:12:13,520 --> 00:12:15,000 (publiek lacht) 238 00:12:15,160 --> 00:12:18,400 Dan kan je gewoon met je telefoon de omgeving filmen 239 00:12:18,560 --> 00:12:21,160 en in je beeld verschijnt alles in het Nederlands. 240 00:12:22,240 --> 00:12:24,200 Die herkent die tekst, herkent die taal 241 00:12:24,360 --> 00:12:26,640 en projecteert dat in je gewenste taal 242 00:12:26,800 --> 00:12:29,200 op dezelfde plek, in dezelfde kleur. 243 00:12:30,280 --> 00:12:32,640 Goed, ik denk dat de meesten van ons wel Frans spreken. 244 00:12:32,800 --> 00:12:35,520 Die app is nog toffer als je in Japan op reis bent. 245 00:12:36,280 --> 00:12:39,080 Je kunt niet eens die tekens lezen. Je filmt dat met je telefoon 246 00:12:39,240 --> 00:12:41,440 en meteen verschijnt dat in het Nederlands. 247 00:12:41,600 --> 00:12:44,160 Over vijf kilometer begint de autosnelweg. 248 00:12:44,560 --> 00:12:47,000 Zeer handige app als je op reis bent. 249 00:12:47,160 --> 00:12:49,240 In Hongarije, je kunt de menukaart niet lezen. 250 00:12:49,400 --> 00:12:50,960 Gewoon filmen met de telefoon. 251 00:12:51,120 --> 00:12:53,640 Je leest een boek in het Duits, er is een stuk dat je niet snapt. 252 00:12:53,800 --> 00:12:57,400 Filmen met je telefoon en in je beeld staat alles in het Nederlands. 253 00:12:57,560 --> 00:12:59,920 Je hebt daar nog een paar andere icoontjes gezien. 254 00:13:00,080 --> 00:13:02,960 Er is bijvoorbeeld een microfoonicoontje onderaan die app. 255 00:13:03,120 --> 00:13:06,320 Als je daarop tikt, kan je Nederlands spreken tegen je telefoon, 256 00:13:06,480 --> 00:13:08,400 die neemt dat op en spreekt dat opnieuw uit, 257 00:13:08,560 --> 00:13:10,160 bijvoorbeeld in het Japans. 258 00:13:10,320 --> 00:13:13,320 Je gesprekspartner antwoordt in het Japans, je telefoon neemt dat op 259 00:13:13,480 --> 00:13:16,000 en die spreekt dat opnieuw uit in het Nederlands. 260 00:13:16,160 --> 00:13:20,560 Je hebt een gratis simultaantolk in je binnenzak zitten 261 00:13:20,720 --> 00:13:23,960 dankzij de AI van die Google Translate-app. 262 00:13:24,120 --> 00:13:27,960 AI is heel veel aan het veranderen, ook in de vertalingssoftware. 263 00:13:28,120 --> 00:13:31,440 Vroeger werden teksten vertaald met geprogrammeerde regels 264 00:13:31,600 --> 00:13:34,240 en dan kregen we die heel kromme Google Translate-zinnen. 265 00:13:34,400 --> 00:13:37,120 Vandaag gebeurt de vertaling door AI-systemen. 266 00:13:37,280 --> 00:13:40,360 AI kan gesproken woorden omzetten in tekst, 267 00:13:40,520 --> 00:13:42,640 kan tekst vertalen naar een andere taal 268 00:13:42,800 --> 00:13:45,600 en kan die nieuwe tekst opnieuw uitspreken met een computerstem. 269 00:13:45,760 --> 00:13:49,040 En het typische geluid van je eigen stem, dat is ook een patroon. 270 00:13:49,200 --> 00:13:52,640 AI kan dat analyseren en kan dat daarna nabootsen. 271 00:13:52,800 --> 00:13:55,360 En AI kan ook videobewerking doen. 272 00:13:55,520 --> 00:13:59,320 En als je dat allemaal combineert, kan je toffe trucjes uithalen. 273 00:13:59,920 --> 00:14:02,120 Voor jullie hier waren, een uurtje geleden, 274 00:14:02,280 --> 00:14:05,080 stond ik hier op het podium en heb ik dit filmpje opgenomen. 275 00:14:05,240 --> 00:14:08,360 Wat we daar precies mee gaan doen, dat vertel ik jullie straks. 276 00:14:09,920 --> 00:14:12,080 Goedenavond, dames en heren in Brugge. 277 00:14:12,240 --> 00:14:14,640 En ook aan de mensen die thuis aan het kijken zijn. 278 00:14:14,800 --> 00:14:18,240 Ik sta hier dus in Brugge, de mooiste stad van België. 279 00:14:18,400 --> 00:14:20,240 Na Gent, natuurlijk. 280 00:14:20,400 --> 00:14:23,560 Ik ben hier voor mijn voorstelling over artificiële intelligentie 281 00:14:23,720 --> 00:14:25,360 die ik straks voor jullie ga spelen 282 00:14:25,520 --> 00:14:28,160 als jullie hier binnenkomen in de zaal vanavond. 283 00:14:28,320 --> 00:14:31,080 En ik kan daar heel veel demonstraties mee geven, 284 00:14:31,240 --> 00:14:34,080 want er worden heel veel toepassingen gemaakt voor AI 285 00:14:34,240 --> 00:14:36,680 waarmee ik leuke demo's kan geven in de zaal. 286 00:14:36,840 --> 00:14:39,880 En ik ga zo'n demo geven met dit filmpje hier. 287 00:14:40,040 --> 00:14:43,280 Wat ik daar precies mee ga doen? Dat vertel ik jullie nu. 288 00:14:44,680 --> 00:14:46,160 Voilà, dat heb ik opgenomen. 289 00:14:46,320 --> 00:14:49,040 En dan heb ik dat geüpload naar een website. Die heet HeyGen. 290 00:14:49,200 --> 00:14:52,960 Ik heb gevraagd aan die website: Zet dat filmpje nu eens in het Frans. 291 00:14:53,120 --> 00:14:55,560 Spreek alles wat ik gezegd heb opnieuw uit in het Frans, 292 00:14:55,720 --> 00:14:59,080 maar imiteer mijn stem, zodat het mijn stem is die Frans spreekt. 293 00:14:59,240 --> 00:15:01,760 En als je bezig bent, pas dan ook de lipbewegingen aan, 294 00:15:01,920 --> 00:15:04,600 zodat ze beter lijken op de lipbewegingen die gemaakt worden 295 00:15:04,760 --> 00:15:06,160 bij die Franse tekst. 296 00:15:06,320 --> 00:15:08,280 Die website heeft tien minuten gerekend. 297 00:15:08,680 --> 00:15:11,000 Tien minuten. En toen kwam dit terug. 298 00:15:13,280 --> 00:15:17,720 Goedenavond, dames en heren in Brugge. En ook aan zij die thuis kijken. 299 00:15:17,880 --> 00:15:19,440 Ik ben hier dus in Brugge. 300 00:15:19,600 --> 00:15:23,840 De mooiste stad van België, in de richting van Gent natuurlijk. 301 00:15:24,000 --> 00:15:27,280 Ik ben hier voor mijn show over artificiële intelligentie 302 00:15:27,440 --> 00:15:31,440 die ik voor jullie ga spelen als jullie vanavond de zaal binnenkomen. 303 00:15:31,600 --> 00:15:34,040 Ik kan veel demo's geven over dit onderwerp. 304 00:15:34,200 --> 00:15:36,680 Want er zijn veel applicaties gemaakt voor AI 305 00:15:36,840 --> 00:15:39,960 waarmee ik wat mooie demo's kan geven in de zaal. 306 00:15:40,120 --> 00:15:42,840 Ik zal een demonstratie doen met deze video. 307 00:15:43,000 --> 00:15:46,360 Wat ik daarmee ga doen, zal ik jullie nu zeggen. 308 00:15:47,200 --> 00:15:48,200 (applaus) 309 00:15:48,360 --> 00:15:49,880 Wat is dat? Wat? 310 00:15:50,640 --> 00:15:52,080 Ja, maar... 311 00:15:54,520 --> 00:15:56,920 Dank je wel, maar ik heb niks gedaan. 312 00:15:57,360 --> 00:16:00,880 Wat is dit? Wat voor hekserij is dat? 313 00:16:01,040 --> 00:16:03,200 Er zat ook een vertaalfout in. Heb je ze gehoord? 314 00:16:03,360 --> 00:16:06,920 Mooiste stad, na Gent. 'Plus belle ville en direction de Gand.' 315 00:16:07,080 --> 00:16:08,600 (publiek lacht) 316 00:16:08,760 --> 00:16:11,760 Maar dit is dus op tien minuten zonder menselijke interactie 317 00:16:11,920 --> 00:16:15,640 volledig zelfstandig uitgerekend door een AI-systeem. 318 00:16:15,800 --> 00:16:19,480 Het is waanzinnig hoe goed die dingen geworden zijn. 319 00:16:19,640 --> 00:16:21,560 En dit gaat natuurlijk heel wat veranderen 320 00:16:21,720 --> 00:16:23,480 voor bepaalde beroepsgroepen. 321 00:16:23,640 --> 00:16:26,360 Denk even aan de landen waar films gedubd worden. 322 00:16:27,240 --> 00:16:29,880 Die acteurs die films dubben in Italië? 323 00:16:30,040 --> 00:16:33,280 Heel die beroepsgroep is over een paar jaar weg. 324 00:16:33,440 --> 00:16:36,360 De volgende James Bondfilm zal waarschijnlijk niet gedubd worden, 325 00:16:36,520 --> 00:16:39,400 maar uitgesproken worden in de originele stem van de acteur 326 00:16:39,560 --> 00:16:42,480 met aangepaste lipbewegingen in het Italiaans. 327 00:16:43,360 --> 00:16:46,080 Alle gevolgen van simpelweg patroonherkenning 328 00:16:46,240 --> 00:16:49,960 gaan dus heel veel veranderen op heel veel verschillende gebieden 329 00:16:50,120 --> 00:16:51,640 in onze wereld. 330 00:16:51,800 --> 00:16:53,560 Waarom hebben wij nu zo lang moeten wachten 331 00:16:53,720 --> 00:16:56,080 op software die goed is in patroonherkenning? 332 00:16:56,240 --> 00:16:58,960 Ik heb daarnet gezegd: Onze klassiek geprogrammeerde software, 333 00:16:59,120 --> 00:17:00,840 daar kan je heel veel dingen mee doen, 334 00:17:01,000 --> 00:17:04,080 maar die is heel slecht in patroonherkenning. 335 00:17:04,240 --> 00:17:07,600 Het gekke is wel dat je hier op aarde al heel lang 336 00:17:07,760 --> 00:17:11,720 een paar supergoeie patroonherkenningsmachines kan vinden 337 00:17:11,880 --> 00:17:14,040 en dat zijn menselijke hersenen. 338 00:17:14,200 --> 00:17:17,000 Ons brein is fantastisch goed in patroonherkenning. 339 00:17:17,160 --> 00:17:21,000 Meer zelfs: dat is de belangrijkste taak van onze hersenen. 340 00:17:21,160 --> 00:17:24,760 Patroonherkenning. Vanaf een kind geboren wordt, is dat wat die doen. 341 00:17:24,920 --> 00:17:26,280 Die gaan gezichten herkennen, 342 00:17:26,440 --> 00:17:28,560 objecten herkennen en die een naam geven. 343 00:17:28,720 --> 00:17:31,200 Die gaan stemmen herkennen, situaties herkennen. 344 00:17:31,360 --> 00:17:33,640 Allemaal patroonherkenning. 345 00:17:33,800 --> 00:17:37,400 De reden dat ons hoofd zo goed is in patroonherkenning, 346 00:17:37,560 --> 00:17:40,240 is omdat het totaal anders werkt dan dit. 347 00:17:40,400 --> 00:17:43,280 Wij hebben geen logische regeltjes in ons hoofd 348 00:17:43,440 --> 00:17:46,600 die één na één uitgevoerd worden. Ons hoofd werkt anders. 349 00:17:46,760 --> 00:17:52,720 Onze hersenen zijn één grote spons van 80 miljard hersencellen. 350 00:17:52,880 --> 00:17:56,920 Tien keer meer hersencellen in je hoofd dan er mensen op aarde zijn. 351 00:17:57,720 --> 00:18:00,880 Die hersencellen zitten samen en hebben verbindingen met elkaar. 352 00:18:01,040 --> 00:18:04,480 Dus zo ziet dat eruit. Elke knooppunt is een hersencel of een neuron. 353 00:18:04,640 --> 00:18:06,240 En die hebben tentakeltjes 354 00:18:06,400 --> 00:18:09,240 waarmee ze verbinding maken met sommige andere hersencellen 355 00:18:09,400 --> 00:18:13,200 en langs die tentakels kunnen ze andere hersencellen activeren 356 00:18:13,360 --> 00:18:15,080 als ze zelf actief zijn. 357 00:18:15,240 --> 00:18:17,600 Linksonder worden drie hersencellen actief. 358 00:18:17,760 --> 00:18:20,560 Via die uitsteeksels gaan ze sommige andere hersencellen 359 00:18:20,720 --> 00:18:22,480 in het brein aanzetten. 360 00:18:23,200 --> 00:18:26,600 Een heel simpel principe. Een netwerk van knooppunten 361 00:18:26,760 --> 00:18:29,120 die via sterkere en minder sterke verbindingen 362 00:18:29,280 --> 00:18:32,520 andere knooppunten kunnen activeren. En wat blijkt? 363 00:18:32,680 --> 00:18:36,080 Daaruit volgt bijna vanzelf patroonherkenning. 364 00:18:37,040 --> 00:18:38,640 Ik ga je even een voorbeeld geven. 365 00:18:38,800 --> 00:18:44,160 Veel mensen herinneren zich zo een specifieke geur uit hun kindertijd. 366 00:18:44,320 --> 00:18:47,800 Zodra die geur op een onbewaakt moment binnenwaait in je neus, 367 00:18:47,960 --> 00:18:50,840 komt er een enorm sterke herinnering naar boven. 368 00:18:51,000 --> 00:18:53,280 In mijn geval: de refter van de kleuterklas. 369 00:18:54,040 --> 00:18:57,360 Je ruikt dat en onmiddellijk komt die herinnering naar boven. 370 00:18:57,520 --> 00:19:01,600 Wat er dan gebeurt in je hoofd, is exact dit. 371 00:19:02,440 --> 00:19:05,800 Laat ons zeggen dat die drie neuronen linksonder verbonden zijn met je neus 372 00:19:05,960 --> 00:19:08,520 en die worden vanzelf geactiveerd door die geur. 373 00:19:08,680 --> 00:19:12,760 En al die neuronen rechts werden geactiveerd door die situatie 374 00:19:12,920 --> 00:19:15,720 waarin je die geur vroeger vaak geroken hebt. 375 00:19:15,880 --> 00:19:18,960 Wat is er gebeurd? In je kindertijd heb je die geur en die situatie 376 00:19:19,120 --> 00:19:22,400 heel vaak samen meegemaakt. Die hersencellen waren samen actief 377 00:19:22,560 --> 00:19:24,960 en daarom hebben die verbinding gelegd met elkaar. 378 00:19:25,120 --> 00:19:29,240 Neuronen die samen actief zijn in het brein, proberen verbinding te leggen. 379 00:19:29,400 --> 00:19:33,080 In de neurologie zeggen ze: 'Fire together is wire together.' 380 00:19:33,240 --> 00:19:34,600 Wat is het gevolg daarvan? 381 00:19:34,760 --> 00:19:37,640 Als je later in je leven opnieuw die geur ruikt, 382 00:19:37,800 --> 00:19:40,240 gaan die neuronen via die getrainde verbindingen 383 00:19:40,400 --> 00:19:43,560 ook die neuronen van die herinnering aanzetten. 384 00:19:43,720 --> 00:19:47,600 Er volgt vanzelf patroonherkenning uit dit systeem. 385 00:19:48,560 --> 00:19:50,560 Daarom dachten de computerwetenschappers: 386 00:19:50,720 --> 00:19:54,240 Als wij het zo moeilijk hebben met patroonherkenning in onze software 387 00:19:54,400 --> 00:19:57,080 en die structuur werkt daar zo goed voor, 388 00:19:57,240 --> 00:20:00,640 dan moeten wij misschien proberen om deze structuur, 389 00:20:00,800 --> 00:20:06,320 een netwerk van knooppunten, na te programmeren in software. 390 00:20:06,480 --> 00:20:09,040 Dat hebben ze gedaan en dat ziet er zo uit. 391 00:20:09,920 --> 00:20:13,880 Dit is een neuraal netwerk zoals het geprogrammeerd is in de computer. 392 00:20:14,040 --> 00:20:16,800 Het heet in de softwarewereld ook een neuraal netwerk, 393 00:20:16,960 --> 00:20:20,600 genoemd naar onze hersenen. Wat zien we hier nu precies staan? 394 00:20:20,760 --> 00:20:23,280 Helemaal links zie je allemaal eentjes en nulletjes. 395 00:20:23,440 --> 00:20:25,040 Dat is een computerbestand. 396 00:20:25,200 --> 00:20:28,160 Een digitaal computerbestand. Dat bestaat uit eentjes en nulletjes. 397 00:20:28,320 --> 00:20:31,120 Dat kan bijvoorbeeld een digitale afbeelding zijn. 398 00:20:31,280 --> 00:20:34,560 Elk van die eentjes en nulletjes zou je kunnen beschouwen 399 00:20:34,720 --> 00:20:37,760 als een hersencel die aanstaat of uitstaat. 400 00:20:37,920 --> 00:20:41,640 En vanaf daar programmeer je allemaal verbindingen, sterkere en zwakkere, 401 00:20:41,800 --> 00:20:43,080 naar een nieuwe rij neuronen. 402 00:20:43,240 --> 00:20:45,160 Die neuronen die aanstaan in die eerste rij 403 00:20:45,320 --> 00:20:47,840 gaan via die verbinding sommige neuronen activeren 404 00:20:48,000 --> 00:20:49,640 in die software in de tweede rij. 405 00:20:49,800 --> 00:20:53,520 En die gaan weer neuronen activeren in de derde rij en in de vierde rij. 406 00:20:53,680 --> 00:20:57,240 En wat is het uiteindelijke doel van dit neurale netwerk? 407 00:20:57,400 --> 00:21:00,040 Dat het kan zien of er een hond of een kat staat 408 00:21:00,200 --> 00:21:04,320 op de digitale afbeelding die je daar ingevoerd hebt in de eerste rij. 409 00:21:04,480 --> 00:21:08,120 Als je dit allemaal programmeert en je start dat programma op, 410 00:21:08,280 --> 00:21:09,960 dan gebeurt er helemaal niks. 411 00:21:10,920 --> 00:21:13,200 Want je software is niet getraind. 412 00:21:13,360 --> 00:21:16,800 Een neuraal netwerk kan niets als het niet getraind is. 413 00:21:16,960 --> 00:21:18,320 Je moet dat eerst trainen 414 00:21:18,480 --> 00:21:22,040 door dat heel veel afbeeldingen te tonen van honden en katten 415 00:21:22,200 --> 00:21:24,080 en daar telkens heel duidelijk bij te zeggen: 416 00:21:24,240 --> 00:21:26,080 Dit is een hond en dit is een kat. 417 00:21:26,240 --> 00:21:30,280 Dus ik toon dat neurale netwerk een afbeelding van een kat. 418 00:21:30,440 --> 00:21:33,600 Ik zeg daar heel duidelijk bij: Dit is een kat. 419 00:21:33,760 --> 00:21:37,840 Die twee kanten zijn samen actief en die software gaat op basis daarvan 420 00:21:38,000 --> 00:21:41,800 bepaalde verbindingen in dat netwerk sterker en zwakker maken. 421 00:21:41,960 --> 00:21:43,760 Net zoals in je kindertijd. 422 00:21:43,920 --> 00:21:47,440 Die geur en die situatie waren samen actief in je hoofd 423 00:21:47,600 --> 00:21:50,240 en die hebben verbinding gelegd met elkaar. 424 00:21:50,400 --> 00:21:52,280 Eén foto is niet genoeg om het te trainen. 425 00:21:52,440 --> 00:21:55,400 Dus ik toon nog een foto van een kat en zeg daar weer duidelijk bij: 426 00:21:55,560 --> 00:21:58,120 Dit is een kat. Die twee kanten zijn samen actief 427 00:21:58,280 --> 00:22:00,120 en die software gaat bepaalde verbindingen 428 00:22:00,280 --> 00:22:02,840 sterker en zwakker maken in dat netwerk. 429 00:22:03,000 --> 00:22:04,800 Ik toon ook eens een foto van een hond. 430 00:22:04,960 --> 00:22:07,560 Ik zeg daar heel duidelijk bij: Dit is dus een hond. 431 00:22:07,720 --> 00:22:09,120 Die twee kanten zijn samen actief 432 00:22:09,280 --> 00:22:11,160 en de software gaat weer nieuwe verbindingen 433 00:22:11,320 --> 00:22:13,280 sterker en zwakker maken in dat netwerk. 434 00:22:13,440 --> 00:22:17,600 En bij elk van die stappen. wordt dit netwerk beter aangepast 435 00:22:17,760 --> 00:22:20,320 om te reageren met het woord 'kat' op een foto van een kat 436 00:22:20,480 --> 00:22:22,800 en met het woord 'hond' op een foto van een hond. 437 00:22:22,960 --> 00:22:28,280 Als je dit duizenden keren gedaan hebt met duizenden trainingsfoto's, 438 00:22:28,440 --> 00:22:31,440 dan kan je testen of het netwerk al werkt. 439 00:22:31,600 --> 00:22:34,440 En dat doe je door het een nieuwe foto te laten zien van een kat 440 00:22:34,600 --> 00:22:38,400 die het nog nooit gezien heeft, maar dit keer verklap je daar niks bij. 441 00:22:38,560 --> 00:22:40,920 Je toont die foto zonder te zeggen wat erop staat 442 00:22:41,080 --> 00:22:44,080 en die beginneuronen gaan via die getrainde verbindingen 443 00:22:44,240 --> 00:22:46,000 de rest van het netwerk activeren. 444 00:22:46,160 --> 00:22:49,520 En als alles goed gaat, zegt dat netwerk vanzelf: 445 00:22:49,680 --> 00:22:51,680 Dit is hoogstwaarschijnlijk een kat. 446 00:22:53,120 --> 00:22:56,960 Je hebt de structuur van hersenen nageprogrammeerd in software 447 00:22:57,120 --> 00:22:59,000 en je hebt die getraind tot die reageert 448 00:22:59,160 --> 00:23:00,920 met het woord 'kat' op foto's van een kat 449 00:23:01,080 --> 00:23:03,320 en met het woord 'hond' op foto's van een hond. 450 00:23:03,480 --> 00:23:06,400 En wat blijkt? Dit werkt fantastisch goed. 451 00:23:07,360 --> 00:23:10,440 Neurale netwerken in software zijn heel goed geschikt 452 00:23:10,600 --> 00:23:12,800 om objecten te herkennen op foto's. 453 00:23:12,960 --> 00:23:15,920 We hebben zo neurale netwerken getraind die katten kunnen herkennen 454 00:23:16,080 --> 00:23:19,680 en die honden kunnen herkennen, en nijlpaarden en strandfoto's 455 00:23:19,840 --> 00:23:23,480 en zeilbootjes en Calippo-ijsjes en alles wat je wilt. 456 00:23:23,640 --> 00:23:27,760 En als je die allemaal samenpropt tot één enorm neuraal netwerk 457 00:23:27,920 --> 00:23:31,760 van miljoenen knooppunten, dan heb je objectherkenningssoftware. 458 00:23:31,920 --> 00:23:34,520 Objectherkenningssoftware is een computerprogramma 459 00:23:34,680 --> 00:23:37,280 en daar laat je een foto aan zien en dat programma zegt vanzelf: 460 00:23:37,440 --> 00:23:39,320 Ik zie een straat en er staat een vrachtwagen. 461 00:23:39,480 --> 00:23:42,840 En ik zie een lantaarnpaal en er zit een vogel in een boom, enzovoort. 462 00:23:43,000 --> 00:23:44,880 Die software bestaat nu. 463 00:23:45,040 --> 00:23:47,920 En wij hebben allemaal een supercomputer in onze binnenzak. 464 00:23:48,080 --> 00:23:49,080 Dus dan denk ik: 465 00:23:49,240 --> 00:23:52,560 Waarschijnlijk komt die objectherkenningssoftware binnenkort 466 00:23:52,720 --> 00:23:54,480 op onze telefoon terecht. 467 00:23:54,640 --> 00:23:58,520 En vanaf dan gaat je telefoon weten wat er op je foto staat 468 00:23:58,680 --> 00:24:00,040 die je zelf genomen hebt. 469 00:24:01,960 --> 00:24:05,880 Het zou natuurlijk ook kunnen dat die software nu al op je telefoon staat. 470 00:24:06,640 --> 00:24:08,400 Zullen we dat misschien eens testen? 471 00:24:09,200 --> 00:24:12,400 Als je een telefoon bij je hebt, mag je die nu bovenhalen. 472 00:24:12,560 --> 00:24:17,160 Haal je smartphone er maar bij en open eens je fotomap. 473 00:24:17,320 --> 00:24:20,720 Je map waar al je fotootjes in zitten. Voilà, dat is mijn fotomapje. 474 00:24:22,440 --> 00:24:24,680 In je fotoalbum heb je ergens een zoekfunctie. 475 00:24:24,840 --> 00:24:26,040 Dat is zo'n vergrootglaasje 476 00:24:26,200 --> 00:24:29,080 en als je daarop duwt, kan je zoeken naar locaties 477 00:24:29,240 --> 00:24:31,520 of naar data waarop foto's genomen zijn. 478 00:24:31,680 --> 00:24:34,360 Maar wij gaan iets anders doen. Je duwt op je zoekfunctie 479 00:24:34,520 --> 00:24:36,880 en in die tekstbalk tik je een woord in, 480 00:24:37,040 --> 00:24:39,680 zoals bijvoorbeeld het woord 'paard'. 481 00:24:39,840 --> 00:24:42,200 Dan krijg ik al mijn foto's met paarden op. 482 00:24:44,040 --> 00:24:45,840 Je kunt het eens proberen met 'kat'. 483 00:24:46,560 --> 00:24:48,960 Je kan het eens proberen met 'hond'. 484 00:24:49,120 --> 00:24:51,400 Ik ga zelf eens zoeken naar 'zwembad'. 485 00:24:51,800 --> 00:24:53,080 Zwembad. 486 00:24:53,760 --> 00:24:55,880 Ik krijg al mijn foto's met zwembaden op. 487 00:24:56,040 --> 00:24:57,800 (geroezemoes) 488 00:24:57,960 --> 00:25:02,400 Je kunt het iets moeilijker maken en zoeken naar 'zonsondergang'. 489 00:25:02,560 --> 00:25:04,440 Zonsondergang. 490 00:25:05,560 --> 00:25:07,880 Ik krijg al mijn foto's met zonsondergangen. 491 00:25:09,480 --> 00:25:12,640 Je telefoon weet wat er op je foto's staat. 492 00:25:12,800 --> 00:25:14,880 En je kan foto's van vroeger gaan terugzoeken 493 00:25:15,040 --> 00:25:17,480 door gewoon in te tikken wat daarop stond. 494 00:25:17,640 --> 00:25:19,360 (geroezemoes) 495 00:25:19,520 --> 00:25:21,080 Ik heb nu de cruciale fout gemaakt 496 00:25:21,240 --> 00:25:23,600 jullie te vragen om je telefoon boven te halen... 497 00:25:23,760 --> 00:25:24,960 (publiek lacht) 498 00:25:25,120 --> 00:25:27,520 ...en je dan een nieuw trucje te leren. 499 00:25:27,680 --> 00:25:29,320 We gaan verder spelen na de les. 500 00:25:29,480 --> 00:25:30,560 (publiek lacht) 501 00:25:30,720 --> 00:25:31,960 Pennen neer. 502 00:25:33,520 --> 00:25:37,440 Ik zie jullie gezichtjes gewoon nog oplichten in de zaal. 503 00:25:37,600 --> 00:25:41,200 En ik heb gezichtsherkenningssoftware mee, dus let op wat je doet. 504 00:25:42,280 --> 00:25:45,640 Wat hebben we gedaan? We hebben een neuraal netwerk gebouwd in software 505 00:25:45,800 --> 00:25:49,320 en we hebben dat getraind tot het katten kan herkennen op foto's. 506 00:25:49,480 --> 00:25:51,360 Toen dit goed begon te werken, 507 00:25:51,520 --> 00:25:53,800 dachten ze bij de computerwetenschappers: 508 00:25:53,960 --> 00:25:56,600 Misschien zoeken we nu beter een nieuwe uitdaging. 509 00:25:56,760 --> 00:26:00,040 We gaan iets nieuws proberen. En wat hebben ze bedacht? Ze dachten: 510 00:26:00,200 --> 00:26:02,760 Zouden wij ook een neuraal netwerk kunnen bouwen 511 00:26:02,920 --> 00:26:04,960 dat geen afbeeldingen van katten herkent, 512 00:26:05,120 --> 00:26:08,280 maar dat afbeeldingen van katten kan maken? 513 00:26:08,440 --> 00:26:11,840 Dus een neuraal netwerk waartegen je zegt: Teken eens een kat. 514 00:26:12,000 --> 00:26:14,520 En die doet dat. Splinternieuwe tekening van een kat. 515 00:26:14,680 --> 00:26:16,560 Als je dat wilt bouwen, moet je dat trainen. 516 00:26:16,720 --> 00:26:19,120 Een neuraal netwerk kan niets als het niet getraind is. 517 00:26:19,280 --> 00:26:22,200 En je kan dat trainen met reinforcement learning. 518 00:26:22,360 --> 00:26:24,000 En reinforcement learning wil zeggen: 519 00:26:24,160 --> 00:26:26,040 je laat dat netwerk van alles proberen 520 00:26:26,200 --> 00:26:28,840 en dan zeg jij: Dit is goed gedaan en dit is slecht gedaan. 521 00:26:29,000 --> 00:26:30,440 En zo leert dat ding bij. 522 00:26:32,160 --> 00:26:35,200 Alleen, om dat echt te doen werken, moet je dat eigenlijk... 523 00:26:35,360 --> 00:26:37,880 Je moet dat afbeeldingen laten maken van katten en zeggen: 524 00:26:38,040 --> 00:26:40,240 Dit lijkt op een kat en dit lijkt niet op een kat. 525 00:26:40,400 --> 00:26:42,760 En dat netwerk gaat telkens zijn verbindingen aanpassen 526 00:26:42,920 --> 00:26:45,520 om meer afbeeldingen te maken waarvan jij zegt: 527 00:26:45,680 --> 00:26:46,880 Dit lijkt op een kat. 528 00:26:47,040 --> 00:26:48,840 Alleen moet je dat miljoenen keren doen 529 00:26:49,000 --> 00:26:51,720 voor dat een beetje begint te werken. En ik heb geen tijd 530 00:26:51,880 --> 00:26:55,000 om miljoenen keren te zeggen: Dit lijkt op een kat en dit niet. 531 00:26:55,600 --> 00:26:59,000 Het grote voordeel is: ik hoef dat ook niet meer zelf te doen. 532 00:26:59,160 --> 00:27:00,880 Want die eerste AI kan dat doen. 533 00:27:01,720 --> 00:27:05,480 Dus je koppelt die twee gewoon aan elkaar. En je zegt tegen AI nummer 2: 534 00:27:05,640 --> 00:27:08,960 Probeer eens een afbeelding te maken van een kat. En die probeert dat. 535 00:27:09,120 --> 00:27:12,960 En AI 1 kijkt ernaar en die zegt: Dit trekt echt op geen kloten. 536 00:27:13,120 --> 00:27:14,640 (publiek lacht) 537 00:27:14,800 --> 00:27:16,800 En dan probeert AI 2 opnieuw en AI 1 zegt: 538 00:27:16,960 --> 00:27:19,160 Dat is wat beter. Probeert hij het nog eens: slechter. 539 00:27:19,320 --> 00:27:20,680 Nog eens: dat is veel beter. 540 00:27:20,840 --> 00:27:23,000 En zo laat je die miljoenen keren proberen 541 00:27:23,160 --> 00:27:25,040 en na een tijdje heb je een neuraal netwerk 542 00:27:25,200 --> 00:27:27,520 dat afbeeldingen kan maken van een kat. 543 00:27:27,680 --> 00:27:30,920 En je traint ook eentje om honden te tekenen en nijlpaarden te tekenen, 544 00:27:31,080 --> 00:27:35,000 en voetbalvelden en dropsnoepjes en alles wat je wilt. 545 00:27:35,160 --> 00:27:39,400 En als je dat allemaal samenpropt tot één enorm neuraal netwerk, 546 00:27:39,560 --> 00:27:42,680 dan kan je dus aan dat netwerk vragen: Teken eens dit. 547 00:27:42,840 --> 00:27:44,640 En dan probeert die dat voor je. 548 00:27:44,800 --> 00:27:49,000 En dat neurale netwerk heb ik hier nu openstaan. Dat is Dall-E 2. 549 00:27:49,160 --> 00:27:51,720 Dall-E 2 is software gebouwd door OpenAI, 550 00:27:51,880 --> 00:27:53,960 het bedrijf dat ook ChatGPT gebouwd heeft. 551 00:27:54,120 --> 00:27:55,680 Je hebt hier een tekstveldje. 552 00:27:55,840 --> 00:27:57,640 Daarin tik je iets in, dan duw je op enter 553 00:27:57,800 --> 00:28:01,280 en dan probeert de AI te tekenen wat je gevraagd hebt. 554 00:28:01,440 --> 00:28:03,840 En dat gaan wij nu dus samen proberen. 555 00:28:04,000 --> 00:28:06,160 Noem eens een dier. 556 00:28:06,320 --> 00:28:07,720 Eenhoorn. - Olifant. 557 00:28:07,880 --> 00:28:10,640 Een olifant. We hebben een olifant. We blijven bij de olifant. 558 00:28:10,800 --> 00:28:12,280 Wat is de olifant aan het doen? 559 00:28:12,440 --> 00:28:14,080 Aan het schaken. - Voetbal. 560 00:28:14,240 --> 00:28:15,600 Aan het schaken? 561 00:28:16,360 --> 00:28:18,720 Dat gaat niet met die poten. Die zijn veel te dik, hè. 562 00:28:18,880 --> 00:28:22,000 Je zou zo eens... Met twee pootjes alles omver. 563 00:28:22,160 --> 00:28:24,520 De olifant is aan het schaken. Geen probleem, Brugge. 564 00:28:24,680 --> 00:28:26,800 Waar is de olifant aan het schaken? 565 00:28:26,960 --> 00:28:28,400 Op Uranus. - In het zwembad. 566 00:28:28,560 --> 00:28:29,640 In het zwembad? 567 00:28:29,800 --> 00:28:31,840 (publiek lacht) 568 00:28:32,000 --> 00:28:34,760 Klein softdrugsprobleem in Brugge precies, toch? 569 00:28:34,920 --> 00:28:36,680 (publiek lacht) 570 00:28:36,840 --> 00:28:40,360 Normaal vragen ze een hond met een hoedje op, maar ça va. 571 00:28:40,520 --> 00:28:41,680 Ça va. 572 00:28:41,840 --> 00:28:45,400 Schakende olifant in het zwembad. Bon... 573 00:28:45,960 --> 00:28:47,040 Daar gaan we. 574 00:28:47,760 --> 00:28:49,320 Een olifant... 575 00:28:49,800 --> 00:28:51,560 is aan het schaken... 576 00:28:53,000 --> 00:28:56,000 in een zwembad... 577 00:28:57,960 --> 00:29:02,120 in de stijl van een kindertekening. 578 00:29:03,200 --> 00:29:06,320 Dit hebben jullie zelf gewild, zeg ik er eventjes bij. Dus... 579 00:29:06,480 --> 00:29:08,080 Ik ga straks op enter duwen. 580 00:29:08,400 --> 00:29:10,920 Dan worden die woorden verstuurd naar een neuraal netwerk 581 00:29:11,080 --> 00:29:12,600 ergens in een groot rekencentrum. 582 00:29:12,760 --> 00:29:15,360 Aan de ene kant worden die in dat neurale netwerk geduwd. 583 00:29:15,520 --> 00:29:18,840 Al die eentjes en nulletjes geven signalen naar andere knooppunten 584 00:29:19,000 --> 00:29:21,080 en aan de andere kant komen daar pixels uit 585 00:29:21,240 --> 00:29:24,160 en die worden weer samengesteld tot een splinternieuwe afbeelding. 586 00:29:24,320 --> 00:29:25,640 En als we geluk hebben... 587 00:29:27,520 --> 00:29:28,960 lijkt die een beetje... 588 00:29:29,840 --> 00:29:33,520 op een kindertekening van een olifant die schaak speelt in een zwembad. 589 00:29:33,680 --> 00:29:35,480 Oké, daar gaan we. 590 00:29:35,960 --> 00:29:39,400 En start. De opdracht is verstuurd, het balkje loopt. 591 00:29:39,560 --> 00:29:41,320 Straks krijgen wij vier pogingen. 592 00:29:41,480 --> 00:29:44,360 Vier pogingen tot schaak spelende olifanten in een zwembad. 593 00:29:44,520 --> 00:29:46,240 Ik ben even benieuwd als jullie. 594 00:29:47,760 --> 00:29:49,360 Normaal gaat... Oh, huppakee. 595 00:29:49,520 --> 00:29:51,600 (publiek) Oh... 596 00:29:51,760 --> 00:29:52,960 Jazeker. 597 00:29:55,760 --> 00:29:57,520 Eventjes voor de duidelijkheid... 598 00:29:58,240 --> 00:30:01,200 Elke afbeelding die je hier ziet, is splinternieuw. 599 00:30:02,120 --> 00:30:04,640 Deze zijn niet gedownload van het internet. 600 00:30:04,800 --> 00:30:06,600 Dit zijn ook geen collages. 601 00:30:06,760 --> 00:30:09,800 Het is niet zo dat die olifantjes al klaar waren en die schaakborden 602 00:30:09,960 --> 00:30:13,480 en dat hij die samengekleefd heeft. Elke pixel die je ziet, 603 00:30:13,640 --> 00:30:17,520 is nieuw gemaakt door die AI in de voorbije 20 seconden. 604 00:30:17,680 --> 00:30:21,480 Deze afbeeldingen bestonden niet 20 seconden geleden. 605 00:30:21,640 --> 00:30:23,560 Dit is generative AI. 606 00:30:23,720 --> 00:30:27,280 AI die geen patronen herkent, maar die patronen kan genereren. 607 00:30:27,440 --> 00:30:30,800 En dat is een soort revolutie in de AI-revolutie. 608 00:30:30,960 --> 00:30:34,520 Generative AI is nog veel meer aan het veranderen 609 00:30:34,680 --> 00:30:36,800 dan AI die enkel patroonherkenning doet. 610 00:30:36,960 --> 00:30:38,960 Je kan daar een beetje mee spelen. 611 00:30:39,120 --> 00:30:42,600 Je kan ook wat andere dingen vragen. We gaan de olifant behouden. Oké. 612 00:30:42,760 --> 00:30:46,400 Een olifant doet een dansje... 613 00:30:48,400 --> 00:30:50,280 terwijl hij een tutu draagt... 614 00:30:51,760 --> 00:30:55,720 alsof het een olieverfschilderij is van... 615 00:30:55,880 --> 00:30:57,040 Noem eens een schilder. 616 00:30:57,200 --> 00:30:58,480 Mozart. - Van Gogh. 617 00:30:58,640 --> 00:31:00,880 Van Gogh? Oké, we gaan voor Van Gogh. 618 00:31:01,320 --> 00:31:03,520 Van Van Gogh. 619 00:31:03,680 --> 00:31:05,360 Nu vraag ik een olieverfschilderij. 620 00:31:05,520 --> 00:31:07,880 Dus ik zou die glans willen zien, wat penseelstroken. 621 00:31:08,040 --> 00:31:10,120 We gaan kijken wat hij daar precies mee doet. Ja. 622 00:31:10,280 --> 00:31:13,240 Dus een beetje glans, penseelstroken, wat impressionistisch, 623 00:31:13,400 --> 00:31:14,640 want ik heb Van Gogh gevraagd. 624 00:31:14,800 --> 00:31:18,640 Mooie compositie, mooie lichtinval, dansende olifant met een jurk aan. 625 00:31:18,800 --> 00:31:21,920 Daar gaan we. Vier pogingen, en huppakee. 626 00:31:22,080 --> 00:31:24,240 (geroezemoes) 627 00:31:24,400 --> 00:31:28,160 Alweer: elke pixel die je ziet, is splinternieuw. 628 00:31:28,320 --> 00:31:31,520 Gemaakt door die AI in de voorbije 20 seconden. 629 00:31:31,680 --> 00:31:33,720 Het is onwaarschijnlijk 630 00:31:33,880 --> 00:31:37,640 hoe goed die generative AI geworden is op een paar jaar tijd. 631 00:31:38,560 --> 00:31:42,360 Dit is Dall-E 2. Vandaag is er ook al Dall-E 3. 632 00:31:43,120 --> 00:31:45,840 Als je een betalend account hebt op ChatGPT, 633 00:31:46,000 --> 00:31:48,520 dan kan je daar al mee spelen. Dall-E 3. 634 00:31:48,680 --> 00:31:50,120 En laat ons dat eens testen. 635 00:31:50,280 --> 00:31:54,080 Dall-E 3 is ongeveer anderhalf jaar na Dall-E 2 uitgekomen. 636 00:31:54,240 --> 00:31:58,320 Dus het verschil is anderhalf jaar verdere ontwikkeling 637 00:31:58,480 --> 00:31:59,640 aan die technologie. 638 00:31:59,800 --> 00:32:03,280 Wat hadden we nu daarjuist? Oké. Een olifant... 639 00:32:04,400 --> 00:32:06,080 is aan het schaken... 640 00:32:06,840 --> 00:32:09,280 in een zwembad. 641 00:32:09,440 --> 00:32:14,600 Ik moet er wel bij zetten dat het een afbeelding moet zijn. Daar gaan we. 642 00:32:17,160 --> 00:32:19,200 Een afbeelding... 643 00:32:20,160 --> 00:32:21,800 van een olifant... 644 00:32:22,440 --> 00:32:25,680 die aan het schaken is in een zwembad. 645 00:32:25,840 --> 00:32:28,040 Oké. En start. 646 00:32:28,200 --> 00:32:31,240 Dus er is anderhalf jaar verschil in ontwikkeling, 647 00:32:31,400 --> 00:32:35,280 anderhalf jaar meer ontwikkeling, tussen Dall-E 2 en Dall-E 3. 648 00:32:35,440 --> 00:32:38,120 Dall-E 3 is veel groter, is op meer afbeeldingen getraind, 649 00:32:38,280 --> 00:32:41,480 heeft veel meer knooppuntjes. Moet dus ook iets langer nadenken, 650 00:32:41,640 --> 00:32:44,680 maar dit is anderhalf jaar betere ontwikkeling. 651 00:32:44,840 --> 00:32:45,880 Dit. 652 00:32:46,040 --> 00:32:48,560 (geroezemoes) 653 00:32:51,440 --> 00:32:53,320 Je kunt je voorstellen dat illustratoren 654 00:32:53,480 --> 00:32:55,440 hier een beetje nerveus van worden. 655 00:32:56,480 --> 00:32:59,120 Dit kost mij 20 cent per afbeelding ongeveer. 656 00:32:59,280 --> 00:33:01,560 En ik mag dat vrij gebruiken waar ik wil. 657 00:33:02,440 --> 00:33:05,120 Als je vraagt om zulke afbeeldingen te maken aan een illustrator, 658 00:33:05,280 --> 00:33:07,360 heeft die er makkelijk één of twee dagen werk aan. 659 00:33:07,520 --> 00:33:10,240 Dat zal honderden tot duizend euro kosten. 660 00:33:10,400 --> 00:33:13,360 Er is een klein probleem met deze software. Namelijk: 661 00:33:13,520 --> 00:33:14,720 die is getraind 662 00:33:14,880 --> 00:33:17,400 door heel veel afbeeldingen te downloaden van het internet 663 00:33:17,560 --> 00:33:20,480 waar een beschrijving bij stond en zo dat netwerk te laten trainen. 664 00:33:20,640 --> 00:33:22,440 Die techniek heet 'scraping'. 665 00:33:22,600 --> 00:33:25,120 'Scraping' is het afschrapen van het internet 666 00:33:25,280 --> 00:33:29,680 om publieke data te verzamelen en die te gebruiken als trainingssoftware. 667 00:33:29,840 --> 00:33:33,360 Bij die gebruikte afbeeldingen, die gedownloade afbeeldingen, 668 00:33:33,520 --> 00:33:36,800 zat veel werk van illustratoren die nu nog aan het werk zijn. 669 00:33:37,520 --> 00:33:38,560 Die zeggen natuurlijk: 670 00:33:38,720 --> 00:33:41,720 Wij hebben nooit toestemming gegeven om onze afbeeldingen te gebruiken 671 00:33:41,880 --> 00:33:44,640 om een machine te bouwen die nu onze job afpakt. 672 00:33:44,800 --> 00:33:45,960 Bij OpenAI zeggen ze: 673 00:33:46,120 --> 00:33:48,520 Ja, we hebben nog eens gekeken naar het auteursrecht 674 00:33:48,680 --> 00:33:50,840 en wij hebben die toestemming niet nodig. 675 00:33:52,080 --> 00:33:53,880 Want als je kijkt naar het auteursrecht: 676 00:33:54,040 --> 00:33:57,080 elke kunstenaar mag online zoveel rondkijken als hij wil 677 00:33:57,240 --> 00:33:59,440 om zich te inspireren en om dingen bij te leren, 678 00:33:59,600 --> 00:34:01,960 zolang je maar geen exacte kopieën maakt. 679 00:34:02,720 --> 00:34:06,240 Als je kijkt naar het auteursrecht van vandaag, is hier niks mis mee. 680 00:34:07,080 --> 00:34:09,040 Maar het voelt niet helemaal fair. 681 00:34:10,440 --> 00:34:12,560 Ik denk dat we nieuwe wetten nodig hebben. 682 00:34:13,440 --> 00:34:17,040 Ik denk dat we in het AI-tijdperk heel veel nieuwe wetten nodig hebben. 683 00:34:17,840 --> 00:34:20,880 Als je je afvraagt: Wat kan ik nog doen als AI alle jobs overneemt? 684 00:34:21,040 --> 00:34:22,520 Ik denk advocaat. Denk ik. 685 00:34:22,680 --> 00:34:23,880 (publiek lacht) 686 00:34:24,040 --> 00:34:25,720 Redelijk veel te doen. 687 00:34:27,120 --> 00:34:30,320 Die Dall-E 3 die ik getoond heb, is betalende software. 688 00:34:30,480 --> 00:34:34,080 Dus je hebt een betalend account nodig op GPT-4. Op ChatGPT. 689 00:34:34,240 --> 00:34:39,080 Maar iedereen die wil, kan gratis 100 afbeeldingen maken met Dall-E 3 690 00:34:39,240 --> 00:34:40,720 en dat kan in Bing. 691 00:34:40,880 --> 00:34:43,160 Microsoft heeft een stuk van OpenAI gekocht 692 00:34:43,320 --> 00:34:46,240 en sindsdien kan je in de Bing Image Creator 693 00:34:46,400 --> 00:34:50,160 100 gratis afbeeldingen maken met die technologie. 694 00:34:50,320 --> 00:34:52,680 Je gaat weinig slapen vannacht. Ik zeg het je al. 695 00:34:54,080 --> 00:34:56,040 Voor de mensen die niet weten wat Bing is: 696 00:34:56,200 --> 00:34:58,160 googel het even. 697 00:34:58,320 --> 00:35:00,280 (publiek lacht) 698 00:35:01,560 --> 00:35:05,240 Die technologie is dus getraind met reinforcement learning. 699 00:35:05,400 --> 00:35:07,760 Je laat dat netwerk van alles proberen en dan zeg je: 700 00:35:07,920 --> 00:35:11,600 Goed gedaan, slecht gedaan. En zo leert die AI bij. 701 00:35:11,760 --> 00:35:15,320 Een beetje zoals een hond trainen. Die hond doet van alles 702 00:35:15,480 --> 00:35:17,800 en als die iets verkeerds doet, zeg je: Stoute hond. 703 00:35:17,960 --> 00:35:21,240 En als die iets goeds doet, zeg je: Brave hond. Hier is een koekje. 704 00:35:21,400 --> 00:35:22,680 Zo leert de hond bij. 705 00:35:22,840 --> 00:35:24,800 Dat is wat computerwetenschappers doen. 706 00:35:24,960 --> 00:35:26,400 Ze staren naar de computer 707 00:35:26,560 --> 00:35:30,000 en als die iets verkeerds doet, zeggen ze: Stoute software. 708 00:35:30,160 --> 00:35:32,480 Als die iets goeds doet, zeggen ze: Brave software. 709 00:35:32,640 --> 00:35:37,880 Hier is een USB-stick. En zo leren die netwerken bij. 710 00:35:39,200 --> 00:35:42,040 Dat je dieren ook kan trainen met reinforcement learning, 711 00:35:42,200 --> 00:35:45,080 is ontdekt in de jaren 40, de jaren 1940, 712 00:35:45,240 --> 00:35:47,720 door een Amerikaanse psycholoog, B. F. Skinner. 713 00:35:47,880 --> 00:35:51,240 En wat heeft Skinner gedaan? Skinner heeft duiven leren lezen. 714 00:35:52,560 --> 00:35:55,600 Dit is een duif en die zit in een doos. 715 00:35:56,280 --> 00:35:59,400 Voor haar snavel staat een bordje met letters op. 716 00:35:59,560 --> 00:36:02,160 Het woord 'turn'. Draai een rondje. 717 00:36:02,320 --> 00:36:04,680 Die duif kijkt ernaar en die snapt er niks van. 718 00:36:04,840 --> 00:36:07,960 Want het is een duif en die snappen eigenlijk nergens iets van. 719 00:36:09,280 --> 00:36:11,200 Het zijn de stomste beesten op aarde. 720 00:36:11,880 --> 00:36:15,080 Als je niet gelooft dat duiven de stomste beesten op aarde zijn, 721 00:36:15,240 --> 00:36:18,040 kom je niet genoeg in het stadscentrum. Het is gewoon zo. 722 00:36:18,800 --> 00:36:20,000 Die duif zit daar en zegt: 723 00:36:20,160 --> 00:36:22,840 (West-Vlaams) Amai, ik zit in een doos. Ik weet ook niet waarom. 724 00:36:23,000 --> 00:36:25,360 Er staan rare dingen voor mijn neus die ik niet kan lezen. 725 00:36:25,520 --> 00:36:27,280 Goh ja, ik ga een beetje rondkijken. 726 00:36:28,440 --> 00:36:30,880 Duiven spreken West-Vlaams. Dat is ook gewoon zo. 727 00:36:31,040 --> 00:36:32,160 (publiek lacht) 728 00:36:32,320 --> 00:36:34,920 Die duif begint een beetje nieuwsgierig rond te kijken. 729 00:36:35,080 --> 00:36:37,520 Terwijl die nieuwsgierig rondkijkt, heeft die na een tijd 730 00:36:37,680 --> 00:36:40,400 compleet toevallig een volledig rondje gedraaid. 731 00:36:40,560 --> 00:36:42,680 Op dat moment geeft Skinner die eten. 732 00:36:42,840 --> 00:36:45,400 Die duif krijgt eten en snapt niet waarom. 733 00:36:45,560 --> 00:36:48,560 Die denkt: Amai, ik heb eten gehad. Dat is sympathiek van die mens. 734 00:36:48,720 --> 00:36:51,600 Maar ik zit nog altijd in een doos en weet nog altijd niet waarom. 735 00:36:52,640 --> 00:36:56,000 Ik ga nog een beetje rondkijken. Die duif begint weer rond te kijken 736 00:36:56,160 --> 00:36:58,160 en na een tijd heeft die weer, heel toevallig, 737 00:36:58,320 --> 00:37:01,880 een volledig rondje gedraaid. Dan geeft Skinner die weer eten. 738 00:37:02,560 --> 00:37:04,040 Zonder dat die duif dat beseft, 739 00:37:04,200 --> 00:37:05,960 telkens als die beloond wordt met voedsel, 740 00:37:06,120 --> 00:37:08,080 gaan de hersenbanen in haar hoofd 741 00:37:08,240 --> 00:37:10,240 van het gedrag dat ze net gesteld heeft 742 00:37:10,400 --> 00:37:14,520 een klein beetje versterkt worden. Als je dat twee dagen lang doet, 743 00:37:14,680 --> 00:37:17,400 krijg je een duif die obsessief rondjes draait 744 00:37:17,560 --> 00:37:21,360 zodra ze het woord 'turn' ziet. Zonder dat ze zelf weet waarom. 745 00:37:22,320 --> 00:37:25,880 Dan kun je denken: Misschien is dat gewoon een neurotische duif. 746 00:37:26,040 --> 00:37:27,760 Maar ze heeft ook andere woorden geleerd. 747 00:37:27,920 --> 00:37:29,880 Het bordje verdraait nu naar het woord 'peck' 748 00:37:30,040 --> 00:37:32,080 en ze heeft geleerd om daarop te pikken. 749 00:37:33,240 --> 00:37:35,240 Je kunt een duif twaalf woorden leren. 750 00:37:37,400 --> 00:37:39,000 Alweer een tof weekendprojectje. 751 00:37:39,160 --> 00:37:41,000 (publiek lacht) 752 00:37:42,400 --> 00:37:45,880 Skinner heeft dit ontdekt in de jaren 40, tijdens Wereldoorlog II. 753 00:37:46,040 --> 00:37:49,440 Als je iets nieuws ontdekte in Amerika tijdens Wereldoorlog II, 754 00:37:49,600 --> 00:37:51,520 kwam er snel iemand op bezoek van het leger 755 00:37:51,680 --> 00:37:53,720 en die vroeg: Kunnen wij hier ook iets mee doen? 756 00:37:53,880 --> 00:37:55,800 Is hier een militaire toepassing voor? 757 00:37:55,960 --> 00:37:57,720 En Skinner zei: Ik ga het proberen. 758 00:37:58,240 --> 00:38:00,400 Wat heeft hij gedaan? Hij heeft duiven getraind 759 00:38:00,560 --> 00:38:05,520 om op een projectiebeeld van de zee Duitse oorlogsboten aan te duiden. 760 00:38:06,480 --> 00:38:09,520 Dus wat je hier ziet, dat grijs, is een projectiebeeld van de zee. 761 00:38:09,680 --> 00:38:11,800 Het zwart is de achterkant van een duivenkop. 762 00:38:11,960 --> 00:38:14,280 In de verte ligt een wazig, wit lijntje. 763 00:38:14,440 --> 00:38:19,080 Het wazige witte lijntje is een Duits oorlogsschip. 764 00:38:19,240 --> 00:38:22,160 In het begin pikt die duif een beetje nieuwsgierig rond op dat scherm. 765 00:38:22,320 --> 00:38:25,400 Telkens als die toevallig dat oorlogsschip raakt, 766 00:38:25,560 --> 00:38:28,960 krijgt die eten van Skinner. Als je dat twee dagen lang doet, 767 00:38:29,120 --> 00:38:32,320 krijg je een duif die fanatiek pikt op naziboten. 768 00:38:32,480 --> 00:38:34,240 (publiek lacht) 769 00:38:36,360 --> 00:38:38,960 Een soort antifascistisch pluimvee heb je... 770 00:38:39,800 --> 00:38:40,920 heb je gecreëerd. 771 00:38:42,080 --> 00:38:45,400 En Skinner ging terug naar het leger en zei: Kijk, het werkt. 772 00:38:45,560 --> 00:38:48,000 De nazibotendetecterende duif. 773 00:38:49,240 --> 00:38:50,520 De NBDD. 774 00:38:51,480 --> 00:38:53,240 Bij het leger zeiden ze: Dat is prachtig, 775 00:38:53,400 --> 00:38:57,480 maar wat kunnen we hier juist mee? Skinner zei: Ik heb een plan. 776 00:38:57,640 --> 00:39:00,480 Weet je wat? We steken er drie in een bom. 777 00:39:01,640 --> 00:39:03,240 Dit is een bom, die vliegt over de zee 778 00:39:03,400 --> 00:39:07,000 en in die bom is plaats voor drie nazibotendetecterende duiven. 779 00:39:08,880 --> 00:39:11,360 Die zitten daarin gebonden met voor hun snavel een scherm 780 00:39:11,520 --> 00:39:15,400 waarop een projectiebeeld verschijnt van de zee voor de bom. 781 00:39:16,120 --> 00:39:18,440 Als in de verte een Duits oorlogsschip verschijnt, 782 00:39:18,600 --> 00:39:20,520 begint die duif daar keihard op te pikken. 783 00:39:20,680 --> 00:39:24,240 Maar stel dat die bom te hoog vliegt, dan staat dat schip onderaan in beeld 784 00:39:24,400 --> 00:39:26,680 en dan pikt die duif op de onderkant van het scherm. 785 00:39:26,840 --> 00:39:30,120 Dat scherm kan een beetje scharnieren en daardoor klapt dat achteruit. 786 00:39:30,280 --> 00:39:33,680 Die scharniertjes hebben ze verbonden met het staartroer van de bom, 787 00:39:33,840 --> 00:39:36,920 waardoor die een beetje bijstuurt en dus lager gaat vliegen. 788 00:39:37,080 --> 00:39:40,840 Tot dat schip bij alle drie de duiven mooi in het midden staat 789 00:39:41,000 --> 00:39:43,600 en die bom recht op dat schip inslaat. 790 00:39:44,680 --> 00:39:47,160 De allereerste telegeleide bom... 791 00:39:47,840 --> 00:39:49,160 werkte op duif. 792 00:39:49,320 --> 00:39:51,000 (publiek lacht) 793 00:39:52,040 --> 00:39:53,320 Ze staken er altijd drie in, 794 00:39:53,480 --> 00:39:56,200 want dan kan je het gemiddelde nemen van de drie. 795 00:39:56,360 --> 00:39:59,640 Voor het geval er een pacifistische duif bij zou zitten. 796 00:40:01,040 --> 00:40:04,160 Die bom is gebouwd en getest en die werkte perfect. 797 00:40:04,320 --> 00:40:08,200 Skinner ging terug naar het leger en zei: Hij werkt. De duifbom. 798 00:40:08,360 --> 00:40:10,040 Bij het leger zeiden ze: Supercool. 799 00:40:10,200 --> 00:40:14,320 Toen hadden ze een vergadering met de legertop en die vroegen zich af: 800 00:40:14,480 --> 00:40:17,320 Hoe hard gaan de Duitsers met ons lachen als ze dit ontdekken? 801 00:40:17,480 --> 00:40:18,840 (publiek lacht) 802 00:40:19,000 --> 00:40:21,400 Ze hebben het niet durven in te voeren. 803 00:40:21,560 --> 00:40:24,840 Wat later was de oorlog gedaan, nog later waren er de eerste computers. 804 00:40:25,000 --> 00:40:28,200 En de duifbom is nooit gebruikt in de strijd. 805 00:40:28,360 --> 00:40:30,480 Hij is wel één keer getest geweest, dus... 806 00:40:30,640 --> 00:40:34,040 Ergens in de jaren 40 lag er dan zo'n testschip op de oceaan. 807 00:40:34,200 --> 00:40:36,680 En in de verte hoor je dan: fieuw. 808 00:40:36,840 --> 00:40:38,400 Fieuw, boem. 809 00:40:38,560 --> 00:40:40,240 Roe... Pluim. 810 00:40:40,400 --> 00:40:42,200 (publiek lacht) 811 00:40:43,880 --> 00:40:46,200 Ik vind het prachtig symbolisch dat wij als mensheid 812 00:40:46,360 --> 00:40:49,520 ons symbolische dier voor de vrede in een bom gebonden hebben. 813 00:40:49,680 --> 00:40:51,040 (publiek lacht) 814 00:40:51,200 --> 00:40:53,720 Tekenend. Tekenend. 815 00:40:54,480 --> 00:40:57,520 Maar een duif kan dus ook objecten herkennen op afbeeldingen, 816 00:40:57,680 --> 00:41:00,720 omdat een duif ook een neuraal netwerk heeft in haar hoofd. 817 00:41:00,880 --> 00:41:04,200 Elk biologisch brein is een neuraal netwerk. 818 00:41:04,360 --> 00:41:07,480 Ik heb net getoond hoe dat eruitziet in de computer, een neuraal netwerk. 819 00:41:07,640 --> 00:41:10,080 Dat kan je dus programmeren en trainen 820 00:41:10,240 --> 00:41:13,600 tot het heel goed patronen herkent op afbeeldingen. 821 00:41:14,400 --> 00:41:15,840 Dat werkt fantastisch goed, 822 00:41:16,000 --> 00:41:19,080 maar ik vind het moeilijk te snappen waarom het werkt. 823 00:41:19,800 --> 00:41:21,720 Ik vind het moeilijk te begrijpen 824 00:41:21,880 --> 00:41:25,600 waarom een netwerk van knooppuntjes die elkaar kunnen activeren 825 00:41:25,760 --> 00:41:28,960 blijkbaar patronen kan leren herkennen op afbeeldingen. 826 00:41:29,520 --> 00:41:31,760 Om dat iets beter te snappen, 827 00:41:31,920 --> 00:41:34,400 heb ik voor mezelf een klein voorbeeldje uitgewerkt 828 00:41:34,560 --> 00:41:36,520 van een heel simpel neuraal netwerk, 829 00:41:36,680 --> 00:41:39,360 waarvan je wel kan begrijpen hoe het werkt. 830 00:41:39,520 --> 00:41:43,000 Dat voorbeeldje zou ik graag eventjes met jullie overlopen. 831 00:41:43,160 --> 00:41:47,280 Dat is een iets technischer stukje, maar het duurt maar vijf minuutjes. 832 00:41:48,000 --> 00:41:50,720 En ik heb het zo toegankelijk mogelijk gemaakt. 833 00:41:50,880 --> 00:41:52,080 Als je dit volgt, 834 00:41:52,240 --> 00:41:54,680 dan denk ik dat je straks een soort begrip zult hebben 835 00:41:54,840 --> 00:41:59,000 van hoe een neuraal netwerk patronen herkent op een afbeelding. 836 00:41:59,160 --> 00:42:02,520 Als je na een minuutje merkt: ik heb hier eigenlijk geen zin in... 837 00:42:02,680 --> 00:42:05,080 Geen enkel probleem. Ga even in stand-by. 838 00:42:05,240 --> 00:42:06,440 (publiek lacht) 839 00:42:06,600 --> 00:42:08,800 Zet een screensaver aan in je hoofd. 840 00:42:08,960 --> 00:42:11,440 Ik heb heel mijn middelbare school zo overleefd. 841 00:42:11,600 --> 00:42:15,160 Als het klaar is, geef ik een teken en dan zijn we weer allemaal samen. 842 00:42:15,960 --> 00:42:17,840 Dan zijn het weer mopjes met diertjes. 843 00:42:19,160 --> 00:42:21,840 Het beste van al? Als je straks denkt dat je het niet snapt, 844 00:42:22,000 --> 00:42:24,120 je kunt terugspoelen. Dus dat is handig. 845 00:42:24,280 --> 00:42:25,800 Dat kan gewoon. Maar dus... 846 00:42:25,960 --> 00:42:29,040 Een voorbeeld van een simpel neuraal netwerk waarvan je kan snappen 847 00:42:29,200 --> 00:42:31,040 hoe het een patroon herkent. 848 00:42:31,200 --> 00:42:33,440 Wat wil ik doen? Ik wil graag software maken 849 00:42:33,600 --> 00:42:36,360 die kan zien op welk aantal een dobbelsteen ligt. 850 00:42:36,520 --> 00:42:38,640 Ik toon een foto van een dobbelsteen aan de computer 851 00:42:38,800 --> 00:42:42,400 en die moet kunnen zeggen: De dobbelsteen ligt op zes of op twee. 852 00:42:43,920 --> 00:42:45,360 Goed, je zou kunnen zeggen: 853 00:42:45,520 --> 00:42:48,760 Dat kan je toch ook doen met geprogrammeerde regels? 854 00:42:48,920 --> 00:42:51,440 Je kunt toch regels programmeren om dat uit te voeren? 855 00:42:51,600 --> 00:42:54,680 Namelijk, eerste regel: tel de zwarte bolletjes. 856 00:42:55,560 --> 00:42:58,240 Dat zal niet gaan, want een zwart bolletje is een patroon. 857 00:42:58,400 --> 00:43:01,240 Wij zien zwarte bolletjes met de patroonherkenning in ons hoofd. 858 00:43:01,400 --> 00:43:03,480 Een computer ziet geen zwarte bolletjes. 859 00:43:03,640 --> 00:43:06,280 Die ziet alleen maar pixels naast mekaar. 860 00:43:06,440 --> 00:43:08,680 Zwarte en witte vierkantjes naast mekaar. 861 00:43:08,840 --> 00:43:11,560 Voor een computer zijn dat geen kleuren, maar getallen. 862 00:43:12,200 --> 00:43:14,160 Laat ons zeggen nulletjes voor de witte pixels 863 00:43:14,320 --> 00:43:15,720 en eentjes voor de zwarte. 864 00:43:16,360 --> 00:43:19,280 In het computergeheugen staan die getallen niet in een vierkantje, 865 00:43:19,440 --> 00:43:20,680 zoals die afbeelding bij ons. 866 00:43:20,840 --> 00:43:22,880 In het computergeheugen staan al die getallen 867 00:43:23,040 --> 00:43:27,560 achter elkaar op een lange rij. Dus het enige wat die computer heeft 868 00:43:27,720 --> 00:43:29,840 om uit te maken op welk aantal die dobbelsteen ligt, 869 00:43:30,000 --> 00:43:33,320 is een lange rij van duizenden nulletjes en eentjes op een rij, 870 00:43:33,480 --> 00:43:35,320 waarvan je er hier een paar ziet staan. 871 00:43:35,480 --> 00:43:38,880 Ik ga dat dus proberen op te lossen met een neuraal netwerk. 872 00:43:39,040 --> 00:43:40,520 Al die nulletjes en eentjes, 873 00:43:40,680 --> 00:43:43,960 alle pixels van deze afbeelding, gebruik ik als input. 874 00:43:44,120 --> 00:43:45,960 Dat zijn de inputneuronen. 875 00:43:46,120 --> 00:43:48,680 En nu maak ik ook zes antwoordneuronen. 876 00:43:48,840 --> 00:43:51,080 Voor elk mogelijk antwoord eentje. 877 00:43:51,880 --> 00:43:54,760 Wat ik nu dus moet doen, is verbindingen programmeren 878 00:43:54,920 --> 00:43:57,480 tussen de inputneuronen en de antwoordneuronen, 879 00:43:57,640 --> 00:44:00,200 zodat die inputneuronen via die verbindingen 880 00:44:00,360 --> 00:44:03,200 die antwoordneuronen kunnen activeren. 881 00:44:03,360 --> 00:44:05,640 De bedoeling is, als ik dan een foto toon... 882 00:44:05,800 --> 00:44:07,480 Ik geef die pixels als input, 883 00:44:07,640 --> 00:44:09,560 via die verbindingen worden die geactiveerd. 884 00:44:09,720 --> 00:44:12,760 De bedoeling is dat het meest actieve neuron van die zes 885 00:44:12,920 --> 00:44:15,240 dan het juiste antwoord is. 886 00:44:15,520 --> 00:44:18,040 Oké, laat ons beginnen 887 00:44:18,200 --> 00:44:21,320 met de verbindingen te bedenken tussen de inputlaag 888 00:44:21,480 --> 00:44:25,200 en het eerste antwoordneuron voor 'dobbelsteen ligt op één'. 889 00:44:25,360 --> 00:44:26,520 Het belangrijkste gebied 890 00:44:26,680 --> 00:44:29,200 op de afbeelding van een dobbelsteen die op één ligt, 891 00:44:29,360 --> 00:44:32,080 is dat centrale gebied waar het zwarte bolletje staat. 892 00:44:32,240 --> 00:44:35,880 Dus ik ga beginnen met alle pixels te zoeken uit dat groene gebied 893 00:44:36,040 --> 00:44:38,200 in die lange rij nulletjes en eentjes. 894 00:44:38,360 --> 00:44:41,400 Bijvoorbeeld die drie daar. En wat ga ik doen? 895 00:44:41,560 --> 00:44:45,480 Ik ga die allemaal vermenigvuldigen met een groot, positief getal. 896 00:44:45,640 --> 00:44:49,440 Bijvoorbeeld maal tien. Wat gebeurt er dan? 897 00:44:49,600 --> 00:44:51,520 Als er veel zwart in dat groene gebied zit, 898 00:44:51,680 --> 00:44:54,240 staan er veel eentjes bij die groene pixels. 899 00:44:54,400 --> 00:44:56,000 Eén maal tien is tien. 900 00:44:56,160 --> 00:44:58,560 Als ik dat allemaal optel bij dat antwoordneuron, 901 00:44:58,720 --> 00:45:02,560 wordt dat getal daar steeds hoger, wordt dat neuron dus steeds actiever. 902 00:45:02,720 --> 00:45:07,040 En dat is exact wat ik wil. Want hoe meer zwart in dat groene gebied, 903 00:45:07,200 --> 00:45:10,560 hoe hoger de kans dat die dobbelsteen op één ligt. 904 00:45:11,160 --> 00:45:13,800 Ik kijk ook eens naar een ander gebied op die afbeelding. 905 00:45:13,960 --> 00:45:15,560 Bijvoorbeeld daar, linksboven. 906 00:45:15,720 --> 00:45:19,200 Als mijn dobbelsteen op één ligt, moet dat daar allemaal wit zijn. 907 00:45:19,360 --> 00:45:22,000 Ik zoek weer alle pixels uit dat rode gebied 908 00:45:22,160 --> 00:45:25,880 in die lange rij nulletjes en eentjes. Bijvoorbeeld die drie daar. 909 00:45:26,040 --> 00:45:29,400 En nu ga ik ze vermenigvuldigen met een groot negatief getal, 910 00:45:29,560 --> 00:45:33,240 bijvoorbeeld maal min tien. Wat gebeurt er dan? 911 00:45:33,400 --> 00:45:36,760 Als alles wit is in dat rode gebied, zijn al die pixels nulletjes. 912 00:45:36,920 --> 00:45:38,520 Nul maal min tien is nul. 913 00:45:38,680 --> 00:45:41,240 Als ik dat optel bij dat antwoordneuron, verandert er niks, 914 00:45:41,400 --> 00:45:43,920 blijft dat heel actief. Een heel hoog getal. 915 00:45:44,080 --> 00:45:47,320 Dat is exact wat ik wil. Want als alles wit is in dat gebied, 916 00:45:47,480 --> 00:45:50,520 blijft de kans heel hoog dat die dobbelsteen op één ligt. 917 00:45:50,680 --> 00:45:53,880 Maar stel dat ik een foto toon van een dobbelsteen op drie, 918 00:45:54,040 --> 00:45:56,520 dan zit er opeens veel zwart in dat rode gebied. 919 00:45:56,680 --> 00:46:00,120 Dan zijn die pixels daar geen nulletjes, maar eentjes. 920 00:46:00,280 --> 00:46:03,880 Eén maal min tien is min tien. Als ik dat optel bij dat antwoordneuron, 921 00:46:04,040 --> 00:46:07,360 wordt dat getal steeds lager en dat is ook wat ik wil. 922 00:46:07,520 --> 00:46:10,240 Want hoe meer zwart in dat gebied linksboven, 923 00:46:10,400 --> 00:46:13,440 hoe lager de kans dat die dobbelsteen op één ligt. 924 00:46:14,400 --> 00:46:17,000 En dat is de redenering die je toepast op alle gebieden 925 00:46:17,160 --> 00:46:19,320 die zwart kunnen zijn op een dobbelsteen. 926 00:46:19,480 --> 00:46:21,000 Dat zijn deze zeven. 927 00:46:22,160 --> 00:46:25,440 Dus hoe ga ik mijn verbindingen programmeren tussen die inputlaag 928 00:46:25,600 --> 00:46:28,160 en dat eerste antwoordneuron voor 'dobbelsteen ligt op één'? 929 00:46:28,320 --> 00:46:30,680 Alle pixels uit dat groene gebied doe ik maal tien, 930 00:46:30,840 --> 00:46:33,360 alle pixels uit de rode gebieden doe ik maal min tien 931 00:46:33,520 --> 00:46:35,560 en alle andere pixels doe ik maal nul, 932 00:46:35,720 --> 00:46:38,520 want die hebben eigenlijk geen invloed op het antwoord. 933 00:46:38,680 --> 00:46:41,400 Zo kan ik dus een volledige rij verbindingen 934 00:46:41,560 --> 00:46:44,880 zelf bedenken en programmeren tussen de inputlaag 935 00:46:45,040 --> 00:46:48,200 en dat eerste antwoordneuron voor 'dobbelsteen ligt op één'. 936 00:46:49,040 --> 00:46:51,880 Voor al die andere mogelijke antwoorden 937 00:46:52,040 --> 00:46:54,440 is de redenering heel gelijklopend, 938 00:46:54,600 --> 00:46:58,240 maar met andere groene en rode gebieden op die afbeelding. 939 00:46:58,400 --> 00:47:00,400 Bijvoorbeeld het patroon voor de verbindingen 940 00:47:00,560 --> 00:47:03,240 naar het tweede antwoordneuron voor 'dobbelsteen ligt op twee'. 941 00:47:03,400 --> 00:47:05,360 Die gaan deze structuur volgen. 942 00:47:05,520 --> 00:47:08,000 Alle pixels uit de groene gebieden doe ik maal tien, 943 00:47:08,160 --> 00:47:10,440 alle pixels uit de rode gebieden doe ik maal min tien 944 00:47:10,600 --> 00:47:11,960 en de rest doe ik maal nul, 945 00:47:12,120 --> 00:47:14,120 want die hebben geen invloed op het antwoord. 946 00:47:14,280 --> 00:47:16,640 Zo kan je dus een volledige set verbindingen 947 00:47:16,800 --> 00:47:19,960 zelf bedenken en programmeren tussen de inputlaag, 948 00:47:20,120 --> 00:47:23,120 een afbeelding van een dobbelsteen en die antwoordneuronen. 949 00:47:23,280 --> 00:47:25,680 Als je dit allemaal programmeert en je zet dat aan 950 00:47:25,840 --> 00:47:28,680 en je toont dat een nieuwe afbeelding van een dobbelsteen, 951 00:47:28,840 --> 00:47:31,840 zal het hoogste getal dat daar verschijnt in die antwoordneuronen 952 00:47:32,000 --> 00:47:33,960 bij het juiste antwoord staan. 953 00:47:34,960 --> 00:47:36,640 Wie kan er nog volgen? 954 00:47:39,360 --> 00:47:41,400 Dertig mensen. 955 00:47:41,560 --> 00:47:43,400 Wie kan er niet meer volgen? 956 00:47:45,400 --> 00:47:46,480 Twee mensen. 957 00:47:47,840 --> 00:47:50,480 Wie durfde bij geen van beide vragen de hand op te steken? 958 00:47:51,920 --> 00:47:54,160 Haha, tien. 959 00:47:54,720 --> 00:47:56,320 We zitten aan bijna vijftig. 960 00:47:57,080 --> 00:47:58,440 Wie heeft geen armen? 961 00:47:58,600 --> 00:48:00,000 Euh, soit. 962 00:48:01,560 --> 00:48:03,240 Geen zorgen, we zijn bijna klaar. 963 00:48:03,400 --> 00:48:05,720 Het is bijna rond. Geen probleem. Je moet altijd denken: 964 00:48:05,880 --> 00:48:08,600 Het netwerk is banger van jou dan jij van het netwerk. 965 00:48:08,760 --> 00:48:10,720 Maar als je dit dus allemaal programmeert 966 00:48:10,880 --> 00:48:12,320 en je activeert dat programma, 967 00:48:12,480 --> 00:48:14,920 gaat dat goed werken. Dat gaat dobbelstenen herkennen. 968 00:48:15,080 --> 00:48:18,760 Er is één probleem met dit neurale netwerk en dat is het volgende: 969 00:48:18,920 --> 00:48:20,600 dit gaat enkel werken voor dobbelstenen 970 00:48:20,760 --> 00:48:22,840 die exact zo op die foto staan. 971 00:48:23,000 --> 00:48:25,640 Als die dobbelsteen wat kleiner is, werkt dat niet meer, 972 00:48:25,800 --> 00:48:28,480 want die ogen overlappen niet meer met de gebieden. 973 00:48:28,640 --> 00:48:30,320 Als hij gedraaid op die foto staat, 974 00:48:30,480 --> 00:48:32,960 bijvoorbeeld voor de drie, werkt het ook niet meer. 975 00:48:33,120 --> 00:48:35,040 Als je dobbelsteen andere kleuren heeft, 976 00:48:35,200 --> 00:48:38,280 witte ogen op een rode dobbelsteen, werkt dat ook niet meer. 977 00:48:38,440 --> 00:48:41,960 Dat is jammer. Eigenlijk wil ik een neuraal netwerk 978 00:48:42,120 --> 00:48:45,440 dat elke soort foto van elke soort dobbelsteen herkent 979 00:48:45,600 --> 00:48:47,800 en zegt op welk aantal die ligt. 980 00:48:47,960 --> 00:48:51,360 Dat is ook mogelijk. Dat kan gebouwd worden. 981 00:48:51,520 --> 00:48:54,720 Maar dat gaat nooit lukken met een neuraal netwerk van één laag. 982 00:48:54,880 --> 00:48:56,520 Dit is een neuraal netwerk van één laag. 983 00:48:56,680 --> 00:49:00,040 Ik ga direct van mijn inputneuronen naar mijn antwoordneuronen. 984 00:49:00,200 --> 00:49:01,560 Als ik een neuraal netwerk wil 985 00:49:01,720 --> 00:49:04,760 dat elke soort foto van elke soort dobbelsteen herkent, 986 00:49:04,920 --> 00:49:08,720 heb ik er sowieso eentje nodig van meerdere lagen diep. 987 00:49:09,480 --> 00:49:12,120 Vandaar de term 'deep learning'. 988 00:49:12,280 --> 00:49:15,200 Ik ga vanuit die inputlaag, vanuit die pixels van die afbeelding, 989 00:49:15,360 --> 00:49:17,720 niet meteen die antwoordneuronen activeren. 990 00:49:17,880 --> 00:49:20,240 Ik ga die gebruiken om een tussenlaag te activeren. 991 00:49:20,400 --> 00:49:23,000 Die ga ik weer gebruiken om een nieuwe tussenlaag te activeren 992 00:49:23,160 --> 00:49:26,920 en nog een nieuwe tussenlaag, en dan pas ga ik naar die antwoordneuronen. 993 00:49:28,120 --> 00:49:32,360 Daarnet, bij dat heel simpele neurale netwerkje van één laag, 994 00:49:32,520 --> 00:49:35,640 kon ik zelf bedenken wat de waarde moest zijn van die verbindingen. 995 00:49:35,800 --> 00:49:37,240 Ik kon zelf beredeneren: 996 00:49:37,400 --> 00:49:39,240 als ik dit maal tien doe en dit maal min tien, 997 00:49:39,400 --> 00:49:42,880 gaat het waarschijnlijk werken. Dat gaat hier niet meer lukken. 998 00:49:43,720 --> 00:49:45,960 Dit is veel te complex om zelf te bedenken 999 00:49:46,120 --> 00:49:48,160 wat de waarde van die verbindingen moet zijn 1000 00:49:48,320 --> 00:49:50,280 tot het dobbelstenen herkent. 1001 00:49:50,440 --> 00:49:53,760 Het goede nieuws is: ik hoef dat ook niet zelf te doen. 1002 00:49:53,920 --> 00:49:56,120 Dit is het moment waarop je tegen je computer zegt: 1003 00:49:56,280 --> 00:49:58,080 Weet je wat? Zoek het lekker zelf uit. 1004 00:50:00,120 --> 00:50:01,960 Je geeft je computer de opdracht: 1005 00:50:02,120 --> 00:50:04,800 ga zelf op zoek naar een neuraal netwerk 1006 00:50:04,960 --> 00:50:09,640 dat dobbelstenen herkent op foto's. Wat heeft die daarvoor nodig? 1007 00:50:09,800 --> 00:50:12,080 Heel veel voorbeeldfoto's van dobbelstenen 1008 00:50:12,240 --> 00:50:13,880 waar het juiste antwoord bij staat. 1009 00:50:14,040 --> 00:50:16,200 Een hele map foto's van dobbelstenen op één, 1010 00:50:16,360 --> 00:50:18,080 een hele map van dobbelstenen op twee, 1011 00:50:18,240 --> 00:50:20,600 een hele map van dobbelstenen op drie, enzovoort. 1012 00:50:20,760 --> 00:50:22,440 Dat zijn je trainingsdata. 1013 00:50:22,600 --> 00:50:26,400 De computer kan al die foto's waar het antwoord bij staat gebruiken 1014 00:50:26,560 --> 00:50:29,880 om te testen hoe goed zijn neurale netwerk al werkt 1015 00:50:30,040 --> 00:50:32,640 en ook om het stap voor stap beter te maken. 1016 00:50:32,800 --> 00:50:34,600 Het eerste wat die computer doet, 1017 00:50:34,760 --> 00:50:37,680 is al die verbindingen willekeurige waardes geven. 1018 00:50:37,840 --> 00:50:39,200 Die smijt daar zomaar iets op. 1019 00:50:39,360 --> 00:50:43,000 Dat is maal acht en dat is maal tien en dat is maal min twaalf, enzovoort. 1020 00:50:43,800 --> 00:50:46,360 Als dat willekeurig gemaakte netwerk af is, 1021 00:50:46,520 --> 00:50:50,120 gaat de computer alle voorbeeldfoto's die je gegeven hebt 1022 00:50:50,280 --> 00:50:52,280 laten beoordelen door dat netwerk. 1023 00:50:52,440 --> 00:50:54,880 Dan zal die zien: bijna alle antwoorden zijn fout, 1024 00:50:55,040 --> 00:50:58,840 want het is willekeurig gekozen. Maar vanaf dat punt kan die computer 1025 00:50:59,000 --> 00:51:02,440 zijn netwerk stap voor stap verbeteren tot het werkt. 1026 00:51:02,600 --> 00:51:05,880 Die kan bijvoorbeeld eerst eens kijken naar die verbinding linksboven 1027 00:51:06,040 --> 00:51:08,440 en die een beetje sterker maken en een beetje zwakker. 1028 00:51:08,600 --> 00:51:10,800 Dan kan die kijken: in welke richting 1029 00:51:10,960 --> 00:51:13,520 levert mijn netwerk meer goede antwoorden op? 1030 00:51:13,680 --> 00:51:15,800 Als je netwerk meer goede antwoorden geeft 1031 00:51:15,960 --> 00:51:17,840 als je die verbinding wat sterker zet, 1032 00:51:18,000 --> 00:51:20,120 dan verzet de computer die naar daar. 1033 00:51:20,280 --> 00:51:22,000 Dan kijkt hij naar die tweede verbinding 1034 00:51:22,160 --> 00:51:24,240 en maakt die een beetje sterker en zwakker. 1035 00:51:24,400 --> 00:51:26,000 En hij kijkt: in welke richting 1036 00:51:26,160 --> 00:51:28,920 levert mijn netwerk meer goede antwoorden op? 1037 00:51:29,080 --> 00:51:30,840 Als je netwerk meer goede antwoorden geeft 1038 00:51:31,000 --> 00:51:34,560 als je die verbinding zwakker zet, dan verzet de computer die naar daar. 1039 00:51:34,720 --> 00:51:36,840 Dan doet die hetzelfde met die derde verbinding. 1040 00:51:37,000 --> 00:51:40,520 En met die vierde en met die vijfde. En zo gaat die aan een razend tempo 1041 00:51:40,680 --> 00:51:44,600 al die verbindingen aflopen en ze allemaal een klein beetje corrigeren 1042 00:51:44,760 --> 00:51:47,920 in de richting waarin het netwerk meer goede antwoorden geeft. 1043 00:51:48,080 --> 00:51:49,480 Als die helemaal op het einde is, 1044 00:51:49,640 --> 00:51:52,000 heeft die een nieuw en verbeterd netwerk, 1045 00:51:52,160 --> 00:51:54,520 maar het zal nog altijd niet heel goed werken. 1046 00:51:54,680 --> 00:51:55,960 Daarom begint die opnieuw. 1047 00:51:56,120 --> 00:51:59,200 Die gaat weer al die verbindingen af, en opnieuw en opnieuw. 1048 00:51:59,360 --> 00:52:01,240 Tienduizenden keren. 1049 00:52:01,400 --> 00:52:05,240 Je ziet waarom er zoveel rekenkracht nodig is om AI te trainen. 1050 00:52:05,400 --> 00:52:07,080 Maar als alles goed gaat, 1051 00:52:07,240 --> 00:52:10,840 komt die op een bepaald moment uit op een neuraal netwerk 1052 00:52:11,000 --> 00:52:14,800 dat voor alle voorbeeldfoto's het juiste antwoord geeft. 1053 00:52:14,960 --> 00:52:17,760 Dan zegt die computer: Ik denk dat ik het kan. 1054 00:52:19,000 --> 00:52:22,760 Dan moet je dat testen door het nieuwe afbeeldingen te tonen 1055 00:52:22,920 --> 00:52:24,920 die het netwerk nog nooit gezien heeft. 1056 00:52:25,080 --> 00:52:27,440 Als die daar ook het juiste antwoord op geeft, 1057 00:52:27,600 --> 00:52:31,400 dan heeft die computer blijkbaar een neuraal netwerk gevonden 1058 00:52:31,560 --> 00:52:35,440 dat dobbelstenen herkent op foto's en zegt op welk aantal die liggen. 1059 00:52:37,440 --> 00:52:39,880 Hoe dat uiteindelijke netwerk dat doet, 1060 00:52:40,040 --> 00:52:43,280 dus waarom die gevonden set van verbindingen 1061 00:52:43,440 --> 00:52:47,600 blijkbaar dobbelstenen herkent op foto's, dat snappen we niet. 1062 00:52:48,880 --> 00:52:50,160 Dat is een mysterie. 1063 00:52:51,560 --> 00:52:53,360 Maar het werkt, dus laat het met rust. 1064 00:52:53,520 --> 00:52:54,960 (publiek lacht) 1065 00:52:55,120 --> 00:52:58,680 Dat is hoe we in België omgaan met de staatsstructuur: blijf eraf, 1066 00:52:58,840 --> 00:53:00,040 het gaat kapotgaan. 1067 00:53:01,600 --> 00:53:04,200 Maar die computer heeft dus verbindingen aangepast 1068 00:53:04,360 --> 00:53:07,760 tot dat netwerk een bepaalde taak kon uitvoeren. 1069 00:53:07,920 --> 00:53:12,000 En dat werkt. Maar waarom dat werkt, dat weten we niet. 1070 00:53:12,760 --> 00:53:15,080 Ze noemen dat 'the black box of AI'. 1071 00:53:15,240 --> 00:53:18,000 Het lijkt alsof er een zwarte doos over je neurale netwerk zit. 1072 00:53:18,160 --> 00:53:20,360 Je stopt daar input in, daar komt een antwoord uit, 1073 00:53:20,520 --> 00:53:22,680 wat daartussen gebeurt: 'nobody knows.' 1074 00:53:23,760 --> 00:53:26,480 Voilà, dat is het einde van het moeilijke stukje. 1075 00:53:26,640 --> 00:53:30,880 Applaus voor jezelf. Zeer zeker. Goed gedaan, allemaal. 1076 00:53:34,000 --> 00:53:36,840 Voor de mensen die in stand-by waren: welkom terug. 1077 00:53:37,000 --> 00:53:39,680 Het was supergezellig. Er was koffie en taart. 1078 00:53:39,840 --> 00:53:42,480 En het belangrijkste wat je moet onthouden, is dit: 1079 00:53:42,640 --> 00:53:45,520 de computer gaat zelf op zoek naar een neuraal netwerk 1080 00:53:45,680 --> 00:53:47,840 tot het een bepaalde taak kan uitvoeren. 1081 00:53:48,000 --> 00:53:50,920 En uiteindelijk lukt dat en we snappen niet waarom. 1082 00:53:51,080 --> 00:53:53,040 'The black box of AI'. 1083 00:53:53,200 --> 00:53:55,800 Het feit dat een neuraal netwerk een beetje een zwarte doos is, 1084 00:53:55,960 --> 00:53:59,120 geeft natuurlijk problemen. Als een neuraal netwerk iets heel geks doet, 1085 00:53:59,280 --> 00:54:01,960 kan het ons niet zeggen waarom het gek doet. 1086 00:54:02,120 --> 00:54:04,040 Een paar jaar terug hebben ze AI getraind 1087 00:54:04,200 --> 00:54:06,920 en die moest wolven en husky's uit elkaar leren herkennen. 1088 00:54:07,480 --> 00:54:09,680 Met heel veel voorbeeldfoto's van wolven en husky's 1089 00:54:09,840 --> 00:54:11,240 heeft dat netwerk zich aangepast 1090 00:54:11,400 --> 00:54:13,240 tot het die goed uit elkaar kon herkennen. 1091 00:54:13,400 --> 00:54:16,880 Dan hebben ze dat getest met nieuwe foto's en dat werkte perfect. 1092 00:54:17,040 --> 00:54:19,040 Tot ze dan opeens een foto tonen van een wolf 1093 00:54:19,200 --> 00:54:22,200 en dat netwerk zegt: Dit is 100 procent zeker een husky. 1094 00:54:23,200 --> 00:54:24,440 Er loopt iets fout. 1095 00:54:25,480 --> 00:54:28,360 Je kan niet vragen aan dat netwerk: Waarom denk je dat dit een husky is? 1096 00:54:28,520 --> 00:54:31,520 Dat weet hij zelf niet. 'Computer says yes.' 1097 00:54:31,680 --> 00:54:33,120 (publiek lacht) 1098 00:54:33,280 --> 00:54:36,880 Ze hebben nieuwe software geschreven die pixel per pixel ging controleren 1099 00:54:37,040 --> 00:54:40,640 hoeveel invloed die pixel gehad had op het uiteindelijke antwoord. 1100 00:54:40,800 --> 00:54:44,600 Zo hebben ze ontdekt dat om wolven en husky's van elkaar te onderscheiden, 1101 00:54:44,760 --> 00:54:46,800 het netwerk maar op één ding lette. 1102 00:54:47,800 --> 00:54:49,320 Ligt er sneeuw op de achtergrond? 1103 00:54:49,480 --> 00:54:51,840 (publiek lacht) 1104 00:54:55,600 --> 00:54:59,000 Als er bij al je voorbeeldfoto's van husky's sneeuw ligt 1105 00:54:59,160 --> 00:55:01,800 en bij alle voorbeeldfoto's van wolven niet, 1106 00:55:01,960 --> 00:55:04,280 is dat hetgeen wat dat netwerk oppikt. 1107 00:55:04,440 --> 00:55:06,920 Die computer weet niet dat hij dieren moet vergelijken. 1108 00:55:07,080 --> 00:55:10,520 Het enige wat die computer zoekt, is het grootste statistische verschil 1109 00:55:10,680 --> 00:55:13,800 tussen twee fotosets. Als dat de sneeuw op de achtergrond is, 1110 00:55:13,960 --> 00:55:15,600 komt dat terug in je neurale netwerk 1111 00:55:15,760 --> 00:55:18,160 zonder dat je het weet en zonder dat je het wilt. 1112 00:55:19,280 --> 00:55:22,920 Deze anekdote, de sneeuw op de achtergrond, wordt heel vaak gebruikt 1113 00:55:23,080 --> 00:55:25,160 om computerwetenschappers te waarschuwen: 1114 00:55:25,320 --> 00:55:29,920 let op voor dit soort verborgen hints in je trainingsdata 1115 00:55:30,080 --> 00:55:32,200 waar je geen rekening mee gehouden hebt. 1116 00:55:32,360 --> 00:55:35,800 De bias wordt het genoemd. 'The bias in the training data'. 1117 00:55:35,960 --> 00:55:39,560 En wat blijkt? Dit gebeurt constant. 1118 00:55:39,720 --> 00:55:44,240 Mensen zijn heel slecht in het samenstellen van trainingsdata 1119 00:55:44,400 --> 00:55:47,480 waar dit soort bias niet in verborgen zit. 1120 00:55:47,640 --> 00:55:50,040 Een jaar of twee terug hebben ze een app gemaakt 1121 00:55:50,200 --> 00:55:52,400 en die kon met een foto van een huidvlek zien 1122 00:55:52,560 --> 00:55:55,200 of het een melanoom was of een onschuldige huidvlek. 1123 00:55:55,360 --> 00:55:57,960 Heel veel trainingsfoto's van melanomen gevraagd aan dokters 1124 00:55:58,120 --> 00:56:00,920 en heel veel gewone huidvlekfoto's genomen bij vrijwilligers. 1125 00:56:01,080 --> 00:56:02,960 Bij de eerste versie liep het al fout, 1126 00:56:03,120 --> 00:56:05,200 want het belangrijkste waar de app op lette, was: 1127 00:56:05,360 --> 00:56:07,160 ligt er een latje van de dokter naast? 1128 00:56:07,320 --> 00:56:09,160 (publiek lacht) 1129 00:56:09,320 --> 00:56:12,320 Zoals in de trainingsdata met de melanomen. 1130 00:56:12,480 --> 00:56:15,200 De sneeuw op de achtergrond is een hardnekkig probleem 1131 00:56:15,360 --> 00:56:16,880 in de AI-wetenschap. 1132 00:56:17,560 --> 00:56:20,200 En bij wolven en husky's is dat best grappig, 1133 00:56:20,360 --> 00:56:22,560 bij melanoomdetectie ietsje minder. 1134 00:56:23,760 --> 00:56:25,680 Stel dat wij technologie gaan gebruiken, 1135 00:56:25,840 --> 00:56:28,160 AI gaan gebruiken, die beslissingen neemt 1136 00:56:28,320 --> 00:56:30,480 die een soort maatschappelijk gevolg hebben, 1137 00:56:30,640 --> 00:56:32,280 dan wil je dat helemaal niet. 1138 00:56:32,440 --> 00:56:36,360 Daarom heeft de Europese Unie gezegd: Wij staan het niet toe. 1139 00:56:36,520 --> 00:56:38,760 In de AI Act staat momenteel: 1140 00:56:38,920 --> 00:56:42,640 elk AI-systeem dat een beslissing neemt met een maatschappelijke impact 1141 00:56:42,800 --> 00:56:43,960 moet 'explainable' zijn, 1142 00:56:44,120 --> 00:56:46,800 Moet kunnen uitleggen hoe het tot die beslissing komt. 1143 00:56:46,960 --> 00:56:49,000 Veel neurale netwerken zijn niet 'explainable' 1144 00:56:49,160 --> 00:56:51,840 en zijn zelfs niet 'explainable' te maken soms. 1145 00:56:52,560 --> 00:56:55,640 In Amerika zijn ze daar allemaal wat minder ongerust over. 1146 00:56:55,800 --> 00:56:57,840 Zoals over vele dingen. 1147 00:56:58,000 --> 00:56:59,720 Merken we aan de voorverkiezingen. 1148 00:57:01,120 --> 00:57:04,480 Gekke oranje man nog een keer? Awel ja, gekke oranje man nog een keer. 1149 00:57:04,640 --> 00:57:07,160 (publiek lacht) 1150 00:57:07,320 --> 00:57:09,960 In de States wordt momenteel AI getest 1151 00:57:10,120 --> 00:57:13,680 die beslist wie een woonlening krijgt en wie niet. 1152 00:57:13,840 --> 00:57:16,000 Je geeft een dossier aan een neuraal netwerk 1153 00:57:16,160 --> 00:57:18,440 en dat zegt: Die moet je een lening geven, die niet. 1154 00:57:18,600 --> 00:57:21,120 Maar op basis waarvan dat beslist, weten we niet. 1155 00:57:21,280 --> 00:57:24,400 Getraind op dossiers van wanbetalers en goede terugbetalers. 1156 00:57:24,560 --> 00:57:26,840 Daar kan sneeuw op de achtergrond zitten. 1157 00:57:27,000 --> 00:57:30,880 De wijk waarin je geboren bent, kan opeens meespelen in de beslissing 1158 00:57:31,040 --> 00:57:33,200 als daar veel wanbetalers geboren waren. 1159 00:57:33,720 --> 00:57:35,920 Er wordt AI getraind in de States 1160 00:57:36,080 --> 00:57:39,720 die beslist wie voorwaardelijk vrij mag komen uit de gevangenis. 1161 00:57:39,880 --> 00:57:43,400 COMPAS heet dat systeem. Van het ministerie van Justitie. 1162 00:57:43,560 --> 00:57:46,120 Ook daar kan er zomaar sneeuw op de achtergrond zitten 1163 00:57:46,280 --> 00:57:47,560 in die trainingsdata. 1164 00:57:47,720 --> 00:57:50,320 Er wordt AI getraind in de States en gebruikt 1165 00:57:50,480 --> 00:57:52,280 die beslist wie naar de volgende ronde mag 1166 00:57:52,440 --> 00:57:54,240 in een sollicitatieprocedure. 1167 00:57:55,320 --> 00:57:56,680 Hoe train je zo'n netwerk? 1168 00:57:56,840 --> 00:58:00,720 Door alle profielen van mensen die de job vroeger goed uitgeoefend hebben. 1169 00:58:00,880 --> 00:58:04,400 Als dat jobs waren die vroeger heel typisch aan mannen gegeven werden 1170 00:58:04,560 --> 00:58:05,880 of heel typisch aan vrouwen, 1171 00:58:06,040 --> 00:58:08,280 gaat je neurale netwerk selecteren op geslacht 1172 00:58:08,440 --> 00:58:11,320 zonder dat je dat wilt en zonder dat je dat weet. 1173 00:58:11,480 --> 00:58:14,520 De sneeuw op de achtergrond is een hardnekkig probleem. 1174 00:58:14,680 --> 00:58:17,520 En zelfs in ons persoonlijke leven. 1175 00:58:17,680 --> 00:58:21,520 De spamfilter op je mailbox is een neuraal netwerk. 1176 00:58:21,680 --> 00:58:24,040 Een neuraal netwerk getraind met heel veel spammails 1177 00:58:24,200 --> 00:58:26,320 en met heel veel niet-spammails. 1178 00:58:26,480 --> 00:58:29,080 Wat blijkt nu? Als je exact dezelfde tekst schrijft 1179 00:58:29,240 --> 00:58:31,440 en je ondertekent die met een niet-westerse naam, 1180 00:58:31,600 --> 00:58:34,360 heb je vijf keer meer kans om in de spam terecht te komen. 1181 00:58:35,360 --> 00:58:37,200 Niemand heeft dat daar bewust in gestopt. 1182 00:58:37,360 --> 00:58:40,800 Er zit nergens een handenwrijvende, kwaadaardige programmeur 1183 00:58:40,960 --> 00:58:45,040 dat erin te stoppen. Dat sluipt erin via de sneeuw op de achtergrond 1184 00:58:45,200 --> 00:58:46,680 en als je het niet doorhebt, 1185 00:58:46,840 --> 00:58:49,160 selecteert dat effectief op dat soort dingen. 1186 00:58:49,320 --> 00:58:51,440 Sneeuw op de achtergrond: hardnekkig probleem. 1187 00:58:51,600 --> 00:58:53,680 Computerwetenschappers zijn zich ervan bewust. 1188 00:58:53,840 --> 00:58:57,160 Ze proberen er op te letten, maar het is niet altijd goed te spotten 1189 00:58:57,320 --> 00:58:58,320 of te vermijden. 1190 00:58:58,480 --> 00:59:01,200 Dit is iets wat we allemaal in ons achterhoofd moeten houden. 1191 00:59:01,360 --> 00:59:04,920 Want wij gaan allemaal werken met AI in de komende jaren. 1192 00:59:06,560 --> 00:59:10,200 Dan zeg ik tegen de zaal: Jullie gaan allemaal werken met AI. 1193 00:59:10,360 --> 00:59:13,080 Ik heb net een joekel van een neuraal netwerk laten zien 1194 00:59:13,240 --> 00:59:16,720 en hier en daar krijg ik blikken die zeggen: Nee, dank je. 1195 00:59:16,880 --> 00:59:20,360 Laat mij maar lekker met rust met de cijfers en de bolletjes. 1196 00:59:20,520 --> 00:59:24,080 Ik heb goed nieuws voor je: hiermee hoef je niet te werken. 1197 00:59:24,240 --> 00:59:26,280 Dit zit onder de motorkap. 1198 00:59:26,440 --> 00:59:28,520 Dat hebben de experts voor ons gebouwd. 1199 00:59:28,680 --> 00:59:30,280 Als wij gaan werken met AI, 1200 00:59:30,440 --> 00:59:33,680 zal dat via een gebruiksvriendelijke interface zijn. 1201 00:59:33,840 --> 00:59:36,520 Net zoals je met de auto rijdt met een stuur en pedalen. 1202 00:59:36,680 --> 00:59:40,160 Je moet niet zelf je verbrandingsmotor in elkaar vijzen. 1203 00:59:40,320 --> 00:59:42,520 Dit is de verbrandingsmotor. 1204 00:59:42,680 --> 00:59:45,360 Als wij werken met AI, zal dat via een interface zijn. 1205 00:59:45,520 --> 00:59:48,040 En die interfaces bestaan nu al. 1206 00:59:48,200 --> 00:59:51,760 Elk van jullie die vanavond een neuraal netwerk wil trainen, 1207 00:59:51,920 --> 00:59:54,000 kan dat gewoon doen op het internet, 1208 00:59:54,160 --> 00:59:56,440 zonder dat je één lijn moet programmeren. 1209 00:59:56,600 --> 01:00:01,000 Ik kan bijvoorbeeld op deze website, customvision.ai van Microsoft... 1210 01:00:01,160 --> 01:00:03,320 Als je naar die website gaat en je maakt een account 1211 01:00:03,480 --> 01:00:06,560 en jij hebt 20 foto's van wolven en 20 foto's van husky's... 1212 01:00:06,720 --> 01:00:09,480 Jij geeft die het juiste label en je uploadt die op die website. 1213 01:00:09,640 --> 01:00:11,960 Dan krijg jij een tijdje later gratis software terug 1214 01:00:12,120 --> 01:00:14,480 die wolven en husky's uit elkaar herkent. 1215 01:00:14,640 --> 01:00:17,280 Let op de sneeuw op de achtergrond, maar voor de rest 1216 01:00:17,440 --> 01:00:18,800 werkt dat heel goed. 1217 01:00:19,680 --> 01:00:21,800 Als iemand van jullie een webcam op de voordeur wil 1218 01:00:21,960 --> 01:00:23,800 die al je vrienden herkent 1219 01:00:23,960 --> 01:00:27,480 en een ander geluidje maakt bij de toffe en niet zo toffe, dat kan. 1220 01:00:27,640 --> 01:00:29,680 (publiek lacht) 1221 01:00:29,840 --> 01:00:31,480 Kan je zelf bouwen. 1222 01:00:33,120 --> 01:00:35,360 Nog een website die het aanbiedt die ik graag vernoem, 1223 01:00:35,520 --> 01:00:39,920 omdat hij gericht is op jongeren, is Teachable Machine van Google. 1224 01:00:40,080 --> 01:00:42,800 Kan ook leren om afbeeldingen te herkennen. 1225 01:00:42,960 --> 01:00:45,440 Kan muziekstijlen herkennen van verschillende bands, 1226 01:00:45,600 --> 01:00:47,000 ze uit elkaar leren herkennen. 1227 01:00:47,160 --> 01:00:49,520 Kan je houding gebruiken om je computer te besturen 1228 01:00:49,680 --> 01:00:52,080 en kan zelfs je stemgeluid leren herkennen. 1229 01:00:52,240 --> 01:00:54,600 Gewoon genoeg opnames van jouw stem en andere stemmen, 1230 01:00:54,760 --> 01:00:57,160 juiste label geven: dit ben ik, dit ben ik niet. 1231 01:00:57,320 --> 01:01:00,560 En je krijgt software terug die jouw stem herkent. 1232 01:01:00,720 --> 01:01:05,000 Elke tiener die een slot wil bouwen op de deur van hun kamer 1233 01:01:05,160 --> 01:01:08,840 dat enkel opengaat als het hun stem hoort, kan dat vandaag. 1234 01:01:09,000 --> 01:01:12,160 Met genoeg tijd, doorzettingsvermogen en zonder veel programmeerwerk 1235 01:01:12,320 --> 01:01:14,160 kan je dat zelf bouwen. 1236 01:01:14,320 --> 01:01:15,920 Ik ga op het einde van de voorstelling 1237 01:01:16,080 --> 01:01:19,240 een afbeelding tonen met alle apps en websites die ik vernoemd heb. 1238 01:01:19,400 --> 01:01:21,680 Dan kan je daar een foto van nemen als je naar buiten gaat 1239 01:01:21,840 --> 01:01:25,160 en kun je het hele weekend spelen met AI als je dat wilt. 1240 01:01:25,320 --> 01:01:29,480 Maar dus, zelf knutselen met AI via die websites 1241 01:01:29,640 --> 01:01:31,200 is heel toegankelijk geworden. 1242 01:01:31,360 --> 01:01:33,480 Vandaag al zijn er over de hele wereld 1243 01:01:33,640 --> 01:01:37,920 gewone huis-, tuin- en keukenklussers zonder veel computerkennis 1244 01:01:38,080 --> 01:01:39,800 aan het klussen met AI. 1245 01:01:40,480 --> 01:01:42,360 Zoals Ben Hamm. 1246 01:01:42,520 --> 01:01:46,160 Ben Hamm is een Amerikaanse man en hij heeft een kat. 1247 01:01:46,320 --> 01:01:48,040 Hij heeft een klein probleem met zijn kat, 1248 01:01:48,200 --> 01:01:50,400 want zijn kat vindt hem supercool. 1249 01:01:51,360 --> 01:01:53,440 Wat doet een kat als ze je supercool vindt? 1250 01:01:53,600 --> 01:01:55,320 Dan brengt ze je cadeautjes. 1251 01:01:56,840 --> 01:01:59,360 In de vorm van een stervende pimpelmees. 1252 01:02:00,240 --> 01:02:04,360 Die bloed en kak kotst over je tapijt. Ben vindt dat niet tof. 1253 01:02:04,520 --> 01:02:07,840 Dus wat heeft Ben gedaan? Een webcam op zijn kattenluik gehangen. 1254 01:02:08,000 --> 01:02:10,600 Daarmee heeft hij een paar honderd foto's verzameld 1255 01:02:10,760 --> 01:02:12,240 van zijn kat met een prooi 1256 01:02:12,400 --> 01:02:15,360 en een paar duizend van zijn kat zonder een prooi. 1257 01:02:15,520 --> 01:02:18,000 Die heeft hij handmatig gelabeld 1258 01:02:18,160 --> 01:02:20,320 en dan geüpload naar Teachable Machine. 1259 01:02:20,480 --> 01:02:22,360 Een beetje later kreeg hij software terug 1260 01:02:22,520 --> 01:02:25,440 die kon zien of zijn kat een prooi bij zich heeft. 1261 01:02:25,600 --> 01:02:27,840 Die heeft hij op een computertje, een Arduino, gezet. 1262 01:02:28,000 --> 01:02:29,640 Dat heeft hij verbonden met die webcam. 1263 01:02:29,800 --> 01:02:32,440 Aan dat computertje heeft hij een elektronisch slot gehangen 1264 01:02:32,600 --> 01:02:33,720 op zijn kattenluik. 1265 01:02:35,040 --> 01:02:37,160 Ben zijn kattenluik gaat automatisch op slot 1266 01:02:37,320 --> 01:02:38,880 als zijn kat een prooi meeheeft. 1267 01:02:39,040 --> 01:02:40,480 (publiek lacht) 1268 01:02:40,640 --> 01:02:44,880 Twintig jaar geleden kon geen enkel softwarebedrijf dat voor jou bouwen. 1269 01:02:45,040 --> 01:02:47,800 Vandaag maak je dat aan je eigen keukentafel 1270 01:02:47,960 --> 01:02:49,960 voor 20 euro aan onderdelen. 1271 01:02:51,120 --> 01:02:53,120 Ik vraag me alleen soms af... 1272 01:02:53,280 --> 01:02:54,600 Hoe voelt het voor de kat? 1273 01:02:54,760 --> 01:02:56,400 (publiek lacht) 1274 01:02:56,560 --> 01:02:58,280 Maar die heeft een cadeautje mee. 1275 01:02:59,200 --> 01:03:03,800 Leef je even in: je gaat op bezoek bij vrienden en hebt pralines mee. 1276 01:03:03,960 --> 01:03:06,360 (publiek lacht) 1277 01:03:06,520 --> 01:03:09,120 Je komt aan de voordeur: klak. Raar... 1278 01:03:09,960 --> 01:03:11,080 Heel raar. 1279 01:03:12,440 --> 01:03:14,800 Je kunt dat ook omgekeerd trainen. 1280 01:03:14,960 --> 01:03:17,600 Als iemand van jullie een voordeur wil die enkel opengaat 1281 01:03:17,760 --> 01:03:19,800 als je partner bloemen meeheeft: dat kan. 1282 01:03:19,960 --> 01:03:21,320 (publiek lacht) 1283 01:03:21,480 --> 01:03:23,440 Als je partner na het zien van deze voorstelling 1284 01:03:23,600 --> 01:03:26,120 heel veel foto's van je begint te nemen 1285 01:03:26,280 --> 01:03:30,000 met en zonder bloemen, maak je dan zorgen. 1286 01:03:31,720 --> 01:03:35,200 Klein voordeel: een T-shirt met een boeket op werkt eigenlijk ook, dus... 1287 01:03:36,520 --> 01:03:39,840 Ik verkoop ze straks na de voor... Nee, dat is niet waar. 1288 01:03:40,000 --> 01:03:42,200 Maar knutselen met AI: iedereen kan het. 1289 01:03:42,360 --> 01:03:44,440 Nog een voorbeeldje. Het komt uit Schotland, 1290 01:03:44,600 --> 01:03:46,360 van de voetbalploeg Inverness. 1291 01:03:46,520 --> 01:03:49,840 Tijdens de lockdown mochten er geen fans binnen in het stadion. 1292 01:03:50,000 --> 01:03:52,760 Wat hebben ze gedaan? Ze hebben een webcam op het veld gericht 1293 01:03:52,920 --> 01:03:55,680 en de mensen konden van thuis uit meekijken naar de voetbalmatch 1294 01:03:55,840 --> 01:03:57,320 in het lege stadion. 1295 01:03:57,480 --> 01:04:00,760 Alleen: die webcam filmt heel dat veld en dat is een beetje saai. 1296 01:04:00,920 --> 01:04:03,360 Je ziet een groot veld met veel te kleine mannetjes. 1297 01:04:03,520 --> 01:04:05,720 Iemand van die ploeg heeft AI getraind 1298 01:04:05,880 --> 01:04:09,040 tot die de voetbal kon herkennen op het veld. 1299 01:04:09,200 --> 01:04:13,240 Dan kon de camera digitaal inzoomen op het stuk waar er gespeeld werd. 1300 01:04:13,400 --> 01:04:17,160 Dat was veel toffer om naar te kijken en dat werkte perfect. 1301 01:04:17,920 --> 01:04:18,960 Enfin... 1302 01:04:19,120 --> 01:04:21,480 Dat werkte perfect tot bij deze wedstrijd. 1303 01:04:22,880 --> 01:04:24,800 Wat is het probleem bij deze wedstrijd? 1304 01:04:24,960 --> 01:04:28,040 De lijnrechter is kaal. En... 1305 01:04:28,200 --> 01:04:30,200 (publiek lacht) 1306 01:04:31,680 --> 01:04:32,720 Ja... 1307 01:04:35,760 --> 01:04:38,480 De AI zoekt een rond, glimmend object. 1308 01:04:38,640 --> 01:04:40,280 (publiek lacht) 1309 01:04:43,080 --> 01:04:46,280 Heel de wedstrijd lang keken de mensen naar Patrick. 1310 01:04:50,560 --> 01:04:53,280 Zal deze aanval tot een goal leiden? We gaan het nooit weten. 1311 01:04:53,440 --> 01:04:55,120 (publiek lacht) 1312 01:04:55,280 --> 01:04:58,920 Mensen belden naar het stadion. Ze vroegen: Zet die man een pruik op. 1313 01:05:00,240 --> 01:05:03,880 Maar het is niet gelukt en dit is heel de wedstrijd dus blijven duren. 1314 01:05:04,040 --> 01:05:05,640 Dit gebeurt af en toe. 1315 01:05:05,800 --> 01:05:09,280 Soms zijn er patronen die makkelijk uit mekaar te houden zijn voor ons, 1316 01:05:09,440 --> 01:05:11,720 maar die heel moeilijk zijn voor AI. 1317 01:05:11,880 --> 01:05:14,440 Er circuleren een paar bekende fotosets 1318 01:05:14,600 --> 01:05:16,040 die worden gebruikt om te testen 1319 01:05:16,200 --> 01:05:19,080 hoe goed je AI-systeem al op details kan letten. 1320 01:05:19,240 --> 01:05:22,160 De bekendste is deze. Dit is 'muffin of chihuahua'. 1321 01:05:22,320 --> 01:05:24,320 (publiek lacht) 1322 01:05:31,920 --> 01:05:33,240 Het is moeilijk. 1323 01:05:34,600 --> 01:05:35,960 Het is moeilijk. 1324 01:05:36,440 --> 01:05:38,760 Je hebt ook 'luiaard of chocoladebroodje'. 1325 01:05:38,920 --> 01:05:40,560 (publiek lacht) 1326 01:05:42,200 --> 01:05:45,240 Zoogdieren en gebak, het is een dingetje. Ik weet niet juist hoe. 1327 01:05:46,000 --> 01:05:47,760 Appel of kerkuil? Enfin, het is... 1328 01:05:49,160 --> 01:05:50,440 eindeloos. 1329 01:05:51,360 --> 01:05:54,240 En mijn persoonlijke favorietje is 'windhond of Saruman'. 1330 01:05:54,400 --> 01:05:56,560 (publiek lacht) 1331 01:05:58,800 --> 01:06:02,240 Allemaal patronen die gemakkelijk zijn voor ons 1332 01:06:02,400 --> 01:06:04,520 en heel moeilijk voor een AI-systeem. 1333 01:06:05,560 --> 01:06:07,200 Het gekke is: 1334 01:06:07,360 --> 01:06:11,760 het omgekeerde gebeurt ook al. Er zijn steeds vaker momenten 1335 01:06:11,920 --> 01:06:16,720 waarop AI-systemen patronen zien die wij als mens niet kunnen zien. 1336 01:06:16,880 --> 01:06:19,560 Dat zijn magische momenten. AI ontdekt een patroon 1337 01:06:19,720 --> 01:06:21,720 dat wij als mens niet kunnen zien. 1338 01:06:21,880 --> 01:06:24,240 Ik heb een voorbeeld uit België. Het komt van bij VITO, 1339 01:06:24,400 --> 01:06:26,680 de Vlaamse Instelling voor Technologisch Onderzoek. 1340 01:06:26,840 --> 01:06:30,960 En bij VITO hebben ze AI getraind die oogartsen kan assisteren 1341 01:06:31,120 --> 01:06:33,360 bij de controle van een netvliesfoto. 1342 01:06:33,520 --> 01:06:34,960 Dit is een netvliesfoto. 1343 01:06:35,120 --> 01:06:37,600 Dit is meer bepaald mijn netvlies dat we hier zien. 1344 01:06:37,760 --> 01:06:41,000 Want ik toon al graag eens een foto van mijn blote retina. 1345 01:06:41,160 --> 01:06:43,720 (publiek lacht) 1346 01:06:43,880 --> 01:06:46,120 Mensen met hoge cholesterol of met diabetes 1347 01:06:46,280 --> 01:06:48,480 laten best één keer per jaar naar hun netvlies kijken. 1348 01:06:48,640 --> 01:06:51,840 De oogarts kijkt dan naar schade aan die kleine adertjes. 1349 01:06:52,000 --> 01:06:54,800 Dat kan tot slecht zicht leiden en dan heb je een behandeling nodig. 1350 01:06:54,960 --> 01:06:57,120 Alleen zijn veel van die oogartsen overbezet 1351 01:06:57,280 --> 01:07:00,040 en die hebben geen tijd om iedereen voor de volle afspraak te zien. 1352 01:07:00,200 --> 01:07:04,120 Bij VITO hebben ze AI getraind die dat voor een stuk kan overnemen. 1353 01:07:04,280 --> 01:07:07,200 Dus je toont dat AI-systeem een foto van een netvlies 1354 01:07:07,360 --> 01:07:08,520 en dat systeem beslist: 1355 01:07:08,680 --> 01:07:11,160 jij moet zeker naar de arts en jij misschien niet. 1356 01:07:12,120 --> 01:07:14,240 Toen ze dat getraind hebben, hebben ze bij elke foto 1357 01:07:14,400 --> 01:07:16,520 ook heel veel patiënteninformatie gegeven. 1358 01:07:16,680 --> 01:07:21,280 Geslacht van de patiënt, leeftijd, roker of niet-roker, enzovoort. 1359 01:07:21,440 --> 01:07:23,640 Na een tijdje gebeurt er iets geks. 1360 01:07:23,800 --> 01:07:26,200 Ze tonen dat AI-systeem een foto van een netvlies 1361 01:07:26,360 --> 01:07:29,440 en dat AI-systeem zegt: Dit is een gezond netvlies 1362 01:07:29,600 --> 01:07:30,840 en het is van een vrouw. 1363 01:07:33,120 --> 01:07:36,200 Er is geen enkele oogarts in heel de wereld 1364 01:07:36,360 --> 01:07:38,880 die aan je netvlies je geslacht kan bepalen. 1365 01:07:39,040 --> 01:07:42,320 Niemand kan dat. Dat AI-systeem doet dat feilloos. 1366 01:07:43,280 --> 01:07:46,680 De AI heeft een geslachtsafhankelijk patroon gevonden in ons netvlies 1367 01:07:46,840 --> 01:07:49,600 waarvan wij niet eens wisten dat het bestond. 1368 01:07:50,680 --> 01:07:53,200 Wat dat patroon is, kan het ons niet zeggen. 1369 01:07:53,360 --> 01:07:54,680 Dat zit in de black box. 1370 01:07:55,600 --> 01:07:59,040 We weten nog altijd niet hoe dat ding het doet. 1371 01:08:00,200 --> 01:08:02,200 Toen ze dat zagen bij VITO, dachten ze: 1372 01:08:02,360 --> 01:08:04,520 Misschien zijn er nog aandoeningen 1373 01:08:04,680 --> 01:08:08,120 waar AI een voorspelling voor kan doen op basis van een netvliesfoto 1374 01:08:08,280 --> 01:08:10,800 zonder dat de mens dat kan. En ze hebben geprobeerd 1375 01:08:10,960 --> 01:08:14,360 om andere diagnoses te halen uit een netvliesfoto. 1376 01:08:14,520 --> 01:08:16,440 En het is twee keer gelukt. 1377 01:08:16,600 --> 01:08:19,760 Het vroege begin van alzheimer en het vroege begin van parkinson 1378 01:08:19,920 --> 01:08:22,800 kan AI detecteren op basis van deze foto, 1379 01:08:22,960 --> 01:08:25,680 terwijl een mens nog helemaal niks ziet. 1380 01:08:25,840 --> 01:08:28,480 AI die patronen ziet die wij niet zien 1381 01:08:28,640 --> 01:08:32,000 en ons dan waarschuwt voor dingen die gaan gebeuren in de toekomst. 1382 01:08:32,160 --> 01:08:34,680 Ik denk dat daar heel veel toepassingen van komen. 1383 01:08:34,840 --> 01:08:36,320 Wellicht wereldwijde systemen 1384 01:08:36,480 --> 01:08:39,480 die kunnen waarschuwen voor aardbevingen, vulkaanuitbarstingen, 1385 01:08:39,640 --> 01:08:42,880 tsunami's, droogtes, overstromingen, enzovoort. 1386 01:08:43,040 --> 01:08:44,800 Maar evengoed zou je kunnen denken 1387 01:08:44,960 --> 01:08:48,320 aan AI-patronen in ons eigen, persoonlijke leven. 1388 01:08:49,120 --> 01:08:50,760 Je domotica bijvoorbeeld. 1389 01:08:50,920 --> 01:08:53,240 Gekoppeld aan een AI-systeem dat patronen zoekt. 1390 01:08:53,400 --> 01:08:55,480 Dat kijkt wanneer je opstaat en gaat slapen. 1391 01:08:55,640 --> 01:08:57,880 Een camera die bijhoudt wat je eet en wanneer. 1392 01:08:58,040 --> 01:09:00,160 Je gaat heel snel voedselintoleranties 1393 01:09:00,320 --> 01:09:03,960 en allergieën kunnen detecteren. Een camera die je hartslag volgt, 1394 01:09:04,120 --> 01:09:06,320 via je gezicht misschien je gemoedstoestand. 1395 01:09:06,480 --> 01:09:08,080 Als die allemaal samenwerken, 1396 01:09:08,240 --> 01:09:10,680 kunnen die patronen zoeken en je assisteren. 1397 01:09:11,520 --> 01:09:14,320 We moeten ook nog kiezen wie al die data mag beheren, 1398 01:09:14,480 --> 01:09:16,640 maar daarvoor zijn we blind vanavond. 1399 01:09:17,880 --> 01:09:20,760 Maar als die systemen samenwerken, kunnen ze wel patronen vinden. 1400 01:09:20,920 --> 01:09:23,120 Stel je voor dat je op een vrije dag 1401 01:09:23,280 --> 01:09:25,040 altijd te lang in je nest blijft liggen. 1402 01:09:25,200 --> 01:09:28,280 Dan drink je veel te veel koffie, daardoor sla je het middageten over 1403 01:09:28,440 --> 01:09:30,400 en 's avonds ben je suf en chagrijnig. 1404 01:09:31,360 --> 01:09:33,560 Een mogelijk autobiografisch voorbeeld. 1405 01:09:33,720 --> 01:09:34,720 (publiek lacht) 1406 01:09:34,880 --> 01:09:36,480 Dan zou het kunnen over een jaar of 10, 1407 01:09:36,640 --> 01:09:38,440 dat je huis om 11u 's morgens tegen jou zegt: 1408 01:09:38,600 --> 01:09:40,760 (in Oost-Vlaams) Zou je niet eens gaan wandelen, hè? 1409 01:09:40,920 --> 01:09:42,520 (publiek lacht) 1410 01:09:43,160 --> 01:09:44,440 De mama-AI. 1411 01:09:44,600 --> 01:09:45,800 (publiek lacht) 1412 01:09:45,960 --> 01:09:47,400 En sowieso in het Meetjeslands. 1413 01:09:47,560 --> 01:09:49,720 Zou je niet eens gaan wandelen? Dat is een bevel. 1414 01:09:49,880 --> 01:09:52,240 Limburgs is een uitnodiging. 1415 01:09:52,400 --> 01:09:55,200 Zou jij eens niet gaan wandelen? Dan denk je: Nee, geen goesting. 1416 01:09:55,360 --> 01:09:56,920 Maar: Zou jij eens niet gaan wandelen? 1417 01:09:57,080 --> 01:09:58,320 Je staat al buiten. Vandaar. 1418 01:09:59,640 --> 01:10:03,120 Maar de AI-assistent, de AI-lifecoach, 1419 01:10:03,280 --> 01:10:05,960 zou er binnenkort best wel kunnen zijn. 1420 01:10:06,120 --> 01:10:10,560 Nog een gebied waarop AI sowieso ons leven binnenkomt, is in de auto. 1421 01:10:10,920 --> 01:10:13,800 Mensen die nu al een auto hebben die voor een stuk zelfrijdend is, 1422 01:10:13,960 --> 01:10:15,120 daar zit al AI in. 1423 01:10:15,280 --> 01:10:18,480 Zonder AI kan die auto niet weten waar de lijnen liggen van de baan, 1424 01:10:18,640 --> 01:10:21,320 kan die geen verkeersborden herkennen, enzovoort. 1425 01:10:21,480 --> 01:10:24,720 Wat merken we nu? De weg van een gewone auto 1426 01:10:24,880 --> 01:10:28,360 naar eentje die deels zelfrijdend is, dat ging vrij vlot. 1427 01:10:28,520 --> 01:10:30,800 De weg van een gedeeltelijk zelfrijdende auto 1428 01:10:30,960 --> 01:10:34,480 naar eentje die alles zelfstandig kan zonder dat je zelf iets moet doen, 1429 01:10:34,640 --> 01:10:36,600 dat blijkt aartsmoeilijk te zijn. 1430 01:10:36,760 --> 01:10:39,880 En de belangrijkste reden is: een volledig zelfrijdende auto 1431 01:10:40,040 --> 01:10:43,600 heeft 100 procent betrouwbare patroonherkenning nodig. 1432 01:10:43,760 --> 01:10:46,240 Als daar AI in zit die verkeerslichten herkent, 1433 01:10:46,400 --> 01:10:49,560 wil je niet dat die 99 procent van de tijd juist zijn. 1434 01:10:49,720 --> 01:10:51,120 (publiek lacht) 1435 01:10:51,280 --> 01:10:53,000 En dat is lastig. 1436 01:10:53,160 --> 01:10:55,760 Twee jaar terug hebben ze verkeerslichtherkenning opengezet 1437 01:10:55,920 --> 01:10:57,520 op de Tesla's in Amerika. 1438 01:10:57,680 --> 01:10:59,800 Vrij snel kregen ze bericht van mensen die zeiden: 1439 01:10:59,960 --> 01:11:02,000 Mijn auto remt voor de volle maan. 1440 01:11:02,160 --> 01:11:04,000 (publiek lacht) 1441 01:11:04,160 --> 01:11:05,240 Het was oranje. 1442 01:11:06,560 --> 01:11:08,320 Iemand liet weten dat zijn auto geremd had 1443 01:11:08,480 --> 01:11:10,160 voor het logo van Burger King. 1444 01:11:10,320 --> 01:11:12,320 (publiek lacht) 1445 01:11:13,440 --> 01:11:17,000 Verkeerslichtherkenning trainen tot die 100 procent betrouwbaar is, 1446 01:11:17,160 --> 01:11:18,160 is aartsmoeilijk. 1447 01:11:18,320 --> 01:11:21,640 Omdat verkeerslichten verschillende vormen en kleuren kunnen hebben. 1448 01:11:21,800 --> 01:11:25,960 Die kunnen in het licht staan, in het donker, in de halfschaduw. 1449 01:11:26,120 --> 01:11:27,960 Die kunnen tussen de bladeren staan. 1450 01:11:28,120 --> 01:11:31,200 Als je wilt dat het 100 procent van de tijd juist gaat, 1451 01:11:31,360 --> 01:11:34,920 moet je letterlijk miljoenen keren aan een AI-systeem zeggen: 1452 01:11:35,080 --> 01:11:38,400 Dit is een verkeerlicht, en dit. En dit niet, dit niet en dit wel. 1453 01:11:38,560 --> 01:11:40,600 Miljoenen keren. 1454 01:11:40,760 --> 01:11:43,200 Wie heeft daar in godsnaam tijd voor? 1455 01:11:43,360 --> 01:11:46,480 Ja, wie heeft daar eigenlijk in godsnaam tijd voor? 1456 01:11:46,640 --> 01:11:48,640 (publiek lacht) 1457 01:11:49,600 --> 01:11:51,280 Dat zijn wij dus aan het doen. 1458 01:11:51,440 --> 01:11:53,040 (publiek lacht) 1459 01:11:53,200 --> 01:11:56,080 Dit zijn de captcha's. Trouwens, captcha staat voor 1460 01:11:56,240 --> 01:12:00,640 'completely automated program to tell computers and humans apart'. 1461 01:12:00,800 --> 01:12:02,040 Captcha. 1462 01:12:02,200 --> 01:12:05,480 De captcha is bedoeld om te kijken of je een menselijke gebruiker bent 1463 01:12:05,640 --> 01:12:07,960 of een softwaresysteem. En hoe kan je dat doen? 1464 01:12:08,120 --> 01:12:11,840 Je geeft de gebruiker een taak die net te moeilijk is voor een computer. 1465 01:12:12,000 --> 01:12:15,960 Dat is exact het soort labeling data dat AI-wetenschappers nodig hebben 1466 01:12:16,120 --> 01:12:19,040 van een taak die nog net te moeilijk is voor de computer. 1467 01:12:19,200 --> 01:12:23,160 Bij Google hadden ze dat door en die hebben captcha gekocht. 1468 01:12:23,320 --> 01:12:26,280 En sinds die dag werken wij allemaal voor Google. 1469 01:12:27,000 --> 01:12:30,080 Google bouwt een zelfrijdende auto, wij zijn die aan het trainen. 1470 01:12:31,400 --> 01:12:34,680 En als je denkt: Dat kan toch niet? Dit ding kan ons toch niet testen 1471 01:12:34,840 --> 01:12:37,880 en wij tegelijkertijd dat ding trainen? Dat is waar. 1472 01:12:38,040 --> 01:12:40,520 Heb je gemerkt dat je meestal twee of drie foto's krijgt? 1473 01:12:41,560 --> 01:12:43,160 Eentje is de test. 1474 01:12:43,640 --> 01:12:46,920 De andere zijn wij die als aapjes in een kooitje werken voor Google. 1475 01:12:47,080 --> 01:12:48,320 Rikketikketik. 1476 01:12:48,480 --> 01:12:51,040 Klein voordeel: als je wilt, kun je op je kaartje zetten: 1477 01:12:51,200 --> 01:12:54,120 ik heb AI getraind voor Google. Want dat is wat we doen. 1478 01:12:55,480 --> 01:12:57,480 Een paar jaar terug had Google een ander project. 1479 01:12:57,640 --> 01:13:00,240 Dan hebben ze bij heel veel bibliotheken van universiteiten 1480 01:13:00,400 --> 01:13:03,600 wetenschappelijke boeken ingescand en digitaal beschikbaar gemaakt. 1481 01:13:03,760 --> 01:13:06,320 De bibliotheek van Universiteit Gent en Universiteit Leuven 1482 01:13:06,480 --> 01:13:08,680 ingescand en gedigitaliseerd per Google. 1483 01:13:08,840 --> 01:13:11,920 In zo'n oud boek staat er soms een woord dat wat te dik gedrukt is 1484 01:13:12,080 --> 01:13:14,280 en dan kan die AI dat niet lezen. 1485 01:13:14,440 --> 01:13:17,200 Daarom kregen wij een paar jaar geleden deze captcha's. 1486 01:13:17,360 --> 01:13:19,360 (geroezemoes) 1487 01:13:19,520 --> 01:13:21,960 Dus rechts is de test: ben je mens of software? 1488 01:13:22,120 --> 01:13:24,560 Links is een woord uit een oud wetenschappelijk boek 1489 01:13:24,720 --> 01:13:26,200 dat de AI niet kon lezen. 1490 01:13:27,400 --> 01:13:30,080 Hadden wij toen afgesproken om altijd piemel te typen... 1491 01:13:30,240 --> 01:13:32,000 (publiek lacht) 1492 01:13:35,240 --> 01:13:38,440 Dan zouden de werken van Mercator veel boeiender geweest zijn vandaag. 1493 01:13:39,440 --> 01:13:43,520 Google is een van de grootste AI-onderzoekers ter wereld. 1494 01:13:43,680 --> 01:13:45,880 Ze doen niet alleen AI-onderzoek voor producten, 1495 01:13:46,040 --> 01:13:47,160 zoals die dingen daar. 1496 01:13:47,320 --> 01:13:49,400 Google zit ook in het fundamentele onderzoek. 1497 01:13:49,560 --> 01:13:51,480 De fundamentele research naar: 1498 01:13:51,640 --> 01:13:54,720 wat is een neuraal netwerk, wat kan het en wat kunnen we het bijleren? 1499 01:13:54,880 --> 01:13:56,240 Hoe kunnen we het beter maken? 1500 01:13:56,400 --> 01:13:59,480 Dat doen zij voornamelijk via Google DeepMind. 1501 01:13:59,640 --> 01:14:02,640 Google DeepMind is een onderzoeksinstelling in Londen, 1502 01:14:02,800 --> 01:14:04,280 is een wereldspeler. 1503 01:14:04,440 --> 01:14:07,680 Dat is eigenlijk de enige echte grote in Europa. 1504 01:14:07,840 --> 01:14:10,640 De grote onderzoeken gebeuren in Amerika en China. 1505 01:14:10,800 --> 01:14:12,720 Google DeepMind staat in Londen, vlak bij ons. 1506 01:14:12,880 --> 01:14:16,320 Er werken ook redelijk wat Belgen. Dat is best iets om trots op te zijn. 1507 01:14:16,480 --> 01:14:20,320 Het doel van Google DeepMind? Het is opgericht door Demis Hassabis 1508 01:14:20,480 --> 01:14:22,640 en zijn doel bij de oprichting was dit: 1509 01:14:22,800 --> 01:14:26,160 om de menselijke intelligentie na te bootsen in een computer 1510 01:14:26,320 --> 01:14:30,080 en dan die computer gebruiken om alle problemen van de wereld op te lossen. 1511 01:14:30,880 --> 01:14:35,360 'To first solve intelligence and then solve everything else.' 1512 01:14:35,520 --> 01:14:38,600 Was het bescheiden missionstatement van Google DeepMind. 1513 01:14:39,240 --> 01:14:42,800 Maar Demis Hassabis is wel begonnen met kleine stapjes. 1514 01:14:42,960 --> 01:14:45,560 Kleine eerste stapjes. Hij is zelf een spelletjesfreak. 1515 01:14:45,720 --> 01:14:48,000 Hij is een schaakkampioen en hij dacht: 1516 01:14:48,160 --> 01:14:51,160 Om spelletjes te spelen, moeten mensen toch een beetje redeneren. 1517 01:14:51,320 --> 01:14:53,560 Zouden we dat kunnen nabootsen in een computer? 1518 01:14:53,720 --> 01:14:57,440 Hij heeft neurale netwerken gebouwd en die spelletjes leren spelen. 1519 01:14:57,600 --> 01:15:01,840 Dammen en Stratego en Pong en andere computerspelletjes. 1520 01:15:02,000 --> 01:15:03,800 En na een tijdje zelfs schaak. 1521 01:15:03,960 --> 01:15:06,880 Na een tijdje had hij een neuraal netwerk dat goed kon schaken. 1522 01:15:07,640 --> 01:15:09,880 Niet iedereen was onder de indruk, 1523 01:15:10,040 --> 01:15:12,040 want we hebben al heel lang schaakcomputers. 1524 01:15:12,200 --> 01:15:15,920 Sinds de jaren 90 kunnen computers beter schaken dan de mens. 1525 01:15:16,080 --> 01:15:18,640 De reden dat het zo snel gelukt is met schaak, 1526 01:15:18,800 --> 01:15:22,760 is omdat je schaak kan winnen zuiver op rekenkracht. 1527 01:15:22,920 --> 01:15:24,760 Als je heel veel rekenkracht hebt, 1528 01:15:24,920 --> 01:15:27,680 kun je veel zetten, miljoenen zetten, vooruitdenken 1529 01:15:27,840 --> 01:15:29,840 en kan je het beste pad kiezen voor jezelf. 1530 01:15:30,000 --> 01:15:33,920 Je kan schaak 'brute forcen'. Zuiver winnen op rekenkracht. 1531 01:15:34,520 --> 01:15:36,560 Er zijn ook bordspelletjes 1532 01:15:36,720 --> 01:15:39,400 die je niet kan winnen zuiver op rekenkracht. 1533 01:15:39,560 --> 01:15:44,360 Het bekendste is go. Go is een Chinees-Japans bordspel. 1534 01:15:44,520 --> 01:15:48,120 Dit is een go-bord. Je hebt 19 lijnen op 19. 1535 01:15:48,280 --> 01:15:51,400 Eén speler speelt met witte stenen, één met zwarte stenen. 1536 01:15:51,560 --> 01:15:55,640 Elk om beurt leggen die een steen van hun kleur op een vrij kruispunt. 1537 01:15:56,400 --> 01:15:58,800 Wat is het doel van een go-spel? Vrij simpel. 1538 01:15:58,960 --> 01:16:01,760 Om zoveel mogelijk gebied te omsingelen. 1539 01:16:01,920 --> 01:16:04,240 Wit heeft nu linksonder een stuk omsingeld. 1540 01:16:04,400 --> 01:16:07,400 Wie op het einde van het spel het meeste gebied heeft omsingeld, 1541 01:16:07,560 --> 01:16:09,560 is de winnaar van het go-spel. 1542 01:16:09,720 --> 01:16:12,120 Die regels zijn bedrieglijk eenvoudig. 1543 01:16:12,280 --> 01:16:15,680 De uitwerking van een go-spel is enorm complex. 1544 01:16:15,840 --> 01:16:18,600 Vele malen complexer dan schaak. 1545 01:16:18,760 --> 01:16:22,360 De belangrijkste reden is dat je bij elke zet zoveel mogelijkheden hebt. 1546 01:16:22,520 --> 01:16:25,440 Je eerste steen kan je op 361 plaatsen leggen. 1547 01:16:26,320 --> 01:16:28,360 Je tweede steen op 360 plaatsen. 1548 01:16:29,200 --> 01:16:30,600 Wat is het gevolg? 1549 01:16:30,760 --> 01:16:33,440 Voor de eerste vier zetten van een go-spel 1550 01:16:33,600 --> 01:16:36,080 zijn er 16 miljard mogelijkheden. 1551 01:16:37,320 --> 01:16:42,000 Als je elk mogelijk spel dat gespeeld kan worden op dit bord optelt, 1552 01:16:42,160 --> 01:16:46,480 is dat aantal groter dan het kwadraat van alle atomen in het universum. 1553 01:16:47,760 --> 01:16:49,080 Met andere woorden: 1554 01:16:49,240 --> 01:16:52,920 het is niet mogelijk om vele zetten vooruit te denken voor een computer, 1555 01:16:53,080 --> 01:16:56,680 omdat het aantal mogelijkheden zo snel exponentieel enorm groot wordt. 1556 01:16:56,840 --> 01:17:01,320 Je kan go niet 'brute forcen'. Een mens kan dat natuurlijk ook niet. 1557 01:17:01,480 --> 01:17:04,400 Menselijke spelers zeggen: We spelen een stuk op strategie 1558 01:17:04,560 --> 01:17:08,720 en een heel groot stuk op intuïtie en op creativiteit. 1559 01:17:08,880 --> 01:17:13,000 Je moet jarenlang uren per dag go spelen 1560 01:17:13,160 --> 01:17:16,080 om daar heel goed in te worden. Tot je een soort gevoel ontwikkelt 1561 01:17:16,240 --> 01:17:18,240 voor wat er werkt en wat er niet werkt. 1562 01:17:18,400 --> 01:17:22,080 Intuïtie en creativiteit zijn essentieel om goed go te spelen. 1563 01:17:22,240 --> 01:17:24,760 Daarom wordt er gezegd: Intuïtie en creativiteit 1564 01:17:24,920 --> 01:17:27,600 zijn menselijke eigenschappen die een computer niet heeft. 1565 01:17:27,760 --> 01:17:30,880 Dus een computer zal nooit heel goed go kunnen spelen. 1566 01:17:31,520 --> 01:17:34,040 En bij DeepMind zeiden ze: We gaan het toch proberen. 1567 01:17:35,000 --> 01:17:37,200 Ze hebben een groot neuraal netwerk gebouwd. 1568 01:17:37,360 --> 01:17:40,280 Ze hebben dat heel veel voorbeelden getoond van go-spelletjes 1569 01:17:40,440 --> 01:17:42,400 tussen menselijke kampioenen. 1570 01:17:42,560 --> 01:17:45,000 Dat netwerk heeft zich aangepast, verbindingen aangepast 1571 01:17:45,160 --> 01:17:47,920 tot het meer begon te spelen als de winnende partij. 1572 01:17:48,800 --> 01:17:51,320 En na een tijdje kon dat goed go spelen. 1573 01:17:52,280 --> 01:17:55,360 En toen zeiden ze bij DeepMind: Nu willen wij een toernooi. 1574 01:17:55,520 --> 01:17:58,520 We willen een toernooi tussen onze computer, AlphaGo, 1575 01:17:58,680 --> 01:18:01,160 en de beste go-speler van heel de wereld. 1576 01:18:01,320 --> 01:18:04,600 Dat is Lee Sedol. Dat is een Zuid-Koreaan. 1577 01:18:04,760 --> 01:18:08,480 Hij is 18 jaar op rij wereldkampioen go. 1578 01:18:09,240 --> 01:18:11,760 Waarschijnlijk de beste go-speler ooit. 1579 01:18:12,800 --> 01:18:14,440 Ze hebben een hotel gehuurd in Seoul 1580 01:18:14,600 --> 01:18:16,880 voor een officieel toernooi van vijf partijen 1581 01:18:17,040 --> 01:18:19,840 tussen AlphaGo, de computer, en Lee Sedol. 1582 01:18:20,000 --> 01:18:22,120 Dat toernooi werd online uitgezonden, 1583 01:18:22,280 --> 01:18:25,160 werd live bekeken door 200 miljoen mensen. 1584 01:18:26,040 --> 01:18:28,200 Go is enorm populair in Azië. 1585 01:18:28,360 --> 01:18:30,880 Er keken twee keer meer mensen naar dit toernooi 1586 01:18:31,040 --> 01:18:33,040 dan naar de Super Bowl in Amerika. 1587 01:18:34,640 --> 01:18:38,760 In de tweede partij van die vijf gebeurt er iets geks. 1588 01:18:39,680 --> 01:18:41,560 Normaal gezien in het begin van een go-spel 1589 01:18:41,720 --> 01:18:45,600 wordt er enkel gespeeld op de buitenste vier lijnen van het bord. 1590 01:18:45,760 --> 01:18:49,600 Dat is geen regel. Je mag eigenlijk spelen waar je wilt. 1591 01:18:49,760 --> 01:18:53,120 Maar dit is een strategie die alle topspelers volgen. 1592 01:18:53,280 --> 01:18:56,440 Je zet je basis op die buitenranden en als die stevig staat, 1593 01:18:56,600 --> 01:18:59,400 begin je naar binnen te werken. Wat deed die computer nu? 1594 01:18:59,560 --> 01:19:03,840 Wat deed AlphaGo bij de 37e zet van het tweede spel? 1595 01:19:04,000 --> 01:19:08,080 Hij zette zijn steen daar. Vijf lijnen diep. 1596 01:19:08,960 --> 01:19:13,840 Dit is een zet die geen enkele menselijke go-kampioen ooit zou doen. 1597 01:19:14,880 --> 01:19:17,800 Ze hebben direct gevraagd aan de go-spelers in de zaal daar: 1598 01:19:17,960 --> 01:19:20,000 Wat vinden jullie van die zet? Ze zeiden: 1599 01:19:20,160 --> 01:19:24,120 Dat is een vreselijke zet. Dit is een ellendig slechte zet. 1600 01:19:25,520 --> 01:19:28,760 Dan vroegen ze waarom en zeiden ze: Het voelt niet goed. 1601 01:19:28,920 --> 01:19:30,600 (publiek lacht) 1602 01:19:33,160 --> 01:19:35,320 Dit is het moment waarop die zet gedaan wordt. 1603 01:19:35,480 --> 01:19:38,400 Dat is niet Lee Sedol, trouwens. Dat is de AI-assistent. 1604 01:19:38,560 --> 01:19:42,240 Dat is de persoon die de bevelen van het AI-systeem moet uitvoeren. 1605 01:19:43,120 --> 01:19:45,160 Dus onze toekomst. En... 1606 01:19:46,400 --> 01:19:48,240 Zodra hij die steen neerlegt, 1607 01:19:48,400 --> 01:19:51,920 hoor je aan de commentaarstemmen dat daar iets geks gebeurd is. 1608 01:19:53,800 --> 01:19:56,000 (verbaasde reactie in Koreaans) 1609 01:19:57,600 --> 01:20:00,160 Dat is een verrassende zet. 1610 01:20:00,320 --> 01:20:04,200 Ik dacht dat het een vergissing was. 1611 01:20:04,360 --> 01:20:06,280 Ik dacht dat het een vergissing was. 1612 01:20:06,440 --> 01:20:08,560 Ze dachten dat de AI-assistent zich vergist had. 1613 01:20:09,120 --> 01:20:10,680 Toen keken ze naar het computerscherm 1614 01:20:10,840 --> 01:20:13,360 en dit was effectief wat die computer gevraagd had. 1615 01:20:13,520 --> 01:20:16,400 Toen dachten ze: Oké, dit is een fout in de software. 1616 01:20:16,560 --> 01:20:20,040 Dit is een heel slechte zet. Deze partij is waarschijnlijk verloren. 1617 01:20:20,840 --> 01:20:23,080 Lee Sedol is er niet, zoals je kan zien. 1618 01:20:23,240 --> 01:20:25,040 Een go-match duurt een paar uur. 1619 01:20:25,200 --> 01:20:27,520 Lee Sedol heeft hier een pauze genomen. 1620 01:20:27,680 --> 01:20:29,400 Even later komt hij terug van die pauze 1621 01:20:29,560 --> 01:20:31,680 en 200 miljoen mensen vragen zich af: 1622 01:20:31,840 --> 01:20:34,560 Hoe gaat de beste go-speler ter wereld reageren 1623 01:20:34,720 --> 01:20:37,280 als hij die knotsgekke zet op dat bord ziet liggen? 1624 01:20:41,520 --> 01:20:43,480 (publiek lacht) 1625 01:20:44,480 --> 01:20:46,160 Hij moet een beetje lachen. 1626 01:20:47,520 --> 01:20:49,120 Maar zijn lachje verdwijnt. 1627 01:20:51,040 --> 01:20:52,360 Hij zet zich achterover. 1628 01:20:54,840 --> 01:20:56,480 En hij staart naar het bord. 1629 01:21:09,480 --> 01:21:11,800 Hij heeft twaalf minuten naar het bord gestaard. 1630 01:21:13,680 --> 01:21:16,320 Twaalf minuten lang zit de beste go-speler ooit 1631 01:21:16,480 --> 01:21:18,880 te kijken naar dat bord en doet helemaal niks. 1632 01:21:20,200 --> 01:21:23,120 Na die twaalf minuten is hij rechtgestaan voor een nieuwe pauze. 1633 01:21:24,920 --> 01:21:28,480 Hij is dan teruggekomen van die pauze en heeft wel verder gespeeld. 1634 01:21:28,640 --> 01:21:30,240 Hij heeft deze partij verloren. 1635 01:21:31,080 --> 01:21:34,640 Helemaal op het einde bleek dat die 'move 37' een cruciale positie was 1636 01:21:34,800 --> 01:21:36,800 om een heel groot gebied te omsingelen. 1637 01:21:37,760 --> 01:21:38,760 Ze vroegen Lee Sedol: 1638 01:21:38,920 --> 01:21:41,760 Wat was je aan het doen in die twaalf minuten dat je naar dat bord keek? 1639 01:21:41,920 --> 01:21:45,440 En hij zegt: Ik probeerde eerst een tegenstrategie te bedenken. 1640 01:21:45,600 --> 01:21:48,360 Toen ik merkte hoe aartsmoeilijk dat was, 1641 01:21:48,520 --> 01:21:50,120 heb ik me vooral zitten afvragen 1642 01:21:50,280 --> 01:21:53,440 wat de begrippen schoonheid en creativiteit eigenlijk betekenen. 1643 01:21:53,600 --> 01:21:55,600 (publiek lacht) 1644 01:21:55,760 --> 01:22:00,320 Hij zegt: Dit was een onmiskenbaar mooie en creatieve zet. 1645 01:22:01,320 --> 01:22:04,960 Maar die was gedaan door een machientje. Door software. 1646 01:22:05,800 --> 01:22:07,600 Dat vond hij heel confronterend. 1647 01:22:08,800 --> 01:22:11,600 Hij heeft dat toernooi uitgespeeld. Vijf wedstrijden. 1648 01:22:11,760 --> 01:22:13,840 Lee Sedol heeft er vier verloren. 1649 01:22:15,000 --> 01:22:19,920 Dus de beste go-speler ooit verliest met vier-één van de computer AlphaGo. 1650 01:22:21,160 --> 01:22:24,000 Een paar maanden later is Lee Sedol gestopt met go spelen. 1651 01:22:25,680 --> 01:22:27,040 Op de top van zijn kunnen. 1652 01:22:28,040 --> 01:22:30,000 Ze hebben gevraagd waarom. Hij zegt: 1653 01:22:30,160 --> 01:22:32,800 Er bestaat nu een entiteit die ik niet kan verslaan. 1654 01:22:32,960 --> 01:22:35,240 Het heeft voor mij geen enkele zin meer. 1655 01:22:38,400 --> 01:22:40,440 Ik denk niet dat er veel coureurs gestopt zijn 1656 01:22:40,600 --> 01:22:42,240 toen de bromfiets is uitgevonden. 1657 01:22:42,400 --> 01:22:44,600 (publiek lacht) 1658 01:22:44,760 --> 01:22:47,240 Daar kunnen we blijkbaar wel mee overweg. 1659 01:22:47,920 --> 01:22:50,560 Een fiets met een motor rijdt sneller dan wij. Geen probleem. 1660 01:22:50,720 --> 01:22:54,160 We gaan wat tegen elkaar koersen. Maar voor een go-speler? 1661 01:22:54,320 --> 01:22:57,920 Die mensen hebben letterlijk hun leven gewijd aan dat spel. 1662 01:22:58,080 --> 01:23:01,440 Sinds hun kindertijd uren per dag gespeeld. 1663 01:23:01,600 --> 01:23:04,880 Die intuïtie die zij ontwikkeld hebben, dat spelgevoel, 1664 01:23:05,040 --> 01:23:09,120 is een groot deel van hun identiteit en van hun eigenwaarde. 1665 01:23:09,280 --> 01:23:13,680 Als dat opeens compleet onverwacht beter gedaan wordt door software, 1666 01:23:13,840 --> 01:23:15,280 is dat enorm bedreigend. 1667 01:23:16,120 --> 01:23:19,360 Lee Sedol is gestopt met go door die 'move 37'. 1668 01:23:20,720 --> 01:23:22,160 En ik vraag mij soms af: 1669 01:23:22,320 --> 01:23:24,680 Hoeveel van ons gaan in de komende jaren 1670 01:23:24,840 --> 01:23:27,680 onze eigen kleine 'move 37' meemaken? 1671 01:23:27,840 --> 01:23:30,760 We hebben allemaal dingen waarvan we trots zijn dat we ze kunnen. 1672 01:23:30,920 --> 01:23:33,280 Talenten die we hebben, dingen die we geleerd hebben, 1673 01:23:33,440 --> 01:23:36,760 artistieke dingen, iets in ons werk, iets in je persoonlijke leven. 1674 01:23:36,920 --> 01:23:40,640 Die AI-systemen leren heel snel nieuwe dingen bij. 1675 01:23:40,800 --> 01:23:43,880 Voor velen van ons komt er een moment waarop een AI-systeem 1676 01:23:44,040 --> 01:23:46,800 dat ding waar je trots op bent beter doet dan jezelf. 1677 01:23:46,960 --> 01:23:49,120 En ik vraag mij af: Hoe gaan wij reageren? 1678 01:23:50,040 --> 01:23:52,080 Ik ben begonnen als stand-upcomedian. 1679 01:23:52,760 --> 01:23:55,800 De dag dat een AI-systeem een heel goeie punchline schrijft 1680 01:23:55,960 --> 01:23:58,880 en die met de perfecte timing vertelt aan een zaal, 1681 01:23:59,040 --> 01:24:01,400 ga ik koude rillingen hebben. 1682 01:24:01,560 --> 01:24:05,320 Er staan al AI-stand-upshows op YouTube. 1683 01:24:06,000 --> 01:24:09,200 Geschreven en uitgesproken door een AI-systeem. 1684 01:24:09,360 --> 01:24:11,040 Die grappen zijn niet slecht. 1685 01:24:12,880 --> 01:24:14,400 De timing gelukkig wel. 1686 01:24:14,560 --> 01:24:15,920 (publiek lacht) 1687 01:24:16,080 --> 01:24:17,520 Dus ik heb nog eventjes. 1688 01:24:19,400 --> 01:24:20,720 Terug naar dat toernooi. 1689 01:24:20,880 --> 01:24:23,520 Na de overwinning van AlphaGo op Lee Sedol 1690 01:24:23,680 --> 01:24:27,320 waren er toch weer kritische stemmen. Dat waren de mensen die zeiden: 1691 01:24:27,480 --> 01:24:31,000 Wacht even, heel je AI-systeem is getraind 1692 01:24:31,160 --> 01:24:35,160 op basis van go-spelletjes tussen menselijke kampioenen. 1693 01:24:36,080 --> 01:24:39,720 Dus dat AI-systeem heeft niet zelf intuïtie en creativiteit ontwikkeld, 1694 01:24:39,880 --> 01:24:42,000 die heeft dat afgekeken van de menselijke spellen 1695 01:24:42,160 --> 01:24:44,800 en geremixt tot een soort rare zet. 1696 01:24:44,960 --> 01:24:47,400 Bij DeepMind zeiden ze: Dat is een goed punt. 1697 01:24:47,560 --> 01:24:50,560 En ze hebben een nieuwe computer gebouwd, AlphaZero. 1698 01:24:50,720 --> 01:24:52,800 En AlphaZero begint leeg 1699 01:24:52,960 --> 01:24:56,960 en krijgt geen enkel voorbeeld te zien van een go-spel tussen mensen. 1700 01:24:57,120 --> 01:25:01,280 Het enige wat AlphaZero krijgt, zijn de regels van go. 1701 01:25:01,440 --> 01:25:02,960 Dan zeggen ze tegen die computer: 1702 01:25:03,120 --> 01:25:06,160 Splits jezelf in twee en oefen tegen jezelf tot je het kunt. 1703 01:25:07,440 --> 01:25:09,840 Die computer speelt miljoenen spellen tegen zichzelf 1704 01:25:10,000 --> 01:25:11,840 en onthoudt wat wel en niet werkt. 1705 01:25:12,000 --> 01:25:15,160 Na een tijdje kon AlphaZero goed go spelen. 1706 01:25:15,320 --> 01:25:17,880 Dan hebben ze gezegd: Nu willen wij een officieel toernooi 1707 01:25:18,040 --> 01:25:21,280 tussen AlphaZero en de beste go-speler ter wereld. 1708 01:25:21,440 --> 01:25:22,600 Lee Sedol was gestopt, 1709 01:25:22,760 --> 01:25:26,160 dus AlphaZero heeft gespeeld tegen AlphaGo, de vorige computer. 1710 01:25:26,320 --> 01:25:28,080 (publiek lacht) 1711 01:25:29,160 --> 01:25:31,400 AlphaZero heeft gewonnen met 100-0. 1712 01:25:31,560 --> 01:25:33,440 (geroezemoes) 1713 01:25:34,400 --> 01:25:35,720 Dus wat blijkt? 1714 01:25:36,560 --> 01:25:38,840 In heel dat trainen van die AI... 1715 01:25:39,000 --> 01:25:42,640 Al die menselijke voorbeelden remmen die een beetje af. 1716 01:25:44,560 --> 01:25:46,360 We zijn vervelende ruis. 1717 01:25:48,040 --> 01:25:49,880 Het gaat sneller als ze het alleen doen. 1718 01:25:52,480 --> 01:25:54,840 Toen ze zagen dat dat systeem met AlphaZero werkte, 1719 01:25:55,000 --> 01:25:57,600 dachten ze: Dit kunnen we ook bij andere spelletjes doen. 1720 01:25:57,760 --> 01:26:01,360 Ze hebben AlphaZero leeggemaakt en daar de regels van schaak in gestopt. 1721 01:26:01,520 --> 01:26:04,880 Weer hetzelfde: geen enkel voorbeeld van een schaakspel tussen mensen. 1722 01:26:05,040 --> 01:26:08,080 Splits jezelf in twee en oefen tegen jezelf tot je het kan. 1723 01:26:09,240 --> 01:26:13,680 Na een tijdje was AlphaZero beter in schaak dan de beste mens ter wereld. 1724 01:26:15,480 --> 01:26:19,000 De tijd tussen het aanzetten van AlphaZero als lege computer 1725 01:26:19,160 --> 01:26:22,440 en het moment dat hij beter was dan de beste mens ter wereld, 1726 01:26:22,600 --> 01:26:23,760 was vier uur. 1727 01:26:26,680 --> 01:26:29,280 Het schaakspel is 1.500 jaar oud. 1728 01:26:30,400 --> 01:26:32,080 Zo lang hebben wij tijd gehad. 1729 01:26:33,400 --> 01:26:37,320 Met zijn allen, om schaakstrategieën te bedenken. 1730 01:26:37,480 --> 01:26:40,960 Een AI-systeem haalt dat allemaal in op vier uur tijd. 1731 01:26:42,360 --> 01:26:45,280 Moeten wij daar panisch bang van worden? Ik weet het niet. 1732 01:26:45,440 --> 01:26:47,160 (publiek lacht) 1733 01:26:47,320 --> 01:26:48,360 Kies maar. 1734 01:26:49,920 --> 01:26:52,120 De pessimisten zeggen: Nu is het wel duidelijk. 1735 01:26:52,280 --> 01:26:54,320 We hebben een systeem gebouwd dat op vier uur tijd 1736 01:26:54,480 --> 01:26:59,120 betere strategieën ontwikkelt dan de collectieve mensheid in 1.500 jaar. 1737 01:26:59,280 --> 01:27:01,520 Zodra ze het kunnen, gaan ze de hele wereld overnemen 1738 01:27:01,680 --> 01:27:03,160 en de mensheid domineren. 1739 01:27:04,680 --> 01:27:07,560 Ik heb daar één belangrijke vraag bij en dat is deze: 1740 01:27:07,720 --> 01:27:11,480 Waarom zou een AI-systeem de mensheid willen domineren? 1741 01:27:12,760 --> 01:27:15,800 Dat ding wil helemaal niks. Dat is software. 1742 01:27:15,960 --> 01:27:19,160 Als je morgen AlphaZero vraagt om alle schaakspelletjes te verliezen, 1743 01:27:19,320 --> 01:27:22,200 doet hij dat gewoon. Het is gewoon software. 1744 01:27:22,360 --> 01:27:24,840 Dat heeft geen agressie, dat heeft geen instincten 1745 01:27:25,000 --> 01:27:27,080 en dat heeft geen dominantiedrang. 1746 01:27:27,240 --> 01:27:30,240 Je pc is niet kwaad als je hem uitzet. Die vindt dat oké. 1747 01:27:30,400 --> 01:27:32,400 (publiek lacht) 1748 01:27:33,480 --> 01:27:37,240 De dominantiedrang die je ziet in de mens, komt uit onze evolutie. 1749 01:27:37,400 --> 01:27:39,880 We zijn geëvolueerd als aapjes die in groep leefden. 1750 01:27:40,040 --> 01:27:42,320 Dan is het blijkbaar goed voor je voortplantingskans 1751 01:27:42,480 --> 01:27:43,760 om te proberen de baas te zijn 1752 01:27:43,920 --> 01:27:46,440 en de groepen in de buurt een beetje weg te jagen. 1753 01:27:46,600 --> 01:27:49,520 Zo'n AI-systeem heeft die evolutie niet doorgemaakt. 1754 01:27:49,680 --> 01:27:52,080 Dus ik zie niet in waarom er vanuit het niets 1755 01:27:52,240 --> 01:27:56,000 een dominantiedrang zou ontstaan in een AI-systeem. 1756 01:27:56,880 --> 01:28:00,360 Wil dat zeggen dat ik dan vrij ben van zorgen? Zeker niet. 1757 01:28:00,520 --> 01:28:03,040 Een AI-systeem kan ook grote fouten maken 1758 01:28:03,200 --> 01:28:05,280 op weg naar een zeer slimme oplossing. 1759 01:28:05,440 --> 01:28:07,520 Ze noemen dat 'the alignment problem'. 1760 01:28:08,200 --> 01:28:11,400 Maar zonder slechte bedoelingen. Als ik vraag aan een AI-systeem 1761 01:28:11,560 --> 01:28:14,160 om ervoor te zorgen dat mijn hond nooit meer vlooien heeft, 1762 01:28:14,320 --> 01:28:17,360 is het een zeer adequate oplossing om de hond in te vriezen. 1763 01:28:17,520 --> 01:28:19,520 (publiek lacht) 1764 01:28:19,680 --> 01:28:21,240 Perfect opgelost. 1765 01:28:22,000 --> 01:28:25,520 Want ik had niet gezegd dat het niet mocht. Dat is een simpel voorbeeld. 1766 01:28:25,680 --> 01:28:28,960 Eens AI oplossingen gaat bedenken die wij niet meer snappen, 1767 01:28:29,120 --> 01:28:31,320 wat bij go en schaak nu al het geval is, 1768 01:28:31,480 --> 01:28:35,520 gaan we misschien niet meer herkennen dat ze ergens dat soort afslag nemen 1769 01:28:35,680 --> 01:28:39,280 zonder dat ze het slecht bedoelen. En ook AI zonder slechte bedoelingen 1770 01:28:39,440 --> 01:28:42,360 kan wel gebruikt worden door mensen met slechte bedoelingen. 1771 01:28:42,520 --> 01:28:46,920 Er zijn nog een paar mensen op deze aarde met een zekere dominantiedrang. 1772 01:28:47,880 --> 01:28:49,480 Ze staan soms in de krant. 1773 01:28:50,680 --> 01:28:54,080 Wanneer die beginnen te werken met krachtige AI, ga ik nerveuzer worden. 1774 01:28:54,240 --> 01:28:55,640 Yuval Harari zegt: 1775 01:28:55,800 --> 01:29:00,520 Ik ben niet bang voor AI, wel voor biologische domheid. 1776 01:29:01,320 --> 01:29:03,880 Dat zijn wij. Dat is gevaarlijker. 1777 01:29:05,560 --> 01:29:07,080 Oké, terug naar DeepMind. 1778 01:29:07,240 --> 01:29:09,760 Daar hadden ze dus een heel goede schaakcomputer 1779 01:29:09,920 --> 01:29:12,200 en ze hadden een heel goede go-computer. 1780 01:29:12,360 --> 01:29:14,760 En dat is het moment waarop Demis Hassabis dacht: 1781 01:29:14,920 --> 01:29:17,520 Misschien heb ik nu genoeg spelletjes gespeeld. 1782 01:29:17,680 --> 01:29:21,320 Misschien moet ik proberen een puzzel op te lossen uit de wetenschap. 1783 01:29:22,200 --> 01:29:25,200 In de wetenschap zijn nog veel onopgeloste puzzels. 1784 01:29:26,000 --> 01:29:29,240 En hij heeft gekozen voor het 'protein folding problem'. 1785 01:29:29,400 --> 01:29:33,880 Het 'protein folding problem' is de vraag hoe eiwitten zichzelf opplooien 1786 01:29:34,040 --> 01:29:36,000 tot hun uiteindelijke vorm. 1787 01:29:36,160 --> 01:29:38,800 In ons lichaam zitten tienduizenden soorten eiwitten 1788 01:29:38,960 --> 01:29:40,680 die cruciale taken uitvoeren. 1789 01:29:40,840 --> 01:29:43,920 Dit is myoglobine, levert zuurstof aan onze spieren. 1790 01:29:44,080 --> 01:29:46,920 Je hebt hemoglobine, transporteert zuurstof door het bloed. 1791 01:29:47,080 --> 01:29:48,840 En een eiwit heeft dit soort vorm. 1792 01:29:49,000 --> 01:29:52,000 Een soort heel lange molecule die samengekronkeld is 1793 01:29:52,160 --> 01:29:53,560 tot het zo'n propje is. 1794 01:29:53,720 --> 01:29:58,160 En dat propje kan een heel specifieke taak uitoefenen in ons lichaam. 1795 01:29:58,320 --> 01:30:00,120 Als je de vorm kent van een eiwit, 1796 01:30:00,280 --> 01:30:01,920 kan je veel beter snappen hoe het werkt, 1797 01:30:02,080 --> 01:30:03,680 kan je veel ziektes beter begrijpen, 1798 01:30:03,840 --> 01:30:07,080 sneller medicijnen ontwikkelen en betere behandelingen ontwikkelen. 1799 01:30:07,240 --> 01:30:11,240 Alleen zijn eiwitten zo klein dat je ze niet ziet onder een microscoop. 1800 01:30:11,400 --> 01:30:13,760 Om de vorm te bepalen van één soort eiwit, 1801 01:30:13,920 --> 01:30:17,360 is er gemiddeld vier jaar wetenschappelijk onderzoek nodig. 1802 01:30:17,520 --> 01:30:18,760 Per eiwit. 1803 01:30:18,920 --> 01:30:21,360 En er zitten tienduizenden soorten in ons lichaam 1804 01:30:21,520 --> 01:30:23,600 en nog eens miljoenen in de wereld rond ons. 1805 01:30:23,760 --> 01:30:26,400 Planten, dieren, bacteriën en virussen. 1806 01:30:26,560 --> 01:30:30,080 Het gekke is wel dat elk eiwitje ontstaat uit één lang sliertje. 1807 01:30:30,240 --> 01:30:33,400 Dat is één lang spaghettietje en dat wordt gebouwd in onze cel. 1808 01:30:33,560 --> 01:30:36,080 Vanaf het moment dat dat spaghettietje losgelaten wordt, 1809 01:30:36,240 --> 01:30:37,960 begint dat zich vanzelf op te plooien. 1810 01:30:38,120 --> 01:30:41,120 Door allerlei atomaire krachten gaat dat plooien en krullen 1811 01:30:41,280 --> 01:30:43,280 tot het zijn uiteindelijke vorm heeft. 1812 01:30:43,440 --> 01:30:45,120 Dat is het 'protein folding problem'. 1813 01:30:45,280 --> 01:30:47,240 Zouden we de regels kunnen achterhalen 1814 01:30:47,400 --> 01:30:49,760 volgens welke dat eiwit zichzelf opvouwt? 1815 01:30:49,920 --> 01:30:52,280 Dan hoeven we geen vier jaar onderzoek meer te doen 1816 01:30:52,440 --> 01:30:54,920 om de vorm te ontdekken. Dan kunnen we het berekenen. 1817 01:30:55,080 --> 01:30:58,320 Dat hebben ze geprobeerd met een neuraal netwerk bij DeepMind. 1818 01:30:58,480 --> 01:31:01,160 Twee jaar geleden is dat gelukt. 1819 01:31:01,320 --> 01:31:04,520 Sinds die dag duurt het geen vier jaar onderzoek meer 1820 01:31:04,680 --> 01:31:08,400 om de vorm van een eiwit te kennen, maar anderhalve minuut rekentijd. 1821 01:31:10,240 --> 01:31:12,840 Stel je even voor dat je Demis Hassabis bent. 1822 01:31:13,000 --> 01:31:15,640 Je hebt software gebouwd die op anderhalve minuut 1823 01:31:15,800 --> 01:31:19,600 vier jaar wetenschappelijk onderzoek uitspaart. Je zou kunnen zeggen: 1824 01:31:19,760 --> 01:31:22,720 Ik verkoop elk van deze berekeningen voor 100.000 dollar. 1825 01:31:22,880 --> 01:31:25,080 Dat is goedkoper dan vier jaar onderzoek. 1826 01:31:26,360 --> 01:31:29,000 Demis Hassabis heeft onmiddellijk gezegd: 1827 01:31:29,160 --> 01:31:30,880 Vanaf vandaag is deze software 1828 01:31:31,040 --> 01:31:33,960 gratis in open source beschikbaar voor heel de wereld. 1829 01:31:35,320 --> 01:31:37,800 Die laat op dat moment miljarden liggen. 1830 01:31:38,880 --> 01:31:41,840 Maar hij zegt: Dit voelde toch als de beste beslissing 1831 01:31:42,000 --> 01:31:45,360 om de collectieve mensheid zo snel mogelijk vooruit te laten gaan. 1832 01:31:45,520 --> 01:31:49,480 Dat is nu anderhalf jaar geleden. Sinds dan zijn er elke dag opnieuw 1833 01:31:49,640 --> 01:31:52,840 tienduizenden wetenschappers bezig met AlphaFold. 1834 01:31:53,000 --> 01:31:55,600 Vormen van eiwitten voorspellen, ziektes beter begrijpen, 1835 01:31:55,760 --> 01:31:59,160 medicijnen proberen te voorspellen, meer behandelingen ontwikkelen... 1836 01:31:59,320 --> 01:32:03,600 De onderzoeksfase is door deze uitvinding enorm versneld 1837 01:32:03,760 --> 01:32:06,600 en de komende jaren gaan hier heel veel toepassingen 1838 01:32:06,760 --> 01:32:08,320 en behandelingen uit komen. 1839 01:32:09,200 --> 01:32:11,680 Er zitten hier mensen in de zaal 1840 01:32:11,840 --> 01:32:15,080 wiens leven gered zal worden dankzij AlphaFold. 1841 01:32:15,840 --> 01:32:17,520 Er gaan zo veel behandelingen uit komen. 1842 01:32:17,680 --> 01:32:20,120 Dat gaat voor sommigen van ons het verschil maken. 1843 01:32:20,280 --> 01:32:23,800 Dit is een van de belangrijkste doorbraken in de geneeskunde 1844 01:32:23,960 --> 01:32:26,120 van de voorbije twintig jaar. 1845 01:32:26,280 --> 01:32:28,200 Je hebt daar weinig over gehoord in het nieuws, 1846 01:32:28,360 --> 01:32:31,120 omdat er zo veel technische uitleg nodig is 1847 01:32:31,280 --> 01:32:33,240 om te zeggen wat het precies doet. 1848 01:32:33,400 --> 01:32:35,760 Maar ik verwacht echt dat dit ergens de komende jaren 1849 01:32:35,920 --> 01:32:37,640 een Nobelprijs gaat krijgen. 1850 01:32:38,640 --> 01:32:40,520 De vraag is nu: Aan wie gaan ze hem geven? 1851 01:32:41,640 --> 01:32:44,520 Ofwel aan Demis Hassabis, ofwel aan de AI zelf. 1852 01:32:45,480 --> 01:32:47,120 Stel je voor. 1853 01:32:47,280 --> 01:32:50,080 'Artificiële intelligentie wint eerste Nobelprijs.' 1854 01:32:51,200 --> 01:32:53,520 Ik kijk uit naar de overwinningsspeech. 1855 01:32:53,680 --> 01:32:55,680 (publiek lacht) 1856 01:32:55,840 --> 01:32:58,600 Die trouwens best zou kunnen meevallen. 1857 01:32:59,040 --> 01:33:02,920 Toen ik begon met deze voorstelling twee jaar terug, was dat een mop. 1858 01:33:03,080 --> 01:33:05,200 Dan zei ik: Ik kijk uit naar de overwinningsspeech. 1859 01:33:05,360 --> 01:33:08,600 De zaal zei: Haha, een computer die een speech schrijft. Ja... 1860 01:33:08,760 --> 01:33:10,440 (publiek lacht) 1861 01:33:10,600 --> 01:33:13,520 Wie werkt er met ChatGPT in de zaal? Ja, het was te denken. 1862 01:33:14,600 --> 01:33:16,680 Oké. Voor de mensen die het niet kennen: 1863 01:33:16,840 --> 01:33:19,600 ChatGPT is een taalmodel en dat is software 1864 01:33:19,760 --> 01:33:24,120 die menselijke taal kan begrijpen en in menselijke taal kan antwoorden. 1865 01:33:24,280 --> 01:33:27,760 En al sinds het begin van de artificiële intelligentie in 1956 1866 01:33:27,920 --> 01:33:29,320 was dat een van de uitdagingen. 1867 01:33:29,480 --> 01:33:32,840 Gaan we erin slagen om computers te maken die snappen wat we zeggen 1868 01:33:33,000 --> 01:33:34,920 als we gewoon een zin intikken? 1869 01:33:35,080 --> 01:33:37,400 Mensen praten heel raar voor een computer. 1870 01:33:37,560 --> 01:33:42,520 Lange zinnen, grammatica, synoniemen, dubbele betekenissen. Lastig. 1871 01:33:42,680 --> 01:33:44,600 Een computer wil opdrachten en getallen 1872 01:33:44,760 --> 01:33:46,440 en wij maken het heel moeilijk. 1873 01:33:46,600 --> 01:33:49,680 Ze hebben heel lang geprobeerd om regels te programmeren 1874 01:33:49,840 --> 01:33:52,360 die menselijke taal konden interpreteren. 1875 01:33:52,520 --> 01:33:54,440 Als je dit woord daar ziet, betekent het dat. 1876 01:33:54,600 --> 01:33:57,080 Als je dat werkwoord na dat woord ziet, betekent het dat. 1877 01:33:57,240 --> 01:34:01,440 Duizenden regels code en het werkte nooit echt heel goed. 1878 01:34:01,600 --> 01:34:04,440 Een paar jaar terug was er een grote doorbraak 1879 01:34:04,600 --> 01:34:08,840 uit een beetje een onverwachte hoek. Namelijk de 'autocomplete-systemen'. 1880 01:34:09,000 --> 01:34:10,400 'Autocomplete' is die software 1881 01:34:10,560 --> 01:34:12,600 die je volgende woord probeert te voorspellen. 1882 01:34:12,760 --> 01:34:14,720 Je bent aan het tikken, een e-mail of een sms, 1883 01:34:14,880 --> 01:34:18,280 en je telefoon geeft suggesties: misschien is dat je volgende woord. 1884 01:34:18,440 --> 01:34:21,400 Dat is de 'next word predicting software'. 1885 01:34:22,440 --> 01:34:24,320 Wat blijkt? Het volgende woord voorspellen 1886 01:34:24,480 --> 01:34:26,600 kan je laten doen door een neuraal netwerk. 1887 01:34:26,760 --> 01:34:29,120 Je bouwt gewoon een enorm neuraal netwerk 1888 01:34:29,280 --> 01:34:31,360 en je laat dat hele lappen tekst zien. 1889 01:34:31,520 --> 01:34:34,480 Je toont dat bijvoorbeeld honderd woorden uit een bepaalde tekst 1890 01:34:34,640 --> 01:34:36,640 en het 101e woord verberg je. 1891 01:34:36,800 --> 01:34:39,400 Dat neurale netwerk moet zelf zijn verbindingen aanpassen 1892 01:34:39,560 --> 01:34:40,880 om op basis van die 100 woorden 1893 01:34:41,040 --> 01:34:44,480 zo goed mogelijk het 101e woord te voorspellen. 1894 01:34:44,640 --> 01:34:48,280 Dat doe je dan voor enorm veel tekst die je downloadt van het internet. 1895 01:34:48,440 --> 01:34:49,920 Heel Wikipedia stop je daarin 1896 01:34:50,080 --> 01:34:53,360 en heel Reddit en heel Facebook en een paar werken van Shakespeare. 1897 01:34:53,520 --> 01:34:56,360 Je laat dat netwerk zichzelf aanpassen tot het voor al die teksten 1898 01:34:56,520 --> 01:34:59,040 zo goed mogelijk het volgende woord kan voorspellen. 1899 01:34:59,200 --> 01:35:03,920 Dat was dus twee jaar geleden klaar en dat heet GPT-3. 1900 01:35:04,080 --> 01:35:09,080 GPT-3 is gebouwd door OpenAI en die software heb ik hier nu openstaan. 1901 01:35:09,240 --> 01:35:12,560 Dat is dus een website waarop je een stuk tekst kan intikken. 1902 01:35:12,720 --> 01:35:15,960 Op een bepaald moment kan je stoppen en dan duw je op enter. 1903 01:35:16,120 --> 01:35:19,880 Dan gaat de AI, op basis van de tekst die er al staat, 1904 01:35:20,040 --> 01:35:23,800 proberen het volgende woord te voorspellen en weer het volgende. 1905 01:35:23,960 --> 01:35:26,240 Laat ons dat vooral eens samen proberen. 1906 01:35:26,400 --> 01:35:28,640 Goedenavond. Wat is je naam, alsjeblieft? 1907 01:35:29,240 --> 01:35:30,760 Ellen. - Ja, Ellen? 1908 01:35:30,920 --> 01:35:32,920 Dag, Ellen. Vind je het heel vervelend 1909 01:35:33,080 --> 01:35:35,440 om aangesproken te worden vanop een podium? 1910 01:35:36,080 --> 01:35:38,520 Een beetje, ja. - Een beetje, ja. 1911 01:35:38,680 --> 01:35:40,600 Ben je hier alleen, Ellen? - Nee. 1912 01:35:40,760 --> 01:35:43,040 Wie is er bij jou? Jolien? 1913 01:35:43,200 --> 01:35:47,160 Denk je dat Jolien het vervelender of minder vervelend vindt dan jij 1914 01:35:47,320 --> 01:35:49,800 om aangesproken te worden vanop een podium? 1915 01:35:49,960 --> 01:35:50,960 Die vindt dat erger. 1916 01:35:51,120 --> 01:35:53,120 Die vindt dat erger? Is dat waar, Jolien? 1917 01:35:53,280 --> 01:35:56,480 Ja? Je wilt niet aangesproken worden vanop het podium? 1918 01:35:56,640 --> 01:35:57,640 Goh, ja... 1919 01:35:57,800 --> 01:36:00,160 Dan ga ik daarvoor zorgen. Terug naar Ellen. 1920 01:36:00,320 --> 01:36:03,120 Ik heb echt niet veel nodig. Het enige wat ik nodig heb, is 1921 01:36:03,280 --> 01:36:05,200 iets wat je meegemaakt hebt. Een situatie. 1922 01:36:05,360 --> 01:36:06,840 Dat kan tijdens een uitstap zijn 1923 01:36:07,000 --> 01:36:08,720 of tijdens het beoefenen van een hobby. 1924 01:36:08,880 --> 01:36:11,840 Iets wat je misschien de voorbije week meegemaakt hebt. 1925 01:36:12,840 --> 01:36:15,240 Heb je iets meegemaakt de voorbije week? 1926 01:36:15,400 --> 01:36:17,400 (publiek lacht) 1927 01:36:18,680 --> 01:36:21,840 Een hobby, een uitstap gedaan? Ergens naartoe geweest? 1928 01:36:22,000 --> 01:36:23,920 De voorbije maand? Komaan, Ellen. 1929 01:36:26,000 --> 01:36:29,640 Ja, euh... We zijn naar de... 1930 01:36:29,800 --> 01:36:31,920 liveopnames van de Nerdland Podcast geweest. 1931 01:36:32,080 --> 01:36:35,040 Jullie zijn naar de liveopnames van de Nerdland Podcast geweest? 1932 01:36:35,200 --> 01:36:38,200 Ah ja. In de Arenberg, of in Antwerpen daar? In... 1933 01:36:38,360 --> 01:36:39,800 De Lotto Arena. - In de Lotto Arena. 1934 01:36:39,960 --> 01:36:43,120 Dus je bent naar de liveopnames van de Nerdland Podcast geweest. 1935 01:36:43,280 --> 01:36:45,480 Is er vooraf iets gebeurd toen je ernaartoe reed? 1936 01:36:45,640 --> 01:36:46,840 Platte band gehad of zo? 1937 01:36:47,000 --> 01:36:50,160 Nee, we zijn naar de dinoshow geweest op het FTI. 1938 01:36:50,320 --> 01:36:52,240 Je bent naar de dinosaurusshow geweest. 1939 01:36:52,400 --> 01:36:54,000 Hoe ging het bij de dinosaurusshow? 1940 01:36:54,160 --> 01:36:55,160 Goed. - Tof? 1941 01:36:55,320 --> 01:36:57,200 Wat was de gemiddelde leeftijd daar? 1942 01:36:57,360 --> 01:36:58,760 (publiek lacht) Zes. 1943 01:36:58,920 --> 01:37:01,080 Zes jaar? Oké, dat snap ik. 1944 01:37:01,240 --> 01:37:03,800 Dat is exact wat ik nodig had, Ellen. Dank je wel. 1945 01:37:05,120 --> 01:37:07,320 Oké, daar gaan we iets mee doen, hè. Dus... 1946 01:37:08,720 --> 01:37:12,360 Ellen zat klaar voor een... 1947 01:37:13,920 --> 01:37:15,840 Laat ons zeggen: lezing... 1948 01:37:17,200 --> 01:37:21,480 over dinosaurussen. 1949 01:37:23,480 --> 01:37:26,560 Ze had er erg veel zin in. 1950 01:37:29,400 --> 01:37:32,280 Toen keek ze om zich heen. 1951 01:37:34,200 --> 01:37:36,760 Ze zag enkel kinderen. 1952 01:37:40,200 --> 01:37:45,720 Die waren 20 jaar jonger dan zij. 1953 01:37:46,520 --> 01:37:47,840 Ellen haat kinderen. 1954 01:37:48,000 --> 01:37:50,720 (publiek lacht) 1955 01:37:51,240 --> 01:37:53,240 Ze vindt dat ze... 1956 01:37:54,040 --> 01:37:56,160 verschrikkelijk stinken. 1957 01:38:00,320 --> 01:38:03,840 Nee, dat was om te testen of jullie wel wakker zijn. 1958 01:38:04,000 --> 01:38:05,640 (publiek lacht) 1959 01:38:07,560 --> 01:38:10,520 Een kind keek haar aan. 1960 01:38:10,680 --> 01:38:14,520 Ellen staarde terug. 1961 01:38:15,760 --> 01:38:17,880 Toen kwam er plots... 1962 01:38:18,040 --> 01:38:20,200 Oké, ik ga hier stoppen. 1963 01:38:21,040 --> 01:38:23,400 Dus ik ga straks op enter duwen en al die woorden 1964 01:38:23,560 --> 01:38:25,360 worden ingevoerd in een neuraal netwerk. 1965 01:38:25,520 --> 01:38:27,560 Alle verbindingen gaan 'bliep bliep' zeggen. 1966 01:38:27,720 --> 01:38:29,920 Aan de andere kant zeggen ze: Dit is een mogelijk woord 1967 01:38:30,080 --> 01:38:32,840 en dan kan misschien dit woord komen en dan misschien dat woord. 1968 01:38:33,000 --> 01:38:35,000 Dan gaan we samen zien wat er gebeurt. 1969 01:38:35,160 --> 01:38:37,160 Voilà, ik ga op enter duwen en dan gaan we zien 1970 01:38:37,320 --> 01:38:40,440 hoe de AI volgende woorden aanvult. Daar gaan we. 1971 01:38:40,600 --> 01:38:42,160 Toen kwam er plots... 1972 01:38:43,040 --> 01:38:46,040 een van de meest... Rustig, AI, rustig. 1973 01:38:46,200 --> 01:38:49,040 Ja, ja. Dank je wel, dank je wel. 1974 01:38:49,200 --> 01:38:50,760 Goed. Bon... 1975 01:38:51,440 --> 01:38:52,960 Wat hebben we? 1976 01:38:53,120 --> 01:38:56,480 Toen kwam er plots een van de meest lange koolmezen bij haar vandaan 1977 01:38:56,640 --> 01:38:59,120 en keek haar aan. Ellen schrok. 1978 01:38:59,280 --> 01:39:00,880 Hoe komt die zo lang, vroeg ze. 1979 01:39:01,760 --> 01:39:03,840 Hen doet deze week aten. 1980 01:39:04,640 --> 01:39:08,240 Ze moeten eten als ze naar het kasteel komen, verzekerde hij. 1981 01:39:08,400 --> 01:39:11,840 Ellen keek naar het kasteel. Wat zal ik doen? Ze moeten eten. 1982 01:39:12,000 --> 01:39:14,440 Miraris zei: Leg haar in haar kast, Ellen. 1983 01:39:15,440 --> 01:39:20,080 Dankzij het klassieke linnenmes bracht 'fop' die uit, van Fluffo. 1984 01:39:20,240 --> 01:39:21,840 Nee, je moet niet doen, hoor. 1985 01:39:22,000 --> 01:39:25,760 Hij glimlachte, waardoor Ellen 'krompegaf' werd. 1986 01:39:25,920 --> 01:39:27,840 Oké, wat doe je nu? 1987 01:39:28,000 --> 01:39:30,680 Er kwam een vink voorbij samen met een sneeuwpop. 1988 01:39:30,840 --> 01:39:31,920 Oké... 1989 01:39:32,080 --> 01:39:33,960 (publiek lacht) 1990 01:39:34,120 --> 01:39:36,080 Wat gebeurt hier? 1991 01:39:38,000 --> 01:39:41,200 Dat netwerk is getraind op het hele internet. 1992 01:39:41,360 --> 01:39:44,800 Daar zaten ook alle tienerblogs bij en alle reclamemails 1993 01:39:44,960 --> 01:39:47,840 en ook een hele hoop computercode. Dus dat gaat even goed 1994 01:39:48,000 --> 01:39:50,680 en je ziet soms zinnen ontstaan die grammaticaal kloppen, 1995 01:39:50,840 --> 01:39:53,920 maar qua inhoud gaat dat heel snel de bocht uit. 1996 01:39:54,080 --> 01:39:57,640 En na een tijdje, omdat er zo veel computercode op het internet staat, 1997 01:39:57,800 --> 01:39:59,840 begint die gewoon 'gibberish' te spreken. 1998 01:40:00,000 --> 01:40:02,200 Dan krijg je dingen zoals dit hier. 1999 01:40:02,680 --> 01:40:07,080 Paulidunnell 1285. Nu: Pisante 322. 2000 01:40:07,240 --> 01:40:09,880 Hondebrug exploderend veel sproet geweest. Enfin... 2001 01:40:10,040 --> 01:40:12,120 (publiek lacht) 2002 01:40:13,840 --> 01:40:17,240 Dit was de eerste versie van die 'autocomplete software'. 2003 01:40:17,400 --> 01:40:20,520 Ze hadden snel door bij OpenAI: we hebben extra training nodig. 2004 01:40:21,840 --> 01:40:23,440 Hun volgende stap was 2005 01:40:23,600 --> 01:40:26,760 bijtrainen met 'human feedback'. Met menselijke feedback. 2006 01:40:26,920 --> 01:40:30,160 Dus wat doe je? Je laat zo'n systeem tien teksten schrijven 2007 01:40:30,320 --> 01:40:33,080 en een mens duidt aan: dit klopt en dit niet. 2008 01:40:33,240 --> 01:40:35,880 Dat neurale netwerk kan dan zijn verbindingen aanpassen 2009 01:40:36,040 --> 01:40:38,320 om meer antwoorden te geven waarvan de mens zegt: 2010 01:40:38,480 --> 01:40:41,040 Dit is een goed antwoord. Je kan het ook vragen: 2011 01:40:41,200 --> 01:40:43,680 Geef tien dingen om te doen met een gezin in Portugal. 2012 01:40:43,840 --> 01:40:45,520 Dat geeft tien mogelijke antwoorden. 2013 01:40:45,680 --> 01:40:47,960 Een mens duidt aan: dit is het beste antwoord. 2014 01:40:48,120 --> 01:40:50,880 En gek genoeg, als dat netwerk zichzelf dan aanpast 2015 01:40:51,040 --> 01:40:53,040 om meer dat soort antwoorden te geven, 2016 01:40:53,200 --> 01:40:55,280 leert dat niet alleen beter antwoorden 2017 01:40:55,440 --> 01:40:57,600 op vragen over gezinsreizen naar Portugal, 2018 01:40:57,760 --> 01:41:01,960 maar gaat het over het algemeen beter antwoorden op vragen. 2019 01:41:02,120 --> 01:41:05,440 Dat is een van de gekke gedragingen van een neuraal netwerk: 2020 01:41:05,600 --> 01:41:07,040 een soort emergent gedrag. 2021 01:41:07,200 --> 01:41:09,600 Het is zodanig complex, als je het traint op één ding, 2022 01:41:09,760 --> 01:41:13,200 dat er ook allerlei andere dingen uit komen die het plots ook kan. 2023 01:41:13,360 --> 01:41:15,800 En zo is GPT-4 gebouwd. 2024 01:41:15,960 --> 01:41:20,000 Laat ons nu eens kijken of GPT-4 beter is dan GPT-3. 2025 01:41:20,160 --> 01:41:24,080 Dus ik ga deze tekst bijhouden. Die heb ik gekopieerd. 2026 01:41:24,240 --> 01:41:27,840 En ik probeer nu in GPT-4 hetzelfde. 2027 01:41:28,000 --> 01:41:32,920 Vul dit verhaal aan met 150 woorden. 2028 01:41:33,080 --> 01:41:34,440 Oké, dezelfde tekst. 2029 01:41:34,600 --> 01:41:37,320 Ellen zat klaar voor een lezing over dinosaurussen, enzovoort. 2030 01:41:37,480 --> 01:41:40,160 Toen kwam er plots... En daar gaan we. 2031 01:41:40,320 --> 01:41:42,640 Wat maakt GPT-4 ervan? Dit. 2032 01:41:43,560 --> 01:41:46,880 Toen kwam er plots een groep paleontologen de zaal binnen. 2033 01:41:47,040 --> 01:41:49,320 Ze droegen fossielen en dinosaurusskeletten. 2034 01:41:49,480 --> 01:41:52,200 Ellens ogen fonkelden. Ze vergat de kinderen om haar heen 2035 01:41:52,360 --> 01:41:54,320 en focuste zich op de sprekers. 2036 01:41:54,480 --> 01:41:56,840 De eerste paleontoloog begon enthousiast te vertellen 2037 01:41:57,000 --> 01:41:58,640 over de Tyrannosaurus rex. 2038 01:41:58,800 --> 01:42:00,800 Ellen, een fervent dinosaurusliefhebber, 2039 01:42:00,960 --> 01:42:04,760 luisterde aandachtig terwijl de kinderen rondom haar onrustig werden. 2040 01:42:04,920 --> 01:42:06,080 Plots ging het licht uit 2041 01:42:06,240 --> 01:42:10,440 en werd een gigantische projectie van een dinosaurus op de muur getoond. 2042 01:42:10,600 --> 01:42:12,320 De kinderen gilden van opwinding, 2043 01:42:12,480 --> 01:42:14,600 maar Ellen was geïntrigeerd door de details 2044 01:42:14,760 --> 01:42:18,680 die de paleontoloog deelde over het leven van deze machtige wezens. 2045 01:42:18,840 --> 01:42:22,320 Ze leerde over hun eetgewoonten, leefomgeving en uitsterven. 2046 01:42:22,480 --> 01:42:26,160 De presentatie was zo boeiend dat ze zelfs begon te waarderen 2047 01:42:26,320 --> 01:42:29,960 hoe de kinderen met open mond luisterden en leerden. 2048 01:42:30,120 --> 01:42:31,440 Toen de lichten weer aangingen, 2049 01:42:31,600 --> 01:42:33,280 voelde Ellen zich verrassend verfrist. 2050 01:42:33,440 --> 01:42:36,360 Ze realiseerde zich dat haar passie voor dinosaurussen 2051 01:42:36,520 --> 01:42:38,840 sterker was dan haar afkeer voor kinderen. 2052 01:42:39,000 --> 01:42:40,240 (publiek lacht) 2053 01:42:40,400 --> 01:42:44,200 Met een glimlach verliet ze de zaal, blij dat ze was gebleven. 2054 01:42:44,360 --> 01:42:45,440 Ja, maar... 2055 01:42:45,600 --> 01:42:46,720 Wat? 2056 01:42:46,880 --> 01:42:48,160 (applaus) 2057 01:42:52,160 --> 01:42:57,240 Dit is splinternieuwe tekst die 20 seconden geleden niet begon, 2058 01:42:57,400 --> 01:43:01,600 die gewoon door een neuraal netwerk woord na woord aangevuld is. 2059 01:43:01,760 --> 01:43:05,720 Dit is waarom mensen denken dat AI een bewustzijn heeft. 2060 01:43:05,880 --> 01:43:08,920 Het lijkt alsof die software weet waar het over gaat 2061 01:43:09,080 --> 01:43:12,080 en dat bewust en creatief aanvult. 2062 01:43:12,240 --> 01:43:13,360 Maar dat is niet zo. 2063 01:43:14,240 --> 01:43:18,360 Deze software weet niet eens wat een dinosaurus is. 2064 01:43:18,520 --> 01:43:22,120 Die heeft geen conceptueel idee van wat een dino eigenlijk is. 2065 01:43:22,280 --> 01:43:25,560 Het woord 'dinosaurus' is voor die software een datapunt 2066 01:43:25,720 --> 01:43:28,440 dat statistisch volgt op de voorgaande datapunten. 2067 01:43:28,600 --> 01:43:32,320 Maar toch komt daar zo'n samenhangende tekst uit. 2068 01:43:32,480 --> 01:43:36,880 Het is ongelooflijk hoe goed die taalsystemen geworden zijn. 2069 01:43:37,040 --> 01:43:38,640 Voor de eerste keer in de geschiedenis 2070 01:43:38,800 --> 01:43:40,400 kan je vragen aan je computer 2071 01:43:40,560 --> 01:43:43,520 om teksten te schrijven, compleet nieuwe teksten, 2072 01:43:43,680 --> 01:43:46,400 die nuttig zijn voor je werk of voor je persoonlijke leven. 2073 01:43:46,560 --> 01:43:48,880 Natuurlijk is dit een klassieker. 2074 01:43:50,320 --> 01:43:51,880 Schrijf een opstel... 2075 01:43:53,160 --> 01:43:57,160 over de geschiedenis van Brugge. 2076 01:43:57,680 --> 01:43:59,120 En huppakee. 2077 01:44:00,160 --> 01:44:02,720 De geschiedenis van Brugge door de middeleeuwen en erna. 2078 01:44:02,880 --> 01:44:05,400 In hartje West-Vlaanderen, tussen kabbelende kanalen 2079 01:44:05,560 --> 01:44:07,440 en sierlijke stenen bruggen, 2080 01:44:07,600 --> 01:44:10,080 ligt Brugge, een stad die een rijke geschiedenis uitademt. 2081 01:44:10,240 --> 01:44:12,160 Dit opstel neemt u mee op een reis door de eeuwen 2082 01:44:12,320 --> 01:44:14,760 om de fascinerende geschiedenis van Brugge te verkennen. 2083 01:44:14,920 --> 01:44:17,200 Enzovoort, enzovoort, enzovoort. 2084 01:44:17,360 --> 01:44:19,480 En dat ding schrijft je huiswerk voor je. 2085 01:44:20,400 --> 01:44:21,840 Wie zat er nog in het middelbaar? 2086 01:44:22,000 --> 01:44:23,000 (publiek lacht) 2087 01:44:23,160 --> 01:44:24,240 Jeej. 2088 01:44:25,760 --> 01:44:28,120 Als je deze tekst opzoekt op het internet, vind je niks, 2089 01:44:28,280 --> 01:44:31,720 want dit is nieuwe tekst. Deze tekst heeft nog nooit bestaan. 2090 01:44:31,880 --> 01:44:33,840 Als ik over vijf minuten nog eens vraag 2091 01:44:34,000 --> 01:44:36,200 naar een opstel over de geschiedenis van Brugge, 2092 01:44:36,360 --> 01:44:38,520 krijg ik een totaal andere tekst. 2093 01:44:38,680 --> 01:44:41,840 Omdat hij niet altijd het meest waarschijnlijke volgende woord kiest, 2094 01:44:42,000 --> 01:44:45,000 maar soms ook eentje kiest uit de tien mogelijke meest waarschijnlijke 2095 01:44:45,160 --> 01:44:48,200 en zo heel snel op totaal andere teksten uitkomt. 2096 01:44:48,360 --> 01:44:51,280 Je kan dit dus niet betrappen op plagiaat. 2097 01:44:51,440 --> 01:44:54,160 Maar er wordt momenteel wel software geschreven 2098 01:44:54,320 --> 01:44:57,480 die kan zien of iets door AI gemaakt is of niet. 2099 01:44:57,640 --> 01:45:00,040 Dus het zou kunnen dat je binnenkort betrapt wordt. 2100 01:45:01,240 --> 01:45:02,760 Als dat gebeurt, 2101 01:45:02,920 --> 01:45:05,840 geef ik je nu even het perfecte antwoord om dan te geven. 2102 01:45:06,000 --> 01:45:08,600 Je wordt betrapt door je leerkracht op het gebruik van ChatGPT, 2103 01:45:08,760 --> 01:45:13,360 je kijkt je leerkracht aan en zegt: Maar mevrouw, ik ben 16 jaar oud. 2104 01:45:13,520 --> 01:45:16,520 Wat kan er mij nu beter voorbereiden op mijn toekomst 2105 01:45:16,680 --> 01:45:18,720 dan leren werken met AI-systemen? 2106 01:45:20,520 --> 01:45:22,800 Als je een slimme leerkracht hebt, gaat die zeggen: 2107 01:45:22,960 --> 01:45:24,760 Dat is eigenlijk waar. 2108 01:45:24,920 --> 01:45:27,280 Toon eens aan de rest van de klas hoe het werkt. 2109 01:45:28,640 --> 01:45:31,800 Als je een minder slimme leerkracht hebt, gaat die heel kwaad worden. 2110 01:45:32,640 --> 01:45:34,280 Dan moet je straf schrijven. 2111 01:45:34,440 --> 01:45:36,560 Dat is geen probleem, hè. Dus het... 2112 01:45:36,720 --> 01:45:38,600 (publiek lacht) 2113 01:45:38,760 --> 01:45:40,600 Het lost zichzelf op. 2114 01:45:41,920 --> 01:45:44,760 Maar dus: als je een tekst moet schrijven vandaag 2115 01:45:44,920 --> 01:45:47,520 en je hebt er geen tijd voor, hebt geen zin of bent er niet goed in, 2116 01:45:47,680 --> 01:45:49,960 kan je het gewoon vragen aan je computer. 2117 01:45:50,120 --> 01:45:54,080 Stel je voor, je bent tien jaar samen geweest met iemand 2118 01:45:54,240 --> 01:45:56,800 en je hebt het gevoel: nu is het wel een beetje op. 2119 01:45:56,960 --> 01:45:59,680 Maar je wilt dat op een mooie, romantische manier meedelen. 2120 01:45:59,840 --> 01:46:01,160 (publiek lacht) 2121 01:46:01,320 --> 01:46:03,360 En je weet van jezelf: ik ben daar niet goed in. 2122 01:46:03,520 --> 01:46:05,400 Geen enkel probleem. 2123 01:46:05,560 --> 01:46:08,360 Je gaat naar de computer en je vraagt: 2124 01:46:11,520 --> 01:46:13,640 Schrijf een mooie, romantische brief... 2125 01:46:16,520 --> 01:46:18,120 van 150 woorden... 2126 01:46:19,440 --> 01:46:20,880 van Simonneke aan Frank... 2127 01:46:21,040 --> 01:46:23,240 (publiek lacht) 2128 01:46:24,680 --> 01:46:28,520 ...om een einde te maken aan hun liefdesrelatie. 2129 01:46:28,680 --> 01:46:31,480 Oké, en daar gaan we. Start. 2130 01:46:32,280 --> 01:46:35,040 Liefste Frank, terwijl ik deze woorden schrijf, 2131 01:46:35,200 --> 01:46:38,360 voel ik een mengeling van tederheid en een onvermijdelijk verdriet. 2132 01:46:39,480 --> 01:46:41,800 Je bent altijd een bijzondere man voor me geweest. 2133 01:46:41,960 --> 01:46:44,160 Samen hebben we gelachen, gehuild... Dat is zeker. 2134 01:46:44,320 --> 01:46:47,320 En bovenal hebben we van elkaar geleerd. 2135 01:46:47,480 --> 01:46:50,040 Maar het hart volgt zijn eigen mysterieuze wegen 2136 01:46:50,200 --> 01:46:53,360 en soms leiden die wegen ons in verschillende richtingen. 2137 01:46:53,520 --> 01:46:55,960 Ik heb diep in mijn hart gekeken en besef nu 2138 01:46:56,120 --> 01:46:58,440 dat onze paden uit elkaar moeten gaan. 2139 01:46:58,600 --> 01:47:01,040 Dit is geen besluit dat ik lichtvaardig heb genomen, 2140 01:47:01,200 --> 01:47:04,360 maar ik geloof dat het eerlijk is, voor ons allebei. 2141 01:47:04,520 --> 01:47:07,720 Weet dat je altijd een speciale plaats in mijn hart zult hebben, 2142 01:47:07,880 --> 01:47:10,000 een herinnering aan liefde en groei. 2143 01:47:10,160 --> 01:47:12,880 Ik hoop dat je begrip kunt vinden voor mijn beslissing 2144 01:47:13,040 --> 01:47:15,480 en dat je, net als ik, de mooie momenten koestert 2145 01:47:15,640 --> 01:47:16,880 die we samen hebben gedeeld. 2146 01:47:17,040 --> 01:47:19,360 Ik wens je alle geluk en liefde in de wereld. 2147 01:47:19,520 --> 01:47:21,400 Altijd de jouwe, Simonneke. 2148 01:47:21,560 --> 01:47:23,760 (applaus en gelach) 2149 01:47:23,920 --> 01:47:25,200 Ja, hè? 2150 01:47:29,000 --> 01:47:31,480 Control A, control C, control V, 'send'. 2151 01:47:31,640 --> 01:47:33,400 (publiek lacht) 2152 01:47:33,560 --> 01:47:36,400 Het zou ook kunnen dat Simonneke die brief leest en denkt: 2153 01:47:36,560 --> 01:47:40,360 Rustig aan, AI. Zo goed was het nu ook niet. 2154 01:47:41,760 --> 01:47:44,840 Ze denkt aan alle moeilijke momenten en wordt langzaam kwaad. 2155 01:47:45,000 --> 01:47:47,120 Ze denkt: dit was een vreselijke relatie. 2156 01:47:47,280 --> 01:47:50,720 Dan ga je gewoon terug naar de computer en dan vraag je: 2157 01:47:53,800 --> 01:47:55,680 Schrijf deze brief nu kwaad... 2158 01:47:57,120 --> 01:47:58,320 en vol verwijten. 2159 01:47:58,480 --> 01:47:59,480 (publiek lacht) 2160 01:47:59,640 --> 01:48:01,280 Huppa. 2161 01:48:01,440 --> 01:48:05,800 Frank, ik schrijf dit met een mix van woede en teleurstelling. 2162 01:48:05,960 --> 01:48:07,120 Na alles wat er gebeurd is, 2163 01:48:07,280 --> 01:48:10,040 kan ik niet anders dan deze pijnlijke waarheid onder ogen zien. 2164 01:48:10,200 --> 01:48:13,280 Je hebt me zoveel keer teleurgesteld, Frank, en ik ben het zat. 2165 01:48:13,440 --> 01:48:14,920 (publiek lacht) 2166 01:48:15,080 --> 01:48:17,720 Denk je echt dat ik blind ben voor je fouten? 2167 01:48:17,880 --> 01:48:20,880 Jouw egoïsme en onverschilligheid hebben keer op keer bewezen 2168 01:48:21,040 --> 01:48:23,520 dat je niet de man bent die ik ooit dacht dat je was. 2169 01:48:23,680 --> 01:48:26,800 Hoeveel kansen verwachtte je nog van mij? 2170 01:48:26,960 --> 01:48:31,320 Ik ben klaar met deze vermoeiende dans van excuses en lege beloftes. 2171 01:48:31,480 --> 01:48:32,640 Oké... 2172 01:48:32,800 --> 01:48:35,600 Onze relatie is een opeenstapeling van jouw fouten 2173 01:48:35,760 --> 01:48:39,160 en mijn naïviteit in het geloven dat je zou veranderen. 2174 01:48:39,320 --> 01:48:41,880 Dus hier stoppen we. Ik verdien beter dan dit 2175 01:48:42,040 --> 01:48:43,880 en diep vanbinnen weet jij dat ook. 2176 01:48:44,040 --> 01:48:47,520 Misschien vind je ooit iemand die je onvolwassen gedrag tolereert, 2177 01:48:47,680 --> 01:48:51,000 maar ik ben klaar. Vaarwel, Frank. En laat dit duidelijk zijn: 2178 01:48:51,160 --> 01:48:54,360 vanaf nu ben je niets meer dan een vervelende herinnering. 2179 01:48:54,520 --> 01:48:55,680 Simonneke. 2180 01:48:57,480 --> 01:48:59,800 (applaus) 2181 01:49:03,000 --> 01:49:07,520 Dit staat gratis online, hè. Hier kun je heel de nacht mee spelen. 2182 01:49:08,320 --> 01:49:11,840 Je kunt vragen: Schrijf een tekst. Maak hem blij en maak hem boos. 2183 01:49:12,000 --> 01:49:17,000 En maak hem poëtisch. En schrijf alsof je een pinguïn bent. 2184 01:49:17,160 --> 01:49:20,840 Awel, ja. We zullen toch nog een keer... Ja. 2185 01:49:21,440 --> 01:49:23,000 Euh, ja. Hier. 2186 01:49:23,960 --> 01:49:27,000 Schrijf deze brief opnieuw... 2187 01:49:29,000 --> 01:49:31,480 alsof je een pinguïn bent. 2188 01:49:33,160 --> 01:49:34,400 En start. 2189 01:49:35,200 --> 01:49:38,280 Beste Frank, ik schrijf je deze brief vanaf een ijzige berg. 2190 01:49:38,440 --> 01:49:39,480 (publiek lacht) 2191 01:49:39,640 --> 01:49:41,320 Alleen en koud. 2192 01:49:42,160 --> 01:49:44,640 Onze tijd samen voelde als een dans in de sneeuw, 2193 01:49:44,800 --> 01:49:46,800 maar nu is het tijd dat onze paden scheiden. 2194 01:49:46,960 --> 01:49:48,720 Ik ben een pinguïn, Frank, 2195 01:49:48,880 --> 01:49:51,440 en onze werelden zijn gewoon te verschillend. 2196 01:49:51,600 --> 01:49:53,680 (publiek lacht) 2197 01:49:53,840 --> 01:49:55,320 We deelden vele visjes. 2198 01:49:56,640 --> 01:49:59,040 En gleden samen over het ijs. 2199 01:49:59,200 --> 01:50:01,960 Maar ik kan niet langer negeren hoe anders wij zijn. 2200 01:50:02,120 --> 01:50:05,800 Jij houdt van de warmte, terwijl ik verlang naar de koude zeeën. 2201 01:50:05,960 --> 01:50:07,560 Jij droomt van uitgestrekte velden, 2202 01:50:07,720 --> 01:50:10,200 terwijl ik alleen denk aan ijzige kusten. 2203 01:50:10,360 --> 01:50:13,680 Ik zal altijd koesteren hoe we samen over het ijs schaatsten, 2204 01:50:13,840 --> 01:50:17,600 maar het is tijd voor mij om terug te keren naar mijn kolonie. 2205 01:50:17,760 --> 01:50:20,600 Misschien vind je iemand die beter bij je warme wereld past. 2206 01:50:20,760 --> 01:50:23,480 Dus vaarwel, Frank. Blijf warm en gelukkig, 2207 01:50:23,640 --> 01:50:26,320 ver weg van de bevroren diepten van mijn hart. 2208 01:50:27,040 --> 01:50:28,320 Met een koude flipper. 2209 01:50:28,480 --> 01:50:29,680 (publiek lacht) 2210 01:50:29,840 --> 01:50:31,520 Simonneke de pinguïn. 2211 01:50:31,680 --> 01:50:33,680 (applaus en gelach) 2212 01:50:34,600 --> 01:50:36,960 Dat is toch... Oh, Jezus... 2213 01:50:39,400 --> 01:50:41,040 (hij lacht) 2214 01:50:41,200 --> 01:50:43,920 Maak een afbeelding bij deze brief. 2215 01:50:44,080 --> 01:50:46,200 En huppakee. Maar dat... 2216 01:50:46,360 --> 01:50:48,760 Dat hou je toch niet voor mogelijk? 2217 01:50:48,920 --> 01:50:51,800 Een neuraal netwerk dat volgende woorden voorspelt 2218 01:50:51,960 --> 01:50:55,000 op basis van een opdracht, kan dit schrijven. 2219 01:50:55,160 --> 01:50:58,840 Het is waanzinnig hoe goed die taalsystemen geworden zijn. 2220 01:50:59,000 --> 01:51:00,840 Voilà, een afbeelding erbij. 2221 01:51:01,000 --> 01:51:03,360 Daar is ze... Oh... (publiek lacht) 2222 01:51:03,520 --> 01:51:04,960 Oh... 2223 01:51:05,120 --> 01:51:06,880 Oooh... 2224 01:51:07,960 --> 01:51:09,560 Simonneke de pinguïn. 2225 01:51:09,720 --> 01:51:11,280 (publiek lacht) 2226 01:51:11,440 --> 01:51:15,480 Ik ga niet kunnen slapen vannacht. Vreselijk... 2227 01:51:18,840 --> 01:51:23,520 Het is krankzinnig hoe goed de generative AI geworden is. 2228 01:51:23,680 --> 01:51:29,000 En we staan nog maar aan het begin. Een jaar geleden kon je dit nog niet. 2229 01:51:29,160 --> 01:51:31,800 Ik heb zitten denken: wat kun je nog doen 2230 01:51:31,960 --> 01:51:33,520 om eens te rammelen met die AI? 2231 01:51:33,680 --> 01:51:38,640 Om eens te testen: waar ligt de grens? Wanneer breekt dit? 2232 01:51:38,800 --> 01:51:41,400 Ik dacht bij mezelf: de moeilijkste opdracht voor AI 2233 01:51:41,560 --> 01:51:43,960 lijkt mij toch om poëzie te schrijven. 2234 01:51:44,120 --> 01:51:45,800 De moeilijkste opdracht voor software 2235 01:51:45,960 --> 01:51:47,840 lijkt mij om te vragen om poëzie te schrijven. 2236 01:51:48,000 --> 01:51:49,680 Dus laat het ons eens proberen. 2237 01:51:49,840 --> 01:51:51,280 Schrijf een sonnet... 2238 01:51:52,640 --> 01:51:56,040 Een olifant hadden we daarnet, hè? Een olifant, ja. 2239 01:51:56,200 --> 01:51:58,000 Over een olifant... 2240 01:52:00,840 --> 01:52:02,400 die graag... 2241 01:52:03,720 --> 01:52:05,280 een vogel wil zijn. 2242 01:52:07,160 --> 01:52:10,000 Dus een sonnet over een olifant die graag een vogel wil zijn. 2243 01:52:10,160 --> 01:52:12,960 Een sonnet is een dichtvorm die bestaat uit strofes van vier regels, 2244 01:52:13,120 --> 01:52:14,680 die rijmen ABAB. 2245 01:52:14,840 --> 01:52:17,920 Maar een regel in een sonnet moet eigenlijk ook een vast ritme hebben. 2246 01:52:18,080 --> 01:52:20,560 De klemtoon en de niet-klemtoon moeten een ritme volgen. 2247 01:52:20,720 --> 01:52:23,440 Tadam, tadam, tadam, tadam. 2248 01:52:23,600 --> 01:52:26,600 Na die strofes van vier regels... Daarin wordt een gevoel, 2249 01:52:26,760 --> 01:52:29,960 een soort emotie opgewekt, maar niet in rechtstreeks taalgebruik, 2250 01:52:30,120 --> 01:52:32,040 maar in metaforisch taalgebruik. 2251 01:52:32,200 --> 01:52:35,120 Op het einde wordt dat gevoel een beetje afgerond 2252 01:52:35,280 --> 01:52:38,880 in een soort catharsis, in twee regels die ook rijmen. 2253 01:52:39,040 --> 01:52:42,560 Dat zijn veel opdrachten voor een softwaresysteem 2254 01:52:42,720 --> 01:52:45,240 dat niet eens weet wat de woorden betekenen. 2255 01:52:45,400 --> 01:52:48,040 Bon, ik ga op enter duwen. 2256 01:52:49,560 --> 01:52:53,040 Soms lukt dit en soms niet. Soms lukt het hem om te rijmen, 2257 01:52:53,200 --> 01:52:56,240 soms gaat hij woorden verzinnen omdat hij niet kan rijmen. 2258 01:52:56,400 --> 01:52:59,520 Soms zit dat metrum juist, soms ook niet. 2259 01:52:59,680 --> 01:53:02,680 Heel af en toe slaagt hij erin om een gevoel op te wekken 2260 01:53:02,840 --> 01:53:04,560 en dat op het einde af te sluiten. 2261 01:53:04,720 --> 01:53:07,640 En soms gebeuren er kleine mirakels en dan lukt alles. 2262 01:53:08,840 --> 01:53:10,000 We gaan het proberen. 2263 01:53:10,560 --> 01:53:14,200 Een sonnet over een olifant die graag een vogel wil zijn. En start. 2264 01:53:15,840 --> 01:53:18,680 Een olifant, groot in zijn grijze pracht, 2265 01:53:18,840 --> 01:53:21,520 droomde vaak van het blauwe hemelrijk. 2266 01:53:21,680 --> 01:53:24,520 Wilde zweven als vogel, zacht en licht. 2267 01:53:24,680 --> 01:53:27,880 Ver boven de savanne, 's nachts bij nacht. 2268 01:53:28,040 --> 01:53:30,720 Zijn slurf zong liedjes naar de wolken toe. 2269 01:53:30,880 --> 01:53:33,680 Zijn oren fladderden als vleugels wild. 2270 01:53:33,840 --> 01:53:36,480 In dromen was hij vogel, vrij en mild. 2271 01:53:36,640 --> 01:53:39,480 Zwevend op de wind, waarheen hij ook vloog. 2272 01:53:39,640 --> 01:53:42,000 Maar och, bij 't ontwaken, zwaar en groot, 2273 01:53:42,160 --> 01:53:44,560 voelde hij de aarde, niet de luchtse troon. 2274 01:53:44,720 --> 01:53:48,040 Zijn hart zwaar, in zijn borstkas als een lood. 2275 01:53:48,200 --> 01:53:50,560 Toch, in zijn ogen, schitterde een droom. 2276 01:53:50,720 --> 01:53:53,280 Dat zelfs een olifant, met vaste poot, 2277 01:53:53,440 --> 01:53:56,400 kan vliegen in zijn dromen, zonder schroom. 2278 01:53:56,560 --> 01:53:58,080 Niet slecht. 2279 01:53:59,200 --> 01:54:01,520 Maar het is voor tv, dus we gaan het nog eens proberen. 2280 01:54:04,040 --> 01:54:05,800 We gaan deze eens proberen. Dus... 2281 01:54:06,640 --> 01:54:08,240 Schrijf een sonnet... 2282 01:54:09,080 --> 01:54:10,680 over een zebra... 2283 01:54:11,560 --> 01:54:13,840 die graag rood wil zijn. 2284 01:54:14,000 --> 01:54:15,200 En start. 2285 01:54:17,120 --> 01:54:19,360 In 't rijk der wilde vlakten, zwart en wit. 2286 01:54:19,520 --> 01:54:22,680 Een zebra droomt van kleuren, rood en fel. 2287 01:54:22,840 --> 01:54:25,600 Verlangend naar een kleed, onuitgezegd. 2288 01:54:25,760 --> 01:54:29,160 Waar rood haar strepen kleurt, een wens zo snel. 2289 01:54:29,320 --> 01:54:32,120 In graslanden, onder 't Afrikaans azuur, 2290 01:54:32,280 --> 01:54:34,560 begluurt zij bloemen, vlinders in hun pracht. 2291 01:54:34,720 --> 01:54:37,160 Ziet zij de rozen bloeien, uur na uur. 2292 01:54:37,320 --> 01:54:40,480 En wenst dezelfde kleur, met al haar kracht. 2293 01:54:40,640 --> 01:54:43,360 O, mocht ik dansen in een veld van rood. 2294 01:54:43,520 --> 01:54:45,760 Verliezen zwart en wit, die oude dos. 2295 01:54:45,920 --> 01:54:48,480 En stralen in de zon als rozen groot. 2296 01:54:48,640 --> 01:54:51,880 Mijn strepen scharlaken, zonder verlies of los. 2297 01:54:52,040 --> 01:54:54,680 Maar dromen zijn als schaduwen, zo vlucht. 2298 01:54:54,840 --> 01:54:58,560 De zebra blijft zichzelf in zwart-wit, zucht. 2299 01:54:58,720 --> 01:55:00,440 Niet slecht. 2300 01:55:01,280 --> 01:55:02,920 Laat ons even deze strofe nemen. 2301 01:55:03,880 --> 01:55:06,920 In graslanden, onder 't Afrikaanse azuur, 2302 01:55:07,080 --> 01:55:09,240 begluurt zij bloemen, vlinders in hun pracht. 2303 01:55:09,400 --> 01:55:11,720 Ziet zij de rozen bloeien, uur na uur. 2304 01:55:11,880 --> 01:55:14,520 En wenst dezelfde kleur, met al haar kracht. 2305 01:55:14,680 --> 01:55:19,040 Ik denk dat sommige menselijke dichters hier al jaloers op zijn. 2306 01:55:20,200 --> 01:55:24,680 Terwijl... De combinatie van dingen dat dat ding hier combineert, 2307 01:55:24,840 --> 01:55:27,800 zou niet mogelijk mogen zijn voor software. 2308 01:55:27,960 --> 01:55:33,120 Ik snap niet meer hoe dit kan met 'next word prediction'. 2309 01:55:33,280 --> 01:55:34,520 ChatGPT spreekt 100 talen. 2310 01:55:34,680 --> 01:55:38,680 Spreekt Italiaans, Frans, Japans, Hindi, wat je maar wilt. 2311 01:55:38,840 --> 01:55:41,280 En het spreekt niet alleen mensentalen, 2312 01:55:41,440 --> 01:55:43,600 want op het internet staan ook andere talen. 2313 01:55:43,760 --> 01:55:47,360 Zoals bijvoorbeeld Python. Python is een programmeertaal. 2314 01:55:48,080 --> 01:55:51,920 En stel dat ik nu vraag aan ChatGPT: Schrijf eens Python-software 2315 01:55:52,080 --> 01:55:53,760 die aan vijf mensen hun leeftijd vraagt 2316 01:55:53,920 --> 01:55:56,440 en dan de gemiddelde leeftijd berekent van de vijf. 2317 01:55:56,600 --> 01:56:00,040 Als je op enter duwt, moet die eerst eventjes diep nadenken 2318 01:56:00,200 --> 01:56:01,720 en de vraag analyseren. 2319 01:56:02,480 --> 01:56:04,720 Dan begint hij te programmeren. 2320 01:56:06,800 --> 01:56:10,080 Dit is software die kan programmeren. 2321 01:56:11,040 --> 01:56:13,680 Software die zelf software kan schrijven 2322 01:56:13,840 --> 01:56:15,520 en opnieuw uitvoeren. 2323 01:56:16,440 --> 01:56:18,360 We hebben computers leren programmeren. 2324 01:56:18,520 --> 01:56:21,120 Was dat wel een goed plan? Ik weet het niet. 2325 01:56:21,840 --> 01:56:24,720 Er bestaan nu hulpprogramma's voor programmeurs. 2326 01:56:24,880 --> 01:56:26,760 Dat is AI. Als je aan het programmeren bent, 2327 01:56:26,920 --> 01:56:30,800 zet je dat open op een scherm naast je. Zoals GitHub Copilot. 2328 01:56:30,960 --> 01:56:33,600 Terwijl je programmeert, volgt die AI wat je aan het doen bent. 2329 01:56:33,760 --> 01:56:36,240 Na een tijdje zegt die: Je probeert dit te schrijven zeker? 2330 01:56:36,400 --> 01:56:37,960 Dan zeg jij: Ja, dat is waar. 2331 01:56:39,240 --> 01:56:41,320 AI die zelf software kan schrijven. 2332 01:56:41,480 --> 01:56:44,000 De volgende stap zal zijn dat we AI bouwen 2333 01:56:44,160 --> 01:56:46,280 die zelf nieuwe AI kan bouwen. 2334 01:56:46,920 --> 01:56:50,000 In het begin zullen die dat slechter kunnen dan de mens. 2335 01:56:50,160 --> 01:56:52,240 Misschien worden die daar steeds beter in. 2336 01:56:52,400 --> 01:56:55,520 Misschien komt er een punt waarop de AI beter wordt dan de mens 2337 01:56:55,680 --> 01:56:58,000 in het bouwen van nieuwe AI. 2338 01:56:58,160 --> 01:57:01,800 Dat is een heel belangrijk punt. Dat noemen we de 'singularity'. 2339 01:57:01,960 --> 01:57:05,600 Het moment waarop AI beter wordt dan de mens in het bouwen van nieuwe AI. 2340 01:57:05,760 --> 01:57:07,720 Vanaf dan verandert er veel. 2341 01:57:07,880 --> 01:57:10,880 Want vanaf dan gaan wij niet de nieuwe AI bouwen, 2342 01:57:11,040 --> 01:57:14,640 maar gaat de AI de nieuwe AI bouwen. En in theorie is het vanaf daar 2343 01:57:14,800 --> 01:57:18,720 een zelfversterkend, exponentieel slimmer wordend systeem. 2344 01:57:18,880 --> 01:57:22,680 Hoe ver die 'singularity' nog van ons is, is heel moeilijk te voorspellen. 2345 01:57:22,840 --> 01:57:25,040 Dat is misschien nog 300 of 400 jaar. 2346 01:57:25,200 --> 01:57:27,640 Maar het kan evengoed over tien jaar al zijn. 2347 01:57:28,360 --> 01:57:31,640 Sowieso staan er ons nog zotte tijden te wachten. 2348 01:57:32,520 --> 01:57:34,040 Laat ons daarom, tot slot, 2349 01:57:34,200 --> 01:57:37,600 eventjes kijken waar we ons hier en nu bevinden. 2350 01:57:38,320 --> 01:57:41,320 Ik zei in het begin: Dit is eigenlijk alleen maar nieuwe software 2351 01:57:41,480 --> 01:57:44,240 die goed is in patroonherkenning. Dat is ook zo. 2352 01:57:45,040 --> 01:57:47,520 Maar door die software te trainen en bij te trainen, 2353 01:57:47,680 --> 01:57:50,640 dat te combineren met zichzelf en zichzelf te laten trainen, 2354 01:57:50,800 --> 01:57:52,520 zijn we nu al toepassingen aan het bouwen 2355 01:57:52,680 --> 01:57:56,320 die we amper voor mogelijk hielden. En we zijn nog maar net begonnen. 2356 01:57:56,480 --> 01:57:58,680 We zijn letterlijk nog maar net begonnen 2357 01:57:58,840 --> 01:58:01,920 met de mogelijkheden van neurale netwerken te onderzoeken. 2358 01:58:02,080 --> 01:58:05,600 We zijn nog maar net binnengestapt door dat deurtje waar 'AI' op stond. 2359 01:58:05,760 --> 01:58:07,320 En we hebben een zaklamp bij ons. 2360 01:58:07,480 --> 01:58:11,000 Die schijnt een paar meter ver. Wat erachter ligt, weten we niet. 2361 01:58:11,920 --> 01:58:15,160 Misschien komen we snel een muur tegen. Dat kan altijd. 2362 01:58:15,320 --> 01:58:17,280 Maar wellicht ligt daar een enorm gebied 2363 01:58:17,440 --> 01:58:20,640 dat wij de komende jaren gaan ontdekken. 2364 01:58:20,800 --> 01:58:22,920 De AI-revolutie is begonnen 2365 01:58:23,080 --> 01:58:25,800 en die wordt groter dan de internetrevolutie. 2366 01:58:26,680 --> 01:58:28,000 Wat kunnen wij nu doen? 2367 01:58:28,160 --> 01:58:30,480 Ik zou zeggen, leer het zo goed mogelijk kennen. 2368 01:58:30,640 --> 01:58:31,920 Werk eens met een AI-systeem, 2369 01:58:32,080 --> 01:58:34,520 train eens een fotoset op Teachable Machine. 2370 01:58:34,680 --> 01:58:37,480 Dat geeft je een gevoel van wat het is en wat het kan. 2371 01:58:37,640 --> 01:58:39,160 Als je er bang van geworden bent, 2372 01:58:39,320 --> 01:58:41,880 leer het dan zeker zo goed mogelijk kennen. 2373 01:58:42,040 --> 01:58:43,680 Ofwel gaat dat je geruststellen, 2374 01:58:43,840 --> 01:58:47,960 en anders gaat dat je helpen om de juiste risico's te zien. 2375 01:58:48,120 --> 01:58:50,000 Er zijn risico's aan AI. 2376 01:58:50,160 --> 01:58:53,160 Als je AI niet goed kent, ga je verkeerde risico's zien. 2377 01:58:54,200 --> 01:58:57,440 En misschien mijn belangrijkste advies voor de komende jaren: 2378 01:58:57,600 --> 01:58:59,200 geniet van het spektakel. 2379 01:59:00,520 --> 01:59:05,080 Er komen waanzinnige tijden aan. Eigenlijk zijn ze al begonnen. 2380 01:59:05,600 --> 01:59:07,360 Wij mogen die meemaken. 2381 01:59:08,280 --> 01:59:12,440 Wij zijn de generatie die erbij mag zijn terwijl het gebeurt. 2382 01:59:12,600 --> 01:59:14,960 Wij zijn de generatie die erop mag staan kijken 2383 01:59:15,120 --> 01:59:16,560 terwijl het geboren wordt. 2384 01:59:16,720 --> 01:59:19,560 'Science is the greatest show on earth.' 2385 01:59:19,720 --> 01:59:22,680 Zet je op de eerste rij en 'enjoy the ride'. 2386 01:59:22,840 --> 01:59:24,160 Dank je wel. 2387 01:59:24,320 --> 01:59:26,360 (applaus) 2388 01:59:26,520 --> 01:59:27,920 Merci. 2389 01:59:29,880 --> 01:59:31,080 Dank je. 2390 01:59:32,920 --> 01:59:35,640 Thanks. Bye. 2391 01:59:51,760 --> 01:59:54,720 Dank je wel. Applausje voor Ludo. 2392 01:59:54,880 --> 01:59:57,200 (applaus en gejoel) 2393 01:59:57,760 --> 02:00:00,040 Merci. Bye. 194924

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.