Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
0
00:00:00,000 --> 00:00:07,000
Transcription: Elisabeth Buffard
1
00:00:08,596 --> 00:00:11,916
Ce matin, quand je me suis réveillé,
la première chose que j’ai fait,
2
00:00:11,916 --> 00:00:14,396
comme d’habitude,
c’est regarder mon téléphone.
3
00:00:16,116 --> 00:00:19,556
Dans mon fil d’actualités, j’avais
une suggestion d’article qui me disait
4
00:00:19,556 --> 00:00:22,116
que cet été,
la mode serait au T-shirt brodé.
5
00:00:22,196 --> 00:00:25,716
Alors, je me suis levé content,
je savais ce que je porterais aujourd’hui.
6
00:00:26,876 --> 00:00:30,156
Il a fallu que j’attende un peu,
que je prenne mon café du matin,
7
00:00:30,636 --> 00:00:33,116
pour me rendre compte
de ce que je venais de faire.
8
00:00:34,436 --> 00:00:36,276
Je venais de laisser à mon téléphone
9
00:00:36,276 --> 00:00:39,196
le soin de choisir la tenue
que je porterai aujourd’hui.
10
00:00:40,796 --> 00:00:43,556
Je me suis vu un peu
comme dans ce dessin animé de Pixar,
11
00:00:43,556 --> 00:00:47,396
Wall-E, où les humains, complètement
asservis par leur technologie,
12
00:00:47,876 --> 00:00:51,876
changent la couleur de leur combinaison
parce qu’un ordinateur dicte
13
00:00:51,876 --> 00:00:54,756
que la tendance est au bleu
plutôt qu’au rouge aujourd’hui.
14
00:00:55,676 --> 00:00:58,956
Et là, plein d’images ont commencé
à tournoyer dans ma tête.
15
00:01:00,036 --> 00:01:02,716
Des images d’un futur
peut-être pas si lointain,
16
00:01:04,396 --> 00:01:07,836
dans lequel la technologie déciderait
non seulement de ce que je porte,
17
00:01:07,996 --> 00:01:09,836
mais peut-être aussi de nos lois
18
00:01:10,436 --> 00:01:13,076
ou des opportunités
qui s’offrent à moi dans ma vie.
19
00:01:14,556 --> 00:01:17,716
Projetons-nous un peu dans un monde
à La Bienvenue à Gattaca,
20
00:01:18,156 --> 00:01:23,556
ce film où, parce qu’un ordinateur
a prédit que le personnage principal
21
00:01:23,556 --> 00:01:26,636
serait susceptible de développer
des maladies pendant sa vie,
22
00:01:27,316 --> 00:01:29,796
alors un pan entier
de carrière professionnelle
23
00:01:29,796 --> 00:01:31,476
lui serait fermé pour toujours.
24
00:01:33,796 --> 00:01:38,356
Projetons-nous un peu dans un monde
à la 1984 de George Orwell
25
00:01:38,676 --> 00:01:40,356
ou des Temps Modernes de Chaplin,
26
00:01:40,676 --> 00:01:43,316
où des machines nous surveilleraient
en permanence
27
00:01:43,516 --> 00:01:45,556
et nous enverraient des rappels à l’ordre
28
00:01:45,556 --> 00:01:48,956
si notre comportement ne suivait pas
une norme préétablie.
29
00:01:50,756 --> 00:01:53,156
Le futur que je vous décris vous effraie ?
30
00:01:54,036 --> 00:01:57,516
Ou est-ce qu’au contraire vous vous dites
que je suis un peu alarmiste,
31
00:01:57,516 --> 00:02:00,236
que je décris de la pure fiction
qui n’arrivera jamais ?
32
00:02:01,916 --> 00:02:04,036
Pourtant, dans de nombreux domaines,
33
00:02:04,036 --> 00:02:08,036
nous avons déjà sacrifié, au profit
de la machine, une part de nos décisions.
34
00:02:10,116 --> 00:02:13,116
Mais avant d’y revenir,
demandons-nous plutôt comment,
35
00:02:13,876 --> 00:02:16,676
comment une machine
peut-elle apprendre à faire
36
00:02:17,076 --> 00:02:20,396
quelque chose qui nous prend à nous,
humains, des années à maîtriser ?
37
00:02:20,476 --> 00:02:23,116
Comment peut-elle prédire
les tendances de la mode
38
00:02:23,116 --> 00:02:25,116
ou battre un maître aux échecs ?
39
00:02:26,836 --> 00:02:30,436
Eh bien, cette machine, appelons-la
intelligence artificielle ou IA,
40
00:02:30,916 --> 00:02:33,156
et c’est un programme informatique
41
00:02:33,156 --> 00:02:35,836
que je vous propose de voir
comme une fusée.
42
00:02:37,676 --> 00:02:40,076
Alors cette fusée en elle-même,
elle ne sert à rien
43
00:02:40,276 --> 00:02:41,716
si on ne fixe pas d’objectif :
44
00:02:42,876 --> 00:02:45,556
aller sur la Lune,
aller en orbite autour de Saturne.
45
00:02:46,236 --> 00:02:49,636
Et cet objectif, dans le monde
de l’intelligence artificielle,
46
00:02:50,356 --> 00:02:52,916
c’est la tâche que l’on cherche
à rendre automatique.
47
00:02:52,916 --> 00:02:54,156
Est-ce que je vais vouloir
48
00:02:54,156 --> 00:02:56,716
prédire la susceptibilité
de développer une maladie
49
00:02:56,996 --> 00:02:58,876
ou trouver mon chemin dans la rue ?
50
00:03:01,196 --> 00:03:03,516
Soyons déjà d’accord sur un point :
51
00:03:03,556 --> 00:03:06,316
il n’existe pas aujourd’hui
de fusée magique
52
00:03:06,316 --> 00:03:08,076
qui atteindrait tous les objectifs.
53
00:03:09,796 --> 00:03:12,636
Autrement dit,
pour des finalités différentes,
54
00:03:13,316 --> 00:03:16,796
l’intelligence artificielle
que nous créerons sera différente.
55
00:03:17,716 --> 00:03:21,996
Nous sommes bien loin encore
de la versatilité que nous seuls, humains,
56
00:03:22,916 --> 00:03:23,916
pouvons faire preuve.
57
00:03:26,196 --> 00:03:28,476
Mais avoir une fusée bien conçue
est une chose.
58
00:03:28,476 --> 00:03:31,996
Pour qu’elle atteigne son objectif,
il lui faut également du carburant.
59
00:03:32,796 --> 00:03:35,756
Et ce carburant dans le monde
de l’intelligence artificielle,
60
00:03:35,756 --> 00:03:37,076
ce sont les données.
61
00:03:38,156 --> 00:03:41,596
Les données lui servent d’exemples
sur la manière d’atteindre l’objectif
62
00:03:41,596 --> 00:03:42,676
dans un cas précis.
63
00:03:42,996 --> 00:03:44,996
Je pourrai ainsi expliquer à mon téléphone
64
00:03:44,996 --> 00:03:47,996
le chemin que j’ai suivi ce matin
pour aller chez mon boulanger
65
00:03:47,996 --> 00:03:49,956
et il pourra réutiliser cette information
66
00:03:49,956 --> 00:03:52,636
pour savoir comment me guider
d’un point A à un point B.
67
00:03:53,836 --> 00:03:56,036
Pour peu qu’elle ait
suffisamment de données,
68
00:03:56,036 --> 00:03:59,436
l’intelligence artificielle
saura atteindre l’objectif
69
00:03:59,436 --> 00:04:01,396
dans une grande variété de situations.
70
00:04:03,396 --> 00:04:07,116
C’est sur ce principe
que l’intelligence artificielle
71
00:04:07,476 --> 00:04:10,116
nous permet de rendre plus simples
et plus automatiques
72
00:04:10,116 --> 00:04:13,556
une grande variété de tâches rébarbatives
de notre quotidien.
73
00:04:15,036 --> 00:04:17,156
C'est ce qui a fait la clé de son succès.
74
00:04:18,436 --> 00:04:19,676
Pensons-y un instant.
75
00:04:19,716 --> 00:04:22,756
C’est indéniablement
un succès retentissant.
76
00:04:23,596 --> 00:04:26,636
Qui parmi vous, ne dégaine pas
spontanément son smartphone
77
00:04:26,756 --> 00:04:29,116
lorsqu’il s’agit de se repérer
dans la rue ?
78
00:04:30,036 --> 00:04:32,836
Qui parmi vous cherche encore
ses prochains vêtements,
79
00:04:32,836 --> 00:04:35,396
son prochain logement
ou ce qu’il va manger ce soir
80
00:04:35,396 --> 00:04:38,356
sans passer par des moteurs
de recommandation ou de recherche
81
00:04:38,356 --> 00:04:39,836
qui prémâcheront le travail ?
82
00:04:40,876 --> 00:04:42,516
Et ça va encore plus loin,
83
00:04:42,516 --> 00:04:47,716
parce que l’IA, c’est du confort
et de la sécurité gagnés au quotidien.
84
00:04:49,236 --> 00:04:52,036
Parmi vous, je sais que vous êtes
de plus en plus nombreux
85
00:04:52,036 --> 00:04:54,756
à demander à la maison,
à votre assistant vocal,
86
00:04:54,756 --> 00:04:58,076
d’allumer la lumière du salon,
de passer la musique
87
00:04:58,076 --> 00:05:00,956
ou tout simplement de vous rappeler
que vous avez rendez-vous
88
00:05:00,956 --> 00:05:02,356
chez le médecin demain matin.
89
00:05:04,236 --> 00:05:05,716
Mais pensons-y un peu.
90
00:05:06,236 --> 00:05:09,756
Le temps et le confort gagnés
en rendant automatique ces tâches,
91
00:05:11,156 --> 00:05:14,436
ne l’avons-nous pas payé au prix
d’un peu de notre libre arbitre ?
92
00:05:16,516 --> 00:05:18,596
Ne sommes-nous pas devenus
un peu paresseux
93
00:05:18,596 --> 00:05:21,316
et n’aurions-nous pas perdu
un peu de notre intelligence
94
00:05:21,316 --> 00:05:24,356
en la sacrifiant au profit de la machine ?
95
00:05:26,636 --> 00:05:29,156
Beaucoup d’entre vous
sont suffisamment âgés
96
00:05:29,156 --> 00:05:32,876
pour avoir vécu le développement
de l’intelligence artificielle
97
00:05:32,916 --> 00:05:35,636
et sa croissance, jusqu’à prendre
une part si importante
98
00:05:35,636 --> 00:05:37,276
dans nos vies de tous les jours.
99
00:05:38,956 --> 00:05:41,476
Nous avons tous encore en tête
des mémoires d’un temps
100
00:05:41,476 --> 00:05:44,436
où nous étions plus jeunes,
moins dépendants de la technologie,
101
00:05:44,436 --> 00:05:47,436
moins connectés, nous pourrons
toujours nous y référer.
102
00:05:49,716 --> 00:05:51,396
Qu’en sera-t-il pour nos enfants ?
103
00:05:52,836 --> 00:05:58,596
Eux naissent et grandissent dans un monde
déjà largement dominé par la technologie.
104
00:05:59,516 --> 00:06:03,156
Il leur sera d'autant plus difficile
d'imaginer vivre autrement.
105
00:06:05,276 --> 00:06:07,036
Pour eux et pour nous tous,
106
00:06:07,916 --> 00:06:12,116
nous comprenons que savoir où je place
le curseur entre le confort et la sécurité
107
00:06:12,396 --> 00:06:14,716
gagnés grâce à l’intelligence artificielle
108
00:06:15,036 --> 00:06:19,436
et la part de libre arbitre
que je lui sacrifie, est très complexe.
109
00:06:21,996 --> 00:06:25,756
Alors face à cette complexité
et ce risque pour notre humanité,
110
00:06:25,756 --> 00:06:27,276
devrions-nous dire stop ?
111
00:06:27,956 --> 00:06:32,236
Stop, on arrête de développer l’IA,
on ne fait plus rien, on s’arrête là.
112
00:06:33,916 --> 00:06:35,796
Est-ce qu’on y perdrait quelque chose ?
113
00:06:39,036 --> 00:06:42,716
Dans de nombreux domaines,
l’IA est déjà bien régulée
114
00:06:43,396 --> 00:06:45,276
et elle permet d’assister l’humain
115
00:06:45,276 --> 00:06:48,596
sans pour autant remplacer
son expertise ou ses valeurs.
116
00:06:50,276 --> 00:06:53,636
Dans le domaine de la santé,
certaines technologies peuvent,
117
00:06:53,636 --> 00:06:58,876
sur la base d’une image IRM,
d’une image radio, d’un scanner,
118
00:06:59,396 --> 00:07:04,996
guider le médecin vers un diagnostic
plus précis, et ce au bénéfice du patient.
119
00:07:08,956 --> 00:07:12,396
Pensez-vous que de telles technologies
peuvent voir le jour
120
00:07:12,796 --> 00:07:17,156
si seuls des experts
de l’intelligence artificielle
121
00:07:17,556 --> 00:07:19,756
œuvrent à les développer ?
122
00:07:20,356 --> 00:07:21,356
Non.
123
00:07:23,156 --> 00:07:27,516
Pour que ce système puisse fonctionner
et rester utile et respectueux de tous,
124
00:07:28,956 --> 00:07:33,196
ces experts travaillent avec des experts
de l’imagerie médicale, des médecins,
125
00:07:33,436 --> 00:07:34,636
des patients.
126
00:07:34,636 --> 00:07:37,316
Et c’est ensemble, entre personnes
directement concernées
127
00:07:37,316 --> 00:07:39,276
par ces technologies et leur utilisation
128
00:07:39,956 --> 00:07:43,636
que nous pouvons garantir de concevoir
cette IA utile pour tous.
129
00:07:45,276 --> 00:07:49,796
C'est donc ensemble que nous devons
définir les règles du jeu de l'IA.
130
00:07:52,356 --> 00:07:54,996
Il ne s’agit pas simplement
de poser des limites à l’IA
131
00:07:54,996 --> 00:07:57,316
et lui interdire
certains champs d’application,
132
00:07:57,316 --> 00:07:59,956
mais plus simplement
que chacun se sente légitime,
133
00:08:00,036 --> 00:08:01,796
quelles que soient ses compétences,
134
00:08:01,996 --> 00:08:05,316
pour dire ce pour quoi il a besoin
de l’IA dans sa vie.
135
00:08:07,236 --> 00:08:08,996
Alors ce que je suis en train de dire
136
00:08:08,996 --> 00:08:12,036
peut vous paraître simple
quand on a un diplôme en informatique
137
00:08:12,036 --> 00:08:14,196
et que ces système
nous sont très familiers.
138
00:08:15,476 --> 00:08:18,196
Cela voudrait dire que nous devrions
exclure du débat
139
00:08:18,196 --> 00:08:19,876
toutes les personnes sans diplôme ?
140
00:08:21,076 --> 00:08:22,796
Devrions-nous exclure nos enfants ?
141
00:08:23,596 --> 00:08:25,716
Les personnes qui ne parlent pas
notre langue
142
00:08:25,716 --> 00:08:28,236
ou qui partagent une culture
différente de la nôtre ?
143
00:08:29,276 --> 00:08:30,476
Comment les impliquer ?
144
00:08:32,596 --> 00:08:34,756
Eh bien, revenons
à cette définition de l’IA,
145
00:08:34,756 --> 00:08:38,276
ce programme informatique qui cherche
à atteindre un objectif
146
00:08:38,956 --> 00:08:40,676
grâce à des données.
147
00:08:40,756 --> 00:08:43,276
Alors, certes, nous n’avons pas tous
les compétences
148
00:08:43,276 --> 00:08:46,236
pour contribuer à développer
ce programme informatique.
149
00:08:46,796 --> 00:08:51,156
Mais la finalité pour laquelle
nous développons l’IA
150
00:08:51,156 --> 00:08:52,996
et les données que nous lui confions,
151
00:08:53,276 --> 00:08:56,116
ce sont également bien
des humains qui l’ont définie.
152
00:08:56,116 --> 00:08:58,396
Et pour cela, nous sommes tous légitimes.
153
00:08:59,996 --> 00:09:02,676
Ce n’est pas au gouvernement
ou aux grandes entreprises
154
00:09:02,676 --> 00:09:05,516
de décider pour nous
quelles seront les finalités
155
00:09:05,516 --> 00:09:07,996
pour lesquelles
nous voulons voir l’IA développée.
156
00:09:08,396 --> 00:09:10,476
Afin d’éviter les risques de dérives,
157
00:09:11,876 --> 00:09:16,476
cette volonté doit venir d’un engagement
citoyen de chacun de nous.
158
00:09:19,076 --> 00:09:22,316
Certains définissent aujourd’hui l’IA
comme la nouvelle électricité,
159
00:09:22,516 --> 00:09:25,156
cette énergie qui décuplerait
nos capacités
160
00:09:25,676 --> 00:09:28,876
lorsqu’elle aura alimenté
tous les pans de notre vie quotidienne.
161
00:09:30,356 --> 00:09:33,036
Et quand on voit les enjeux stratégiques
162
00:09:33,036 --> 00:09:35,436
dont fait l’objet
l’approvisionnement en énergie,
163
00:09:36,156 --> 00:09:39,236
on comprend aujourd’hui à quel point
nous en sommes dépendants.
164
00:09:39,236 --> 00:09:42,796
Et on comprend qu’il est essentiel
de lancer dès à présent
165
00:09:42,996 --> 00:09:47,356
ce débat sur la place
qu’aura l’IA dans notre société.
166
00:09:48,636 --> 00:09:50,876
Pour le confort et la sécurité
qu’elle apporte,
167
00:09:51,276 --> 00:09:55,436
nous devons nous assurer de déployer l’IA
partout où elle est nécessaire,
168
00:09:55,876 --> 00:10:00,116
mais pour les risques qu’elle pose,
garantissons aussi de la déployer
169
00:10:00,116 --> 00:10:02,316
seulement là où c’est nécessaire.
170
00:10:04,516 --> 00:10:09,156
Et si nous voulons y parvenir, l'IA doit
devenir notre bien commun à tous.
171
00:10:11,316 --> 00:10:12,876
Ce que je vous propose ici,
172
00:10:12,876 --> 00:10:15,836
c’est finalement de partir
pour une quête de cohérence,
173
00:10:16,076 --> 00:10:18,796
de cohérence dans la relation
que nous entretenons
174
00:10:19,036 --> 00:10:22,356
avec cette technologie
déjà si importante dans notre vie
175
00:10:23,076 --> 00:10:25,436
et dont l’importance
est encore amenée à grandir.
176
00:10:26,636 --> 00:10:30,636
Mais si nous sommes convaincus du devoir
d’agir, comment le faire concrètement ?
177
00:10:31,596 --> 00:10:35,796
Alors nous avons parlé plus tôt de lois,
de normes pour mieux encadrer l’IA.
178
00:10:35,916 --> 00:10:36,916
Et c'est un début.
179
00:10:37,756 --> 00:10:42,556
Mais pour que cet objectif soit pérennisé,
assurons-nous aussi d’éduquer à l’IA
180
00:10:42,556 --> 00:10:44,716
le plus grand nombre
et surtout nos enfants.
181
00:10:45,916 --> 00:10:48,996
Montrons-leur les opportunités
qu’offre l’IA
182
00:10:49,276 --> 00:10:52,156
mais également les risques qu’elle pose
pour notre humanité.
183
00:10:53,716 --> 00:10:57,276
Nous avons également intérêt, tous,
gouvernements, grandes entreprises,
184
00:10:57,276 --> 00:11:00,996
individus, à rester transparents
sur la finalité
185
00:11:01,356 --> 00:11:03,196
pour laquelle nous déployons l’IA.
186
00:11:03,716 --> 00:11:08,076
Et nous devons aussi rendre accessible
à tous, sans prérequis de connaissance,
187
00:11:09,236 --> 00:11:11,996
la contribution à chacune des étapes
188
00:11:12,316 --> 00:11:14,676
de la conception
de l’intelligence artificielle,
189
00:11:14,676 --> 00:11:16,196
depuis l’idée initiale
190
00:11:16,276 --> 00:11:18,716
jusqu’à sa diffusion
dans notre vie quotidienne.
191
00:11:20,396 --> 00:11:23,476
Créons des espaces de partage,
des moments de partage
192
00:11:23,756 --> 00:11:27,676
pour échanger ensemble
sur la construction de cette IA
193
00:11:28,356 --> 00:11:30,716
Je rêve de cafés IA ou de hubs IA,
194
00:11:30,716 --> 00:11:33,196
où chacun pourrait venir
avec ses compétences,
195
00:11:33,196 --> 00:11:36,556
ses connaissances ou bien simplement
ses idées et ses besoins,
196
00:11:37,196 --> 00:11:38,916
pour échanger ensemble
197
00:11:38,916 --> 00:11:42,156
et construire une solution
qui soit vraiment en cohérence
198
00:11:42,156 --> 00:11:44,236
avec les besoins
que nous avons réellement.
199
00:11:45,316 --> 00:11:47,036
C’est seulement tous ensemble,
200
00:11:47,036 --> 00:11:49,516
entre personnes de valeurs
et compétences diverses,
201
00:11:49,556 --> 00:11:51,276
et pas seulement entre experts,
202
00:11:51,956 --> 00:11:54,196
que nous créerons
une intelligence artificielle
203
00:11:54,196 --> 00:11:58,356
qui soit véritablement
au service de l’humain et pas l’inverse.
204
00:11:59,436 --> 00:12:02,356
Alors, puisque nous sommes tous
concernés par cet enjeu,
205
00:12:04,036 --> 00:12:05,556
soyons-en tous acteurs.
206
00:12:07,076 --> 00:12:08,076
Merci.
19194
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.