Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:30,682 --> 00:00:31,814
Hola, Alfa.
2
00:00:32,684 --> 00:00:34,034
Hola.
3
00:00:34,077 --> 00:00:35,296
¿Puedes ayudarme a escribir código?
4
00:00:37,559 --> 00:00:39,082
Me entrenaron para responder preguntas,
5
00:00:40,562 --> 00:00:42,216
pero soy capaz de aprender.
6
00:00:43,695 --> 00:00:45,958
Eso es muy abierto de tu parte.
7
00:00:46,002 --> 00:00:48,657
Gracias. Me alegro de que estés feliz conmigo.
8
00:00:50,311 --> 00:00:51,312
¿Qué está haciendo este tipo?
9
00:00:54,532 --> 00:00:56,621
Ese es un desarrollador.
10
00:00:56,665 --> 00:00:58,014
¿En qué crees que está trabajando?
11
00:00:59,537 --> 00:01:01,017
Esa es una pregunta difícil.
12
00:01:01,061 --> 00:01:02,888
Podría estar trabajando en una nueva función,
13
00:01:02,932 --> 00:01:05,239
una corrección de error o algo más.
14
00:01:05,282 --> 00:01:06,327
Es muy posible.
15
00:01:06,370 --> 00:01:07,328
Sí.
16
00:01:10,548 --> 00:01:11,854
¿Ves mi mochila?
17
00:01:13,986 --> 00:01:15,292
Esa es una raqueta de bádminton.
18
00:01:15,336 --> 00:01:17,903
Es una raqueta de squash, pero se le parece bastante.
19
00:01:20,123 --> 00:01:21,690
Esa es una raqueta de bádminton.
20
00:01:21,733 --> 00:01:23,126
No, pero no eres la primera persona.
21
00:01:23,170 --> 00:01:24,649
Cometer ese error.
22
00:01:34,703 --> 00:01:35,965
IA, la tecnología
23
00:01:36,008 --> 00:01:38,402
que ha ido avanzando a una velocidad vertiginosa.
24
00:01:38,446 --> 00:01:40,796
La inteligencia artificial está de moda.
25
00:01:40,839 --> 00:01:42,319
Algunos ahora están dando la alarma sobre...
26
00:01:42,363 --> 00:01:43,886
Definitivamente es preocupante.
27
00:01:43,929 --> 00:01:45,322
Esta es una carrera armamentista de IA.
28
00:01:45,366 --> 00:01:46,454
No lo sabemos
29
00:01:46,497 --> 00:01:47,585
Cómo va a resultar todo esto,
30
00:01:47,629 --> 00:01:48,891
Pero está claro que algo está pasando.
31
00:01:53,809 --> 00:01:55,115
Estoy un poco inquieto.
32
00:01:57,073 --> 00:02:00,120
Intentar construir una IA general es el viaje más emocionante,
33
00:02:00,163 --> 00:02:02,383
en mi opinión, que los humanos jamás hayan emprendido.
34
00:02:04,254 --> 00:02:06,300
Si realmente vas a tomar eso en serio,
35
00:02:06,343 --> 00:02:08,345
No hay mucho tiempo
36
00:02:08,389 --> 00:02:09,825
La vida es muy corta.
37
00:02:12,523 --> 00:02:14,482
Mi meta en la vida entera es resolver
38
00:02:14,525 --> 00:02:16,875
Inteligencia general artificial.
39
00:02:16,919 --> 00:02:20,357
Y de camino, utilizar la IA como herramienta definitiva
40
00:02:20,401 --> 00:02:21,750
Para resolver todos los problemas del mundo
41
00:02:21,793 --> 00:02:23,230
Los problemas científicos más complejos.
42
00:02:25,449 --> 00:02:27,103
Pienso que esto es más grande que Internet.
43
00:02:27,147 --> 00:02:28,452
Pienso que esto es más grande que el móvil.
44
00:02:29,671 --> 00:02:31,020
Creo que es más como
45
00:02:31,063 --> 00:02:32,891
la llegada de la electricidad o el fuego.
46
00:02:45,687 --> 00:02:46,731
Líderes mundiales
47
00:02:46,775 --> 00:02:48,516
y expertos en inteligencia artificial
48
00:02:48,559 --> 00:02:49,908
se están reuniendo por primera vez
49
00:02:49,952 --> 00:02:52,781
cumbre mundial sobre seguridad de la IA,
50
00:02:52,824 --> 00:02:54,348
Dispuestos a analizar los riesgos
51
00:02:54,391 --> 00:02:56,611
de la tecnología de rápido crecimiento y también...
52
00:02:56,654 --> 00:02:57,873
Creo que esto es algo muy importante.
53
00:02:57,916 --> 00:03:00,136
momento crítico para toda la humanidad.
54
00:03:01,093 --> 00:03:03,618
Se siente como si estuviéramos en la cúspide
55
00:03:03,661 --> 00:03:05,794
de algunas cosas increíbles sucediendo.
56
00:03:05,837 --> 00:03:07,056
Déjame guiarte a través de
57
00:03:07,099 --> 00:03:08,275
Algunas de las reacciones en los periódicos de hoy.
58
00:03:08,318 --> 00:03:10,015
Creo que AGI está bastante cerca.
59
00:03:10,059 --> 00:03:12,844
Está claro que hay un enorme interés en lo que es capaz de hacer.
60
00:03:12,888 --> 00:03:14,803
A dónde nos lleva.
61
00:03:14,846 --> 00:03:15,978
Este es el momento
62
00:03:16,021 --> 00:03:17,936
He estado viviendo toda mi vida por.
63
00:03:22,202 --> 00:03:24,987
Siempre me ha fascinado la mente.
64
00:03:25,030 --> 00:03:27,990
Así que me propuse estudiar neurociencia.
65
00:03:28,033 --> 00:03:29,948
Porque quería inspirarme
66
00:03:29,992 --> 00:03:31,646
Del cerebro a la IA.
67
00:03:31,689 --> 00:03:33,300
Recuerdo haberle preguntado a Demis:
68
00:03:33,343 --> 00:03:34,649
"¿Cuál es el objetivo final?"
69
00:03:34,692 --> 00:03:36,172
¿Lo sabes? Entonces vas a venir aquí.
70
00:03:36,216 --> 00:03:38,218
y vas a estudiar neurociencia
71
00:03:38,261 --> 00:03:41,438
Y tal vez obtendrás un doctorado si trabajas duro.
72
00:03:42,874 --> 00:03:44,136
Y él dijo:
73
00:03:44,180 --> 00:03:46,965
"Sabes, quiero poder resolver la IA.
74
00:03:47,009 --> 00:03:49,359
"Quiero poder resolver inteligencia."
75
00:03:49,403 --> 00:03:51,361
El cerebro humano es la única prueba existente
76
00:03:51,405 --> 00:03:53,494
Tenemos, tal vez en todo el universo,
77
00:03:53,537 --> 00:03:56,279
Que la inteligencia general sea posible.
78
00:03:56,323 --> 00:03:59,282
Y pensé que alguien en este edificio
79
00:03:59,326 --> 00:04:00,370
Debería estar interesado
80
00:04:00,414 --> 00:04:02,590
En general, inteligencia como la mía.
81
00:04:02,633 --> 00:04:04,809
Y entonces apareció el nombre de Shane.
82
00:04:04,853 --> 00:04:07,334
Nuestro próximo orador hoy es Shane Legg.
83
00:04:07,377 --> 00:04:08,596
Él es de Nueva Zelanda,
84
00:04:08,639 --> 00:04:11,512
donde se formó en matemáticas y ballet clásico.
85
00:04:11,555 --> 00:04:14,079
¿Las máquinas se están volviendo realmente más inteligentes?
86
00:04:14,123 --> 00:04:16,517
Algunas personas dicen que sí, otras dicen que no.
87
00:04:16,560 --> 00:04:17,648
No está muy claro
88
00:04:17,692 --> 00:04:18,867
Sabemos que se están volviendo mucho más rápidos.
89
00:04:18,910 --> 00:04:20,216
al hacer cálculos.
90
00:04:20,260 --> 00:04:21,609
Pero ¿realmente estamos avanzando?
91
00:04:21,652 --> 00:04:23,828
¿En términos de inteligencia general?
92
00:04:23,872 --> 00:04:25,700
Los dos estábamos obsesionados con la IAG,
93
00:04:25,743 --> 00:04:27,397
Inteligencia general artificial.
94
00:04:27,441 --> 00:04:29,704
Así que hoy voy a hablar sobre
95
00:04:29,747 --> 00:04:32,097
Diferentes enfoques para construir IAG.
96
00:04:32,141 --> 00:04:33,882
Con mi colega Demis Hassabis,
97
00:04:33,925 --> 00:04:35,884
Estamos buscando formas de incorporar ideas.
98
00:04:35,927 --> 00:04:37,451
de la neurociencia teórica.
99
00:04:37,494 --> 00:04:41,585
Me sentí como si fuéramos los guardianes de un secreto.
100
00:04:41,629 --> 00:04:43,152
que nadie más lo sabía.
101
00:04:43,195 --> 00:04:45,415
Shane y yo no conocíamos a nadie en el ámbito académico.
102
00:04:45,459 --> 00:04:47,809
apoyaría lo que estábamos haciendo.
103
00:04:47,852 --> 00:04:50,855
IA era casi una palabra vergonzosa
104
00:04:50,899 --> 00:04:52,857
para usar en círculos académicos, ¿verdad?
105
00:04:52,901 --> 00:04:54,903
Si dijeras que estás trabajando en IA,
106
00:04:54,946 --> 00:04:57,993
Entonces claramente no eras un científico serio.
107
00:04:58,036 --> 00:05:00,082
Así que convencí a Shane de la forma correcta de hacerlo.
108
00:05:00,125 --> 00:05:01,344
Sería iniciar una empresa.
109
00:05:01,388 --> 00:05:03,215
Bueno, vamos a intentar hacerlo.
110
00:05:03,259 --> 00:05:04,913
Inteligencia general artificial.
111
00:05:04,956 --> 00:05:06,915
Puede que ni siquiera sea posible.
112
00:05:06,958 --> 00:05:08,482
No estamos muy seguros de cómo lo vamos a hacer,
113
00:05:08,525 --> 00:05:11,528
pero tenemos algunas ideas o, en cierto modo, enfoques.
114
00:05:11,572 --> 00:05:14,966
Enormes cantidades de dinero, enormes cantidades de riesgo,
115
00:05:15,010 --> 00:05:16,533
Muchísimos cálculos.
116
00:05:18,709 --> 00:05:20,320
Y si logramos esto,
117
00:05:20,363 --> 00:05:23,540
Será lo más grande de la historia, ¿verdad?
118
00:05:23,584 --> 00:05:26,108
Esto es algo muy difícil para un inversor típico.
119
00:05:26,151 --> 00:05:27,327
para poner su dinero.
120
00:05:27,370 --> 00:05:29,633
Es casi como comprar un billete de lotería.
121
00:05:29,677 --> 00:05:32,462
Voy a hablar sobre el sistema de la neurociencia.
122
00:05:32,506 --> 00:05:36,727
y cómo podría usarse para ayudarnos a construir una IAG.
123
00:05:36,771 --> 00:05:37,946
Encontrar financiación inicial
124
00:05:37,989 --> 00:05:39,208
Porque esto fue muy difícil.
125
00:05:39,251 --> 00:05:41,253
Vamos a resolver toda la inteligencia.
126
00:05:41,297 --> 00:05:42,907
Puedes imaginar algunas de las miradas que recibí.
127
00:05:42,951 --> 00:05:44,779
Cuando estábamos lanzando eso.
128
00:05:44,822 --> 00:05:47,912
Entonces soy un VC y miro alrededor
129
00:05:47,956 --> 00:05:51,002
700 a 1.000 proyectos al año.
130
00:05:51,046 --> 00:05:54,789
Y yo financio literalmente el 1% de ellos.
131
00:05:54,832 --> 00:05:57,139
Alrededor de ocho proyectos al año.
132
00:05:57,182 --> 00:06:00,272
Eso significa que el 99% del tiempo estás en modo "No".
133
00:06:00,316 --> 00:06:01,622
"Espera un minuto. Te lo estoy diciendo,
134
00:06:01,665 --> 00:06:03,798
"Esto es lo más importante de todos los tiempos.
135
00:06:03,841 --> 00:06:05,103
"Te estoy dando toda esta preparación
136
00:06:05,147 --> 00:06:06,235
"sobre cómo... explicar
137
00:06:06,278 --> 00:06:07,671
"cómo se conecta con el cerebro,
138
00:06:07,715 --> 00:06:09,412
"¿Por qué es el momento justo y luego me preguntas,
139
00:06:09,456 --> 00:06:10,979
"Pero ¿cuál es tu, cómo vas a ganar dinero?
140
00:06:11,022 --> 00:06:12,154
"'¿Cuál es su producto?'"
141
00:06:12,197 --> 00:06:15,984
Es una pregunta muy prosaica.
142
00:06:16,506 --> 00:06:17,942
¿Sabes?
143
00:06:17,986 --> 00:06:19,117
-¿No has estado escuchando lo que he estado diciendo?
144
00:06:19,161 --> 00:06:21,076
Necesitábamos inversores
145
00:06:21,119 --> 00:06:23,470
que no necesariamente van a invertir
146
00:06:23,513 --> 00:06:25,123
Porque creen que es lo mejor
147
00:06:25,167 --> 00:06:26,690
decisión de inversión.
148
00:06:26,734 --> 00:06:27,865
Probablemente van a invertir
149
00:06:27,909 --> 00:06:29,476
Porque simplemente piensan que es realmente genial.
150
00:06:29,519 --> 00:06:31,478
Él es Silicon Valley
151
00:06:31,521 --> 00:06:33,523
Versión del hombre detrás de la cortina
152
00:06:33,567 --> 00:06:34,872
enEl mago de Oz.
153
00:06:34,916 --> 00:06:36,265
Él tuvo mucho que ver con darte
154
00:06:36,308 --> 00:06:39,007
PayPal, Facebook, YouTube y Yelp.
155
00:06:39,050 --> 00:06:40,443
Si todo el mundo dice "X",
156
00:06:40,487 --> 00:06:43,185
Peter Thiel sospecha que lo opuesto de X
157
00:06:43,228 --> 00:06:44,708
Es muy posible que sea cierto.
158
00:06:44,752 --> 00:06:47,276
Así que Peter Thiel fue nuestro primer gran inversor.
159
00:06:47,319 --> 00:06:50,105
Pero él insistió en que fuéramos a Silicon Valley.
160
00:06:50,148 --> 00:06:51,802
Porque ese era el único lugar donde podíamos...
161
00:06:51,846 --> 00:06:52,977
Allí estaría el talento,
162
00:06:53,021 --> 00:06:55,066
y podríamos construir ese tipo de empresa.
163
00:06:55,110 --> 00:06:56,981
Pero yo estaba bastante convencido de que deberíamos estar en Londres.
164
00:06:57,025 --> 00:06:59,027
Porque creo que Londres es una ciudad increíble.
165
00:06:59,070 --> 00:07:01,464
Además, sabía que había gente realmente increíble.
166
00:07:01,508 --> 00:07:03,814
Formado en Cambridge, Oxford y UCL.
167
00:07:03,858 --> 00:07:05,033
En Silicon Valley,
168
00:07:05,076 --> 00:07:06,643
Todo el mundo funda una empresa cada año,
169
00:07:06,687 --> 00:07:07,818
y luego si no funciona,
170
00:07:07,862 --> 00:07:09,603
Lo dejas y empiezas algo nuevo.
171
00:07:09,646 --> 00:07:11,169
Eso no es propicio
172
00:07:11,213 --> 00:07:14,564
a un desafío de investigación a largo plazo.
173
00:07:14,608 --> 00:07:17,349
Así que éramos totalmente una excepción para él.
174
00:07:17,393 --> 00:07:20,962
Hola a todos. Bienvenidos a DeepMind.
175
00:07:21,005 --> 00:07:22,529
Entonces, ¿cuál es nuestra misión?
176
00:07:23,747 --> 00:07:25,706
Lo resumimos así...
177
00:07:25,749 --> 00:07:28,012
La misión de DeepMind es construir la primera
178
00:07:28,056 --> 00:07:29,579
máquina de aprendizaje general.
179
00:07:29,623 --> 00:07:31,712
Por eso siempre enfatizamos la palabra "general" y "aprendizaje" aquí.
180
00:07:31,755 --> 00:07:32,887
Son las cosas claves.
181
00:07:32,930 --> 00:07:35,106
Nuestra misión era construir una IAG,
182
00:07:35,150 --> 00:07:36,760
una inteligencia general artificial.
183
00:07:36,804 --> 00:07:40,372
Y eso significa que necesitamos un sistema que sea general.
184
00:07:40,416 --> 00:07:42,723
No aprende a hacer una cosa específica.
185
00:07:42,766 --> 00:07:45,073
Ésa es una parte realmente clave de la inteligencia humana.
186
00:07:45,116 --> 00:07:46,683
Podemos aprender a hacer muchas, muchas cosas.
187
00:07:46,727 --> 00:07:48,685
Por supuesto, será mucho trabajo duro.
188
00:07:48,729 --> 00:07:51,079
Pero una de las cosas que me mantiene despierto por la noche
189
00:07:51,122 --> 00:07:53,168
es no desperdiciar esta oportunidad, ya sabes,
190
00:07:53,211 --> 00:07:54,430
Para realmente hacer una diferencia aquí,
191
00:07:54,474 --> 00:07:56,824
y tienen un gran impacto en el mundo.
192
00:07:56,867 --> 00:07:58,303
Las primeras personas que vinieron
193
00:07:58,347 --> 00:08:00,262
y se unió a DeepMind realmente creyó en el sueño.
194
00:08:00,305 --> 00:08:02,090
Pero ésta fue, creo, una de las primeras veces
195
00:08:02,133 --> 00:08:04,440
Encontraron un lugar lleno de otros soñadores.
196
00:08:04,484 --> 00:08:06,398
Ya sabes, hemos recopilado este Proyecto Manhattan,
197
00:08:06,442 --> 00:08:08,400
Si quieres, juntos solucionemos la IA.
198
00:08:08,444 --> 00:08:09,750
En los dos primeros años,
199
00:08:09,793 --> 00:08:10,794
Estábamos en modo totalmente sigiloso.
200
00:08:10,838 --> 00:08:12,274
Y entonces no pudimos decirle a nadie
201
00:08:12,317 --> 00:08:14,755
¿Qué estábamos haciendo o dónde trabajábamos?
202
00:08:14,798 --> 00:08:16,104
Todo era bastante vago.
203
00:08:16,147 --> 00:08:17,584
No tuvo ninguna presencia pública.
204
00:08:17,627 --> 00:08:18,933
No podrías mirar un sitio web.
205
00:08:18,976 --> 00:08:21,109
La oficina estaba en un lugar secreto.
206
00:08:21,152 --> 00:08:23,981
Cuando entrevistábamos a la gente en aquellos primeros días,
207
00:08:24,025 --> 00:08:26,288
Aparecerían muy nerviosos.
208
00:08:27,463 --> 00:08:29,639
Tuve al menos un candidato que dijo:
209
00:08:29,683 --> 00:08:31,989
"Acabo de enviarle un mensaje a mi esposa para decirle exactamente...
210
00:08:32,033 --> 00:08:33,338
"Adonde voy por si acaso
211
00:08:33,382 --> 00:08:34,514
"Esto resulta ser una especie de estafa horrible
212
00:08:34,557 --> 00:08:35,819
"y me van a secuestrar."
213
00:08:35,863 --> 00:08:39,693
Bueno, mi nueva persona favorita que es inversor,
214
00:08:39,736 --> 00:08:43,000
Con quien llevo trabajando un año es Elon Musk.
215
00:08:43,044 --> 00:08:44,132
Así que para aquellos que no lo saben,
216
00:08:44,175 --> 00:08:45,350
Así es como se ve.
217
00:08:45,394 --> 00:08:47,483
Y realmente no había pensado mucho en la IA.
218
00:08:47,527 --> 00:08:49,137
hasta que charlamos.
219
00:08:49,180 --> 00:08:51,269
Su misión es morir en Marte o algo así.
220
00:08:51,313 --> 00:08:52,923
Pero no en el impacto.
221
00:08:52,967 --> 00:08:54,185
Entonces...
222
00:08:55,186 --> 00:08:57,145
Tomamos algunas decisiones importantes
223
00:08:57,188 --> 00:08:59,321
sobre cómo íbamos a abordar la construcción de IA.
224
00:08:59,364 --> 00:09:01,105
Esta es una configuración de aprendizaje de refuerzo.
225
00:09:01,149 --> 00:09:02,803
Este es el tipo de configuración en la que pensamos
226
00:09:02,846 --> 00:09:06,328
Cuando decimos que estamos construyendo, ya sabes, un agente de IA.
227
00:09:06,371 --> 00:09:08,504
Básicamente es el agente, que es la IA,
228
00:09:08,548 --> 00:09:09,984
Y luego está el medio ambiente.
229
00:09:10,027 --> 00:09:11,159
con el que está interactuando.
230
00:09:11,202 --> 00:09:12,464
Decidimos que los juegos,
231
00:09:12,508 --> 00:09:13,988
siempre y cuando seas muy disciplinado
232
00:09:14,031 --> 00:09:15,293
sobre cómo los usas,
233
00:09:15,337 --> 00:09:17,252
son el campo de entrenamiento perfecto
234
00:09:17,295 --> 00:09:19,341
para el desarrollo de IA.
235
00:09:19,384 --> 00:09:21,691
Queríamos intentar crear un algoritmo
236
00:09:21,735 --> 00:09:23,650
que podría ser entrenado para jugar
237
00:09:23,693 --> 00:09:26,043
varias docenas de juegos diferentes de Atari.
238
00:09:26,087 --> 00:09:27,479
Así como un ser humano,
239
00:09:27,523 --> 00:09:29,525
Tienes que usar el mismo cerebro para jugar a todos los juegos.
240
00:09:29,569 --> 00:09:30,874
Puedes pensarlo
241
00:09:30,918 --> 00:09:33,007
que le proporciones al agente el cartucho.
242
00:09:33,050 --> 00:09:34,312
Y tú dices,
243
00:09:34,356 --> 00:09:35,705
"Está bien, imagina que naces en ese mundo.
244
00:09:35,749 --> 00:09:37,533
"con ese cartucho, y simplemente puedes interactuar
245
00:09:37,577 --> 00:09:39,404
"con los pixeles y ver la puntuación.
246
00:09:40,362 --> 00:09:41,668
"¿Qué puedes hacer?"
247
00:09:43,974 --> 00:09:47,369
Entonces lo que vas a hacer es tomar tu función Q. QK...
248
00:09:47,412 --> 00:09:49,197
Q-learning es uno de los métodos más antiguos
249
00:09:49,240 --> 00:09:50,894
para el aprendizaje de refuerzo.
250
00:09:50,938 --> 00:09:53,680
Y lo que hicimos fue combinar el aprendizaje de refuerzo
251
00:09:53,723 --> 00:09:56,770
con aprendizaje profundo en un solo sistema.
252
00:09:56,813 --> 00:09:59,337
Nadie había combinado nunca esas dos cosas juntas.
253
00:09:59,381 --> 00:10:01,426
a escala para hacer algo impresionante,
254
00:10:01,470 --> 00:10:03,515
y necesitábamos demostrar esta tesis.
255
00:10:03,559 --> 00:10:06,780
Intentamos hacer Pong como primer juego.
256
00:10:06,823 --> 00:10:08,129
Parecía lo más sencillo.
257
00:10:08,172 --> 00:10:10,218
No se ha contado
258
00:10:10,261 --> 00:10:11,828
Cualquier cosa sobre lo que está controlando
259
00:10:11,872 --> 00:10:12,873
o lo que se supone que debe hacer.
260
00:10:12,916 --> 00:10:14,657
Todo lo que sabe es que la puntuación es buena.
261
00:10:14,701 --> 00:10:18,052
y tiene que aprender lo que hacen sus controles,
262
00:10:18,095 --> 00:10:20,620
y construir todo...primeros principios.
263
00:10:29,193 --> 00:10:30,412
Realmente no estaba funcionando.
264
00:10:32,588 --> 00:10:34,068
Le estaba diciendo a Shane:
265
00:10:34,111 --> 00:10:37,071
"Tal vez simplemente estemos equivocados y ni siquiera podamos jugar Pong".
266
00:10:37,114 --> 00:10:38,812
Fue un poco estresante,
267
00:10:38,855 --> 00:10:40,422
Pensando en lo lejos que teníamos que llegar
268
00:10:40,465 --> 00:10:42,337
Si realmente fuéramos a construir
269
00:10:42,380 --> 00:10:44,426
un sistema generalmente inteligente.
270
00:10:44,469 --> 00:10:45,732
Y sentí que ya era hora
271
00:10:45,775 --> 00:10:47,255
Renunciar y seguir adelante.
272
00:10:48,169 --> 00:10:49,387
Y de repente...
273
00:10:51,389 --> 00:10:53,609
Conseguimos nuestro primer punto.
274
00:10:53,653 --> 00:10:56,612
Y entonces pensé: "¿Esto es aleatorio?"
275
00:10:56,656 --> 00:10:59,180
"No, no, ahora realmente está ganando importancia".
276
00:10:59,223 --> 00:11:00,703
Fue realmente emocionante que esta cosa
277
00:11:00,747 --> 00:11:02,226
que antes ni siquiera podía entender
278
00:11:02,270 --> 00:11:03,532
Cómo mover una paleta
279
00:11:03,575 --> 00:11:05,926
De repente había sido capaz de hacerlo totalmente bien.
280
00:11:05,969 --> 00:11:07,144
Luego estaba consiguiendo algunos puntos.
281
00:11:07,188 --> 00:11:08,624
Y luego ganó su primer partido.
282
00:11:08,668 --> 00:11:10,974
Y luego, tres meses después, ningún humano pudo vencerlo.
283
00:11:11,018 --> 00:11:14,238
No le habías dicho las reglas, cómo conseguir la puntuación, nada.
284
00:11:14,282 --> 00:11:16,110
Y simplemente le dices que maximice la puntuación,
285
00:11:16,153 --> 00:11:17,372
y se va y lo hace.
286
00:11:17,415 --> 00:11:18,678
Esta es la primera vez
287
00:11:18,721 --> 00:11:20,549
Alguien había realizado este aprendizaje de principio a fin.
288
00:11:20,592 --> 00:11:24,292
"Bien, entonces tenemos esto funcionando de una manera bastante general.
289
00:11:24,335 --> 00:11:25,772
"Ahora probemos otro juego."
290
00:11:25,815 --> 00:11:27,512
Entonces probamos Breakout.
291
00:11:27,556 --> 00:11:29,123
Al principio, después de 100 juegos,
292
00:11:29,166 --> 00:11:30,777
El agente no es muy bueno.
293
00:11:30,820 --> 00:11:32,474
La mayor parte del tiempo falta la pelota.
294
00:11:32,517 --> 00:11:34,389
Pero ya está empezando a entender la idea.
295
00:11:34,432 --> 00:11:35,999
Que el bate debe ir hacia la pelota.
296
00:11:36,043 --> 00:11:37,566
Ahora, después de 300 juegos,
297
00:11:37,609 --> 00:11:40,656
Es tan bueno como cualquier humano puede tocarlo.
298
00:11:40,700 --> 00:11:42,049
Pensamos: "Bueno, eso es bastante genial".
299
00:11:42,092 --> 00:11:44,312
pero dejamos el sistema funcionando otros 200 juegos,
300
00:11:44,355 --> 00:11:46,053
Y hizo esta cosa increíble.
301
00:11:46,096 --> 00:11:47,358
Encontró la estrategia óptima
302
00:11:47,402 --> 00:11:49,404
era cavar un túnel alrededor del costado
303
00:11:49,447 --> 00:11:51,667
y coloca la pelota alrededor de la parte trasera de la pared.
304
00:11:51,711 --> 00:11:53,234
Finalmente, el agente
305
00:11:53,277 --> 00:11:54,365
realmente está logrando
306
00:11:54,409 --> 00:11:55,627
Lo que pensabas que lograría.
307
00:11:55,671 --> 00:11:57,325
Es una sensación genial, ¿verdad?
308
00:11:57,368 --> 00:11:59,283
Es decir, cuando hacemos una investigación,
309
00:11:59,327 --> 00:12:00,676
Esto es lo mejor que podemos esperar.
310
00:12:00,720 --> 00:12:03,200
Empezamos a generalizar a 50 juegos,
311
00:12:03,244 --> 00:12:05,463
Y básicamente creamos una receta.
312
00:12:05,507 --> 00:12:06,813
Podríamos simplemente tomar un juego
313
00:12:06,856 --> 00:12:08,379
que nunca hemos visto antes.
314
00:12:08,423 --> 00:12:09,903
Ejecutaríamos el algoritmo en eso,
315
00:12:09,946 --> 00:12:13,036
y DQN podría entrenarse desde cero,
316
00:12:13,080 --> 00:12:14,429
Alcanzar el nivel humano
317
00:12:14,472 --> 00:12:15,996
o a veces mejor que el nivel humano.
318
00:12:16,039 --> 00:12:18,433
No lo construimos para reproducir ninguno de ellos.
319
00:12:18,476 --> 00:12:20,522
Podríamos simplemente darle un montón de juegos.
320
00:12:20,565 --> 00:12:22,654
y lo resolvería por sí mismo.
321
00:12:22,698 --> 00:12:25,179
Y había algo bastante mágico en eso.
322
00:12:25,222 --> 00:12:26,528
De repente tenías algo
323
00:12:26,571 --> 00:12:27,921
que respondería y aprendería
324
00:12:27,964 --> 00:12:30,358
Cualquiera que sea la situación en la que fue lanzado en paracaídas.
325
00:12:30,401 --> 00:12:33,013
Y eso fue como un gran, gran avance.
326
00:12:33,056 --> 00:12:35,276
Fue en muchos aspectos
327
00:12:35,319 --> 00:12:36,625
El primer ejemplo
328
00:12:36,668 --> 00:12:39,062
de cualquier tipo de cosa que puedas llamar
329
00:12:39,106 --> 00:12:40,542
una inteligencia general.
330
00:12:42,109 --> 00:12:43,893
Aunque éramos una startup bien financiada,
331
00:12:43,937 --> 00:12:47,375
Lo que nos frenaba era la falta de potencia informática.
332
00:12:47,418 --> 00:12:49,203
Me di cuenta de que esto aceleraría
333
00:12:49,246 --> 00:12:51,466
nuestra escala de tiempo hacia la IAG masivamente.
334
00:12:51,509 --> 00:12:53,163
Solía ver a Demis con bastante frecuencia.
335
00:12:53,207 --> 00:12:55,035
Almorzábamos y él lo hacía...
336
00:12:56,210 --> 00:12:58,865
Dime que tenia dos empresas
337
00:12:58,908 --> 00:13:02,564
que estuvieron involucrados en la compra de DeepMind.
338
00:13:02,607 --> 00:13:04,609
Y no sabía con cuál quedarse.
339
00:13:04,653 --> 00:13:08,526
La cuestión era si cualquier empresa comercial...
340
00:13:08,570 --> 00:13:12,661
¿Aprecias la importancia real de la investigación?
341
00:13:12,704 --> 00:13:15,838
Y darle tiempo a la investigación para que dé sus frutos.
342
00:13:15,882 --> 00:13:17,797
y no estar respirándoles en la nuca,
343
00:13:17,840 --> 00:13:21,539
diciendo: "Queremos algún tipo de beneficio comercial de esto".
344
00:13:27,284 --> 00:13:32,463
Google ha comprado DeepMind por una suma estimada de 400.000.000 libras esterlinas.
345
00:13:32,507 --> 00:13:34,726
Haciendo firme la inteligencia artificial
346
00:13:34,770 --> 00:13:37,947
su mayor adquisición europea hasta el momento.
347
00:13:37,991 --> 00:13:39,644
La empresa fue fundada
348
00:13:39,688 --> 00:13:43,344
por el empresario Demis Hassabis, de 37 años.
349
00:13:43,387 --> 00:13:45,563
Después de la adquisición, comencé a realizar tareas de mentoría.
350
00:13:45,607 --> 00:13:47,261
y pasar tiempo con Demis,
351
00:13:47,304 --> 00:13:48,915
y sólo escucharlo.
352
00:13:48,958 --> 00:13:52,396
Y esta es una persona que fundamentalmente
353
00:13:52,440 --> 00:13:55,573
Es un científico y un científico natural.
354
00:13:55,617 --> 00:13:58,489
Quiere que la ciencia resuelva todos los problemas del mundo,
355
00:13:58,533 --> 00:14:00,622
y él cree que puede hacerlo.
356
00:14:00,665 --> 00:14:03,625
Esa no es una persona normal que encuentras en una empresa tecnológica.
357
00:14:05,496 --> 00:14:07,455
No solo pudimos unirnos a Google
358
00:14:07,498 --> 00:14:10,240
pero se ejecuta de forma independiente en Londres,
359
00:14:10,284 --> 00:14:11,328
Construir nuestra cultura,
360
00:14:11,372 --> 00:14:13,461
que fue optimizado para avances
361
00:14:13,504 --> 00:14:15,419
y no tratar con productos,
362
00:14:15,463 --> 00:14:17,726
Hacer investigación pura.
363
00:14:17,769 --> 00:14:19,293
Nuestros inversores no querían vender,
364
00:14:19,336 --> 00:14:20,685
pero decidimos
365
00:14:20,729 --> 00:14:22,731
que esto era lo mejor para la misión.
366
00:14:22,774 --> 00:14:24,646
En muchos sentidos, estábamos vendiendo a un precio inferior al real.
367
00:14:24,689 --> 00:14:26,169
en términos de valor antes de que madurara más,
368
00:14:26,213 --> 00:14:28,128
y podrías haberlo vendido por mucho más dinero.
369
00:14:28,171 --> 00:14:32,828
Y la razón es porque no hay tiempo que perder.
370
00:14:32,872 --> 00:14:35,178
Hay tantas cosas que deben resolverse
371
00:14:35,222 --> 00:14:37,659
mientras el cerebro todavía está en funcionamiento.
372
00:14:37,702 --> 00:14:39,008
Sabes, todavía estoy vivo.
373
00:14:39,052 --> 00:14:40,880
Hay todas estas cosas que deben hacerse.
374
00:14:40,923 --> 00:14:42,925
Entonces no tienes... quiero decir, ¿cuántos...?
375
00:14:42,969 --> 00:14:44,492
¿Por cuántos miles de millones estarías dispuesto a negociar?
376
00:14:44,535 --> 00:14:45,797
otros cinco años de vida, ya sabes,
377
00:14:45,841 --> 00:14:48,365
¿Hacer lo que te propusiste hacer?
378
00:14:48,409 --> 00:14:49,758
Bueno, de repente,
379
00:14:49,801 --> 00:14:52,717
Tenemos a nuestra disposición esta capacidad informática a gran escala.
380
00:14:52,761 --> 00:14:53,936
¿Qué podemos hacer con esto?
381
00:14:56,591 --> 00:14:59,942
Go es el pináculo de los juegos de mesa.
382
00:14:59,986 --> 00:15:04,642
Es el juego más complejo jamás ideado por el hombre.
383
00:15:04,686 --> 00:15:06,688
Hay más configuraciones de placa posibles
384
00:15:06,731 --> 00:15:09,821
En el juego de Go hay más átomos que en el universo.
385
00:15:09,865 --> 00:15:13,390
Go es el santo grial de la inteligencia artificial.
386
00:15:13,434 --> 00:15:14,522
Durante muchos años,
387
00:15:14,565 --> 00:15:16,002
La gente ha visto este juego
388
00:15:16,045 --> 00:15:17,917
y pensaron: "Vaya, esto es demasiado difícil".
389
00:15:17,960 --> 00:15:20,180
Todo lo que hemos probado en IA,
390
00:15:20,223 --> 00:15:22,704
Simplemente se cae cuando intentas jugar al Go.
391
00:15:22,747 --> 00:15:23,966
Y por eso es que se siente así
392
00:15:24,010 --> 00:15:26,099
una verdadera prueba de fuego del progreso.
393
00:15:26,142 --> 00:15:28,579
Acabábamos de comprar DeepMind.
394
00:15:28,623 --> 00:15:30,712
Estaban trabajando en el aprendizaje por refuerzo.
395
00:15:30,755 --> 00:15:32,975
y eran los expertos mundiales en juegos.
396
00:15:33,019 --> 00:15:34,846
Y entonces cuando introdujeron la idea
397
00:15:34,890 --> 00:15:37,197
que podrían vencer a los jugadores de Go de más alto nivel
398
00:15:37,240 --> 00:15:40,113
en un juego que se creía incomputable,
399
00:15:40,156 --> 00:15:42,724
Pensé: "Bueno, eso es bastante interesante".
400
00:15:42,767 --> 00:15:46,467
Nuestro próximo paso definitivo es jugar el legendario
401
00:15:46,510 --> 00:15:49,209
Lee Sedol en poco más de dos semanas.
402
00:15:50,514 --> 00:15:52,038
Un partido como ningún otro
403
00:15:52,081 --> 00:15:54,257
Está a punto de comenzar en Corea del Sur.
404
00:15:54,301 --> 00:15:57,826
Lee Sedol se está preparando para la pelea.
405
00:15:57,869 --> 00:15:59,262
Lee Sedol es probablemente
406
00:15:59,306 --> 00:16:01,699
Uno de los mejores jugadores de la última década.
407
00:16:01,743 --> 00:16:04,224
Lo describo como el Roger Federer del Go.
408
00:16:05,573 --> 00:16:06,922
Él apareció,
409
00:16:06,966 --> 00:16:09,838
Y de repente tenemos mil coreanos.
410
00:16:09,881 --> 00:16:13,059
que representan a toda la sociedad coreana,
411
00:16:13,102 --> 00:16:14,190
Los mejores jugadores de Go.
412
00:16:15,583 --> 00:16:17,802
Y luego tenemos a Demis.
413
00:16:17,846 --> 00:16:19,848
Y el gran equipo de ingeniería.
414
00:16:20,588 --> 00:16:22,285
Él es muy famoso
415
00:16:22,329 --> 00:16:25,506
para un juego de lucha muy creativo.
416
00:16:25,549 --> 00:16:28,770
Así que esto podría ser difícil para nosotros.
417
00:16:28,813 --> 00:16:31,991
Me imaginé que Lee Sedol iba a vencer a estos muchachos,
418
00:16:32,034 --> 00:16:34,297
pero harán una buena demostración.
419
00:16:34,341 --> 00:16:35,733
Bueno para una startup.
420
00:16:38,040 --> 00:16:39,563
Me pasé al grupo técnico.
421
00:16:39,607 --> 00:16:40,912
Y ellos dijeron:
422
00:16:40,956 --> 00:16:42,305
"Déjame mostrarte cómo funciona nuestro algoritmo".
423
00:16:43,654 --> 00:16:45,091
Si recorres el juego real,
424
00:16:45,134 --> 00:16:47,789
Podemos ver, más o menos, cómo piensa AlphaGo.
425
00:16:47,832 --> 00:16:50,226
La forma en que comenzamos a entrenar AlphaGo
426
00:16:50,270 --> 00:16:52,968
es mostrándole 100.000 juegos
427
00:16:53,012 --> 00:16:54,491
que han jugado fuertes aficionados.
428
00:16:54,535 --> 00:16:55,710
Y nosotros primero inicialmente
429
00:16:55,753 --> 00:16:58,887
Haz que AlphaGo imite al jugador humano.
430
00:16:58,930 --> 00:17:00,802
y luego a través del aprendizaje de refuerzo,
431
00:17:00,845 --> 00:17:02,369
Juega contra diferentes versiones de sí mismo.
432
00:17:02,412 --> 00:17:05,720
muchos millones de veces y aprende de sus errores.
433
00:17:05,763 --> 00:17:07,591
Hmm, esto es interesante.
434
00:17:07,635 --> 00:17:08,679
Muy bien, amigos,
435
00:17:08,723 --> 00:17:10,594
Vas a ver cómo se hace historia.
436
00:17:12,770 --> 00:17:14,772
Así que el juego comienza.
437
00:17:14,816 --> 00:17:15,991
Él realmente está concentrado.
438
00:17:16,035 --> 00:17:17,645
Si realmente miras el...
439
00:17:20,909 --> 00:17:25,348
Es un movimiento muy sorprendente.
440
00:17:25,392 --> 00:17:27,916
Creo que estamos viendo un movimiento original aquí.
441
00:17:34,401 --> 00:17:35,793
Sí, es un movimiento emocionante.
442
00:17:36,185 --> 00:17:37,230
Me gusta...
443
00:17:37,273 --> 00:17:38,579
Comentaristas profesionales
444
00:17:38,622 --> 00:17:40,102
Casi por unanimidad se dijo
445
00:17:40,146 --> 00:17:43,323
que ningún jugador humano habría elegido la jugada 37.
446
00:17:43,366 --> 00:17:45,803
Así que realmente eché un vistazo a AlphaGo.
447
00:17:45,847 --> 00:17:47,414
para ver qué pensaba AlphaGo.
448
00:17:47,457 --> 00:17:50,330
Y AlphaGo realmente estuvo de acuerdo con esa evaluación.
449
00:17:50,373 --> 00:17:53,811
AlphaGo dijo que había una probabilidad de uno en 10.000
450
00:17:53,855 --> 00:17:57,772
Esa jugada 37 la habría realizado un jugador humano.
451
00:18:08,826 --> 00:18:10,176
El juego de Go ha sido estudiado
452
00:18:10,219 --> 00:18:11,568
durante miles de años.
453
00:18:11,612 --> 00:18:15,137
Y AlphaGo descubrió algo completamente nuevo.
454
00:18:16,878 --> 00:18:19,707
Él renunció. Lee Sedol acaba de renunciar.
455
00:18:19,750 --> 00:18:21,187
Está derrotado.
456
00:18:22,710 --> 00:18:24,668
La batalla entre el hombre y la máquina,
457
00:18:24,712 --> 00:18:26,235
Una computadora acaba de salir victoriosa.
458
00:18:26,279 --> 00:18:28,237
Google puso a su equipo DeepMind
459
00:18:28,281 --> 00:18:29,673
a la prueba contra
460
00:18:29,717 --> 00:18:32,023
Una de las mentes más brillantes del mundo y ganó.
461
00:18:32,067 --> 00:18:33,721
Fue entonces cuando nos dimos cuenta.
462
00:18:33,764 --> 00:18:35,244
La gente de DeepMind sabía lo que hacía.
463
00:18:35,288 --> 00:18:37,551
y prestar atención al aprendizaje por refuerzo
464
00:18:37,594 --> 00:18:38,900
tal como lo han inventado.
465
00:18:40,075 --> 00:18:41,816
Basándonos en esa experiencia,
466
00:18:41,859 --> 00:18:44,819
AlphaGo fue mejorando cada vez más.
467
00:18:44,862 --> 00:18:45,950
Y tenían un pequeño gráfico.
468
00:18:45,994 --> 00:18:47,517
de lo mucho que estaban mejorando.
469
00:18:47,561 --> 00:18:49,302
Y dije: "¿Cuándo terminará esto?"
470
00:18:50,085 --> 00:18:50,999
Y Demis dijo:
471
00:18:51,042 --> 00:18:52,696
"Cuando vencimos al chino,
472
00:18:52,740 --> 00:18:55,743
"El jugador mejor valorado del mundo".
473
00:18:56,961 --> 00:18:59,225
Ke Jie contra AlphaGo.
474
00:19:03,620 --> 00:19:04,795
Y creo que lo veremos
475
00:19:04,839 --> 00:19:06,145
AlphaGo avanza por ahí.
476
00:19:06,188 --> 00:19:08,190
AlphaGo está bastante por delante.
477
00:19:08,234 --> 00:19:11,454
Aproximadamente a la mitad del primer juego,
478
00:19:11,498 --> 00:19:14,675
El mejor jugador del mundo no lo estaba haciendo tan bien.
479
00:19:14,718 --> 00:19:17,808
¿Qué puede hacer el negro aquí?
480
00:19:19,114 --> 00:19:21,247
Parece difícil.
481
00:19:21,290 --> 00:19:23,336
Y en un momento crítico...
482
00:19:32,997 --> 00:19:35,913
El gobierno chino ordenó cortar la transmisión.
483
00:19:38,307 --> 00:19:41,745
Fue en ese momento que le estábamos diciendo al mundo
484
00:19:41,789 --> 00:19:44,966
que algo nuevo había llegado a la tierra.
485
00:19:47,621 --> 00:19:48,970
En la década de 1950
486
00:19:49,013 --> 00:19:51,929
Cuando se lanzó el satélite ruso Sputnik,
487
00:19:53,279 --> 00:19:55,194
Cambió el curso de la historia.
488
00:19:55,237 --> 00:19:57,544
Es un desafío que Estados Unidos debe afrontar
489
00:19:57,587 --> 00:19:59,633
Para sobrevivir en la era espacial.
490
00:19:59,676 --> 00:20:02,375
Esto se ha llamado el momento Sputnik.
491
00:20:02,418 --> 00:20:06,335
El momento Sputnik generó una reacción masiva en Estados Unidos.
492
00:20:06,379 --> 00:20:10,034
En términos de financiación para la ciencia y la ingeniería,
493
00:20:10,078 --> 00:20:12,254
y, en particular, de la tecnología espacial.
494
00:20:12,298 --> 00:20:15,823
Para China, AlphaGo fue una llamada de atención,
495
00:20:15,866 --> 00:20:17,128
El momento Sputnik.
496
00:20:17,172 --> 00:20:19,870
Lanzó una carrera espacial de IA.
497
00:20:21,220 --> 00:20:23,047
Tuvimos esta gran idea que funcionó,
498
00:20:23,091 --> 00:20:26,355
Y ahora todo el mundo lo sabe.
499
00:20:26,399 --> 00:20:28,879
Siempre es más fácil aterrizar en la luna.
500
00:20:28,923 --> 00:20:30,838
Si alguien ya ha aterrizado allí.
501
00:20:32,056 --> 00:20:34,450
Importará quién construya la IA,
502
00:20:34,494 --> 00:20:36,626
y cómo se construye.
503
00:20:36,670 --> 00:20:38,324
Siempre siento esa presión.
504
00:20:42,066 --> 00:20:43,764
Ha habido una gran cadena de acontecimientos.
505
00:20:43,807 --> 00:20:46,680
que siguió a todo el entusiasmo de AlphaGo.
506
00:20:46,723 --> 00:20:48,072
Cuando jugamos contra Lee Sedol,
507
00:20:48,116 --> 00:20:49,248
En realidad teníamos un sistema
508
00:20:49,291 --> 00:20:50,684
que había sido entrenado con datos humanos,
509
00:20:50,727 --> 00:20:52,251
En todos los millones de juegos
510
00:20:52,294 --> 00:20:55,036
que han sido interpretados por expertos humanos.
511
00:20:55,079 --> 00:20:56,994
Finalmente encontramos un nuevo algoritmo,
512
00:20:57,038 --> 00:20:59,170
un enfoque mucho más elegante para todo el sistema,
513
00:20:59,214 --> 00:21:01,172
que en realidad eliminó todo el conocimiento humano
514
00:21:01,216 --> 00:21:03,697
y empezó completamente desde cero.
515
00:21:03,740 --> 00:21:06,700
Y eso se convirtió en un proyecto al que llamamos AlphaZero.
516
00:21:06,743 --> 00:21:09,529
Cero, lo que significa que no hay ningún conocimiento humano en el circuito.
517
00:21:11,879 --> 00:21:13,054
En lugar de aprender de datos humanos,
518
00:21:13,097 --> 00:21:15,796
Aprendió de sus propios juegos.
519
00:21:15,839 --> 00:21:17,841
Así que realmente se convirtió en su propio maestro.
520
00:21:21,280 --> 00:21:23,499
AlphaZero es un experimento
521
00:21:23,543 --> 00:21:26,720
En qué tan poco conocimiento podemos poner en estos sistemas
522
00:21:26,763 --> 00:21:28,243
y con qué rapidez y eficiencia
523
00:21:28,287 --> 00:21:29,723
¿Pueden aprender?
524
00:21:29,766 --> 00:21:32,552
Pero la otra cosa es que AlphaZero no tiene reglas.
525
00:21:32,595 --> 00:21:33,553
Aprende a través de la experiencia.
526
00:21:36,120 --> 00:21:38,862
El siguiente paso fue hacerlo más general.
527
00:21:38,906 --> 00:21:40,995
para que pueda jugar cualquier juego de dos jugadores.
528
00:21:41,038 --> 00:21:42,344
Cosas como el ajedrez,
529
00:21:42,388 --> 00:21:44,085
y de hecho, cualquier tipo de dos jugadores
530
00:21:44,128 --> 00:21:45,391
Juego de información perfecto.
531
00:21:45,434 --> 00:21:46,653
Va muy bien.
532
00:21:46,696 --> 00:21:47,828
Va muy, muy bien.
533
00:21:47,871 --> 00:21:50,091
- Oh, vaya. - Está bajando, muy rápido.
534
00:21:50,134 --> 00:21:53,050
AlphaGo solía tardar unos meses en entrenarse,
535
00:21:53,094 --> 00:21:55,662
pero AlphaZero podría comenzar por la mañana
536
00:21:55,705 --> 00:21:57,794
Jugando completamente al azar
537
00:21:57,838 --> 00:22:01,015
y luego por el té estar a nivel sobrehumano.
538
00:22:01,058 --> 00:22:03,365
Y para la cena será la entidad ajedrecística más fuerte.
539
00:22:03,409 --> 00:22:04,758
alguna vez ha habido
540
00:22:04,801 --> 00:22:06,629
- Increíble, es increíble. - Sí.
541
00:22:06,673 --> 00:22:09,371
Ha descubierto su propio estilo de ataque, ¿sabes?
542
00:22:09,415 --> 00:22:11,417
para asumir el nivel actual de defensa.
543
00:22:11,460 --> 00:22:12,766
Quiero decir, nunca en mis sueños más locos...
544
00:22:12,809 --> 00:22:14,942
Estoy de acuerdo. En realidad, yo tampoco me lo esperaba.
545
00:22:14,985 --> 00:22:16,422
Y es divertido para mí.
546
00:22:16,465 --> 00:22:18,598
Quiero decir, me ha inspirado a volver al ajedrez de nuevo.
547
00:22:18,641 --> 00:22:20,164
Porque es genial verlo
548
00:22:20,208 --> 00:22:22,384
que hay incluso más profundidad de la que pensábamos en el ajedrez.
549
00:22:31,611 --> 00:22:34,440
En realidad me interesé en la IA a través de los juegos.
550
00:22:35,658 --> 00:22:37,660
Al principio eran juegos de mesa.
551
00:22:37,704 --> 00:22:40,054
Estaba pensando: "¿Cómo hace esto mi cerebro?"
552
00:22:40,097 --> 00:22:41,969
¿Qué es lo que está haciendo?
553
00:22:43,362 --> 00:22:47,148
Fui muy consciente de eso desde muy joven.
554
00:22:47,191 --> 00:22:50,064
Así que siempre he estado pensando en pensar.
555
00:22:50,107 --> 00:22:52,762
Los campeones de ajedrez británico y estadounidense
556
00:22:52,806 --> 00:22:55,025
reunirse para iniciar una serie de partidos.
557
00:22:55,069 --> 00:22:56,592
Junto a ellos juegan los mejores
558
00:22:56,636 --> 00:22:59,073
de los jugadores más jóvenes de Gran Bretaña y Estados Unidos.
559
00:22:59,116 --> 00:23:01,467
Demis Hassabis representa a Gran Bretaña.
560
00:23:06,210 --> 00:23:07,864
Cuando Demis tenía cuatro años,
561
00:23:07,908 --> 00:23:11,259
Demostró por primera vez aptitud para el ajedrez.
562
00:23:12,739 --> 00:23:14,044
Cuando tenía seis años,
563
00:23:14,088 --> 00:23:18,048
Se convirtió en campeón de Londres sub-8.
564
00:23:18,092 --> 00:23:19,485
Mis padres eran muy interesantes.
565
00:23:19,528 --> 00:23:20,834
Y, en realidad, inusual.
566
00:23:20,877 --> 00:23:23,750
Probablemente los describiría como bastante bohemios.
567
00:23:23,793 --> 00:23:25,491
Mi padre era cantautor.
568
00:23:25,534 --> 00:23:26,709
Cuando era más joven,
569
00:23:26,753 --> 00:23:28,363
y Bob Dylan era su héroe.
570
00:23:38,068 --> 00:23:39,287
Sí, sí.
571
00:23:41,637 --> 00:23:44,031
¿Qué es lo que te gusta de este juego?
572
00:23:45,075 --> 00:23:47,121
Es solo un buen juego de pensar.
573
00:23:49,253 --> 00:23:51,038
En ese momento, yo era el segundo mejor calificado.
574
00:23:51,081 --> 00:23:52,692
El mejor jugador de ajedrez del mundo para mi edad.
575
00:23:52,735 --> 00:23:54,345
Pero aunque estaba en el buen camino
576
00:23:54,389 --> 00:23:55,956
ser un jugador de ajedrez profesional,
577
00:23:55,999 --> 00:23:57,523
Pensé que eso era lo que iba a hacer.
578
00:23:57,566 --> 00:23:59,220
No importa cuánto me encantó el juego,
579
00:23:59,263 --> 00:24:01,222
Fue increíblemente estresante.
580
00:24:01,265 --> 00:24:03,354
Definitivamente no fue diversión ni juegos para mí.
581
00:24:03,398 --> 00:24:05,226
Mis padres solían, ya sabes,
582
00:24:05,269 --> 00:24:06,923
Me enojé mucho cuando perdí el juego
583
00:24:06,967 --> 00:24:10,405
y me enojo si olvido algo.
584
00:24:10,449 --> 00:24:12,407
Y como para ellos había mucho en juego, ya sabes,
585
00:24:12,451 --> 00:24:14,061
Cuesta mucho dinero ir a estos torneos.
586
00:24:14,104 --> 00:24:15,715
Y mis padres no tenían mucho dinero.
587
00:24:18,413 --> 00:24:19,719
Mis padres pensaron, ya sabes,
588
00:24:19,762 --> 00:24:22,069
"Si estás interesado en ser un profesional del ajedrez,
589
00:24:22,112 --> 00:24:25,376
"Esto es muy importante. Es como tus exámenes".
590
00:24:27,291 --> 00:24:30,077
Recuerdo que tenía unos 12 años.
591
00:24:30,120 --> 00:24:32,079
Y estuve en este torneo internacional de ajedrez.
592
00:24:32,122 --> 00:24:34,255
En Liechtenstein, en las montañas.
593
00:24:43,307 --> 00:24:45,571
Y estábamos en este enorme salón de la iglesia.
594
00:24:47,181 --> 00:24:48,399
con, ya sabes,
595
00:24:48,443 --> 00:24:50,184
Cientos de ajedrecistas internacionales.
596
00:24:52,403 --> 00:24:56,016
Y yo estaba interpretando al ex campeón danés.
597
00:24:56,059 --> 00:24:58,801
Debía tener unos 30 años, probablemente.
598
00:25:00,411 --> 00:25:02,979
En aquellos días, había un largo límite de tiempo.
599
00:25:03,023 --> 00:25:05,068
Los juegos podrían durar literalmente todo el día.
600
00:25:08,332 --> 00:25:10,813
-Estábamos en nuestra décima hora.
601
00:25:20,257 --> 00:25:23,086
Y estábamos en este final increíblemente inusual.
602
00:25:23,130 --> 00:25:24,566
Pienso que debería haber un empate.
603
00:25:26,307 --> 00:25:28,657
Pero siguió intentando ganar durante horas.
604
00:25:35,359 --> 00:25:38,319
Finalmente, intentó un último truco barato.
605
00:25:42,541 --> 00:25:44,455
Todo lo que tenía que hacer era entregar a mi reina.
606
00:25:44,499 --> 00:25:45,674
Entonces se llegaría a un punto muerto.
607
00:25:47,023 --> 00:25:48,634
Pero estaba tan cansado,
608
00:25:48,677 --> 00:25:50,157
Pensé que era inevitable que me dieran jaque mate.
609
00:25:52,289 --> 00:25:53,508
Y entonces renuncié.
610
00:25:57,294 --> 00:25:59,558
Se levantó de un salto y empezó a reír.
611
00:26:01,777 --> 00:26:02,909
Y él se fue,
612
00:26:02,952 --> 00:26:04,171
"¿Por qué has dimitido? Es un empate".
613
00:26:04,214 --> 00:26:05,346
Y él inmediatamente, con un gesto elegante,
614
00:26:05,389 --> 00:26:06,652
De alguna manera me mostró el movimiento del dibujo.
615
00:26:09,045 --> 00:26:12,396
Me sentí muy mal del estómago.
616
00:26:12,440 --> 00:26:14,137
Me hizo pensar en el resto de ese torneo.
617
00:26:14,181 --> 00:26:16,662
¿Estamos desperdiciando nuestras mentes?
618
00:26:16,705 --> 00:26:19,708
¿Es este el mejor uso de todo este poder cerebral?
619
00:26:19,752 --> 00:26:22,363
¿Están todos juntos en ese edificio?
620
00:26:22,406 --> 00:26:24,060
Si pudieras enchufarlo de alguna manera
621
00:26:24,104 --> 00:26:27,542
esos 300 cerebros en un sistema,
622
00:26:27,586 --> 00:26:29,022
Quizás puedas solucionar el cáncer
623
00:26:29,065 --> 00:26:30,501
con ese nivel de poder cerebral.
624
00:26:31,633 --> 00:26:33,504
Este sentimiento intuitivo me invadió.
625
00:26:33,548 --> 00:26:35,071
que aunque me encanta el ajedrez,
626
00:26:35,115 --> 00:26:38,335
Esto no es lo correcto en lo que debería invertir mi vida entera.
627
00:26:51,479 --> 00:26:53,089
Demis y yo,
628
00:26:53,133 --> 00:26:56,092
Nuestro plan siempre fue llenar DeepMind
629
00:26:56,136 --> 00:26:57,224
con algunos de los más
630
00:26:57,267 --> 00:26:59,226
Científicos brillantes del mundo.
631
00:26:59,269 --> 00:27:01,054
Así que teníamos los cerebros humanos.
632
00:27:01,097 --> 00:27:04,927
necesario crear un sistema AGI.
633
00:27:04,971 --> 00:27:09,279
Por definición, la "G" en AGI se refiere a generalidad.
634
00:27:09,323 --> 00:27:13,109
Lo que imagino es poder hablar con un agente,
635
00:27:13,153 --> 00:27:15,198
El agente puede responder,
636
00:27:15,242 --> 00:27:18,898
y el agente es capaz de resolver problemas novedosos
637
00:27:18,941 --> 00:27:20,595
que no había visto antes.
638
00:27:20,639 --> 00:27:22,728
Esa es una parte realmente clave de la inteligencia humana,
639
00:27:22,771 --> 00:27:24,468
Y es esa amplitud cognitiva
640
00:27:24,512 --> 00:27:27,733
y una flexibilidad increíble.
641
00:27:27,776 --> 00:27:29,473
La única inteligencia general natural
642
00:27:29,517 --> 00:27:30,910
que conocemos como humanos,
643
00:27:30,953 --> 00:27:33,434
Obviamente aprendemos mucho de nuestro entorno.
644
00:27:33,477 --> 00:27:35,871
Así que pensamos que los entornos simulados
645
00:27:35,915 --> 00:27:38,874
Son una de las formas de crear una IAG.
646
00:27:40,528 --> 00:27:42,356
Los primeros humanos
647
00:27:42,399 --> 00:27:44,314
Tenían que resolver problemas de lógica.
648
00:27:44,358 --> 00:27:46,752
Tenían que resolver la navegación, la memoria,
649
00:27:46,795 --> 00:27:48,971
y nosotros evolucionamos en ese entorno.
650
00:27:50,364 --> 00:27:52,496
Si pudiéramos crear una recreación virtual
651
00:27:52,540 --> 00:27:54,629
de ese tipo de ambiente,
652
00:27:54,673 --> 00:27:56,326
Ese es el campo de pruebas perfecto
653
00:27:56,370 --> 00:27:57,458
y campo de entrenamiento
654
00:27:57,501 --> 00:27:59,329
por todo lo que hacemos en DeepMind.
655
00:28:04,247 --> 00:28:05,727
¿Qué estaban haciendo aquí?
656
00:28:05,771 --> 00:28:09,252
Estaba creando ambientes para seres infantiles,
657
00:28:09,296 --> 00:28:11,690
los agentes que existen dentro y juegan.
658
00:28:12,429 --> 00:28:13,648
Eso simplemente sonó como
659
00:28:13,692 --> 00:28:16,782
La cosa más interesante del mundo.
660
00:28:16,825 --> 00:28:19,132
Un niño aprende rompiendo cosas.
661
00:28:19,175 --> 00:28:20,655
y luego tirar la comida por todos lados
662
00:28:20,699 --> 00:28:23,353
y obtener una respuesta de mamá o papá.
663
00:28:23,397 --> 00:28:25,616
Esta parece una idea importante para incorporar.
664
00:28:25,660 --> 00:28:27,880
en la forma en que se entrena a un agente.
665
00:28:27,923 --> 00:28:30,970
Se supone que el humanoide debe ponerse de pie.
666
00:28:31,013 --> 00:28:32,972
A medida que su centro de gravedad se eleva,
667
00:28:33,015 --> 00:28:34,408
Obtienes más puntos.
668
00:28:37,454 --> 00:28:38,804
Tienes una recompensa
669
00:28:38,847 --> 00:28:40,849
y el agente aprende de la recompensa,
670
00:28:40,893 --> 00:28:43,373
Por ejemplo, si haces algo bien, obtienes una recompensa positiva.
671
00:28:43,417 --> 00:28:47,508
Haces algo malo y obtienes una recompensa negativa.
672
00:28:47,551 --> 00:28:49,379
Parece que está de pie.
673
00:28:50,859 --> 00:28:52,165
Todavía estoy un poco borracho.
674
00:28:52,208 --> 00:28:53,644
Le gusta caminar hacia atrás.
675
00:28:53,688 --> 00:28:55,342
Sí.
676
00:28:55,385 --> 00:28:57,518
Todo el algoritmo está intentando optimizar
677
00:28:57,561 --> 00:28:59,694
para recibir tantas recompensas como sea posible,
678
00:28:59,738 --> 00:29:02,305
y se descubrió que caminar hacia atrás,
679
00:29:02,349 --> 00:29:05,352
Es suficiente para obtener muy buenas puntuaciones.
680
00:29:07,746 --> 00:29:09,573
Cuando aprendemos a navegar,
681
00:29:09,617 --> 00:29:11,271
Cuando aprendemos a desenvolvernos en nuestro mundo,
682
00:29:11,314 --> 00:29:13,490
No empezamos con mapas.
683
00:29:13,534 --> 00:29:16,319
Simplemente comenzamos con nuestra propia exploración,
684
00:29:16,363 --> 00:29:18,017
Aventurándose por el parque,
685
00:29:18,060 --> 00:29:21,890
Sin nuestros padres a nuestro lado,
686
00:29:21,934 --> 00:29:24,327
o encontrar el camino a casa desde la escuela cuando somos jóvenes.
687
00:29:26,939 --> 00:29:28,723
A algunos de nosotros se nos ocurrió esta idea.
688
00:29:28,767 --> 00:29:31,987
que si tuviéramos un entorno donde un robot simulado
689
00:29:32,031 --> 00:29:33,728
Sólo tenía que correr hacia adelante,
690
00:29:33,772 --> 00:29:36,296
Podríamos poner todo tipo de obstáculos en su camino.
691
00:29:36,339 --> 00:29:38,211
y ver si lograba navegar
692
00:29:38,254 --> 00:29:40,474
Diferentes tipos de terreno.
693
00:29:40,517 --> 00:29:43,042
La idea sería como un desafío de parkour.
694
00:29:46,393 --> 00:29:48,743
No es elegante,
695
00:29:48,787 --> 00:29:51,833
pero nunca me entrenaron para sostener un vaso mientras estaba abierto
696
00:29:51,877 --> 00:29:53,052
y no derramar agua.
697
00:29:54,183 --> 00:29:55,706
Te fijaste este objetivo que dice,
698
00:29:55,750 --> 00:29:58,231
"Simplemente sigue adelante, avanza a gran velocidad,
699
00:29:58,274 --> 00:30:00,581
"y recibirás una recompensa por ello."
700
00:30:00,624 --> 00:30:02,670
Y el algoritmo de aprendizaje se da cuenta
701
00:30:02,713 --> 00:30:05,412
Cómo mover este complejo conjunto de articulaciones.
702
00:30:06,152 --> 00:30:07,370
Ese es el poder de
703
00:30:07,414 --> 00:30:10,069
aprendizaje de refuerzo basado en recompensas.
704
00:30:10,112 --> 00:30:12,767
Nuestro objetivo es intentar construir agentes.
705
00:30:12,811 --> 00:30:15,770
en los cuales los dejamos caer, no saben nada,
706
00:30:15,814 --> 00:30:18,381
Pueden jugar con cualquier problema que les des.
707
00:30:18,425 --> 00:30:22,342
y eventualmente descubrir cómo resolverlo por sí mismos.
708
00:30:22,385 --> 00:30:24,823
Ahora queremos algo que pueda hacer eso.
709
00:30:24,866 --> 00:30:27,390
en tantos tipos diferentes de problemas como sea posible.
710
00:30:29,262 --> 00:30:32,918
Un ser humano necesita diversas habilidades para interactuar con el mundo.
711
00:30:32,961 --> 00:30:35,050
Cómo tratar con imágenes complejas,
712
00:30:35,094 --> 00:30:37,879
Cómo manipular miles de cosas a la vez,
713
00:30:37,923 --> 00:30:40,447
Cómo lidiar con la información faltante.
714
00:30:40,490 --> 00:30:42,014
Pensamos en todas estas cosas juntas
715
00:30:42,057 --> 00:30:45,278
están representados por este juego llamado StarCraft.
716
00:30:45,321 --> 00:30:47,280
Lo único que está siendo entrenado para hacer es,
717
00:30:47,323 --> 00:30:50,457
Dada esta situación, esta pantalla,
718
00:30:50,500 --> 00:30:51,850
¿Qué haría un humano?
719
00:30:51,893 --> 00:30:55,244
Nos inspiramos en grandes modelos lingüísticos.
720
00:30:55,288 --> 00:30:57,638
donde simplemente entrenas un modelo
721
00:30:57,681 --> 00:30:59,553
para predecir la siguiente palabra,
722
00:31:03,731 --> 00:31:05,472
que es exactamente lo mismo que
723
00:31:05,515 --> 00:31:07,735
predecir el próximo movimiento de StarCraft.
724
00:31:07,778 --> 00:31:08,954
A diferencia del ajedrez o el Go,
725
00:31:08,997 --> 00:31:11,217
donde los jugadores se turnan para realizar movimientos,
726
00:31:11,260 --> 00:31:14,133
En StarCraft hay un flujo continuo de decisiones.
727
00:31:15,134 --> 00:31:16,483
Además de eso,
728
00:31:16,526 --> 00:31:18,659
Ni siquiera puedes ver lo que está haciendo el oponente.
729
00:31:18,702 --> 00:31:20,879
Ya no existe una definición clara
730
00:31:20,922 --> 00:31:22,315
de lo que significa jugar de la mejor manera.
731
00:31:22,358 --> 00:31:23,925
Depende de lo que haga tu oponente.
732
00:31:23,969 --> 00:31:25,492
Así es como llegaremos a
733
00:31:25,535 --> 00:31:27,494
un mucho más fluido,
734
00:31:27,537 --> 00:31:31,672
Agente más natural, más rápido, más reactivo.
735
00:31:31,715 --> 00:31:33,021
Este es un gran desafío
736
00:31:33,065 --> 00:31:35,415
y veamos hasta dónde podemos llegar.
737
00:31:35,458 --> 00:31:36,459
¡Oh!
738
00:31:36,503 --> 00:31:38,200
¡Santo mono!
739
00:31:38,244 --> 00:31:40,376
Soy un aficionado de nivel bastante bajo.
740
00:31:40,420 --> 00:31:42,857
Estoy bien, pero soy un aficionado de nivel bastante bajo.
741
00:31:42,901 --> 00:31:45,991
Estos agentes tienen un largo camino por recorrer.
742
00:31:46,034 --> 00:31:48,515
No podríamos vencer a alguien del nivel de Tim.
743
00:31:48,558 --> 00:31:50,430
Sabes, eso fue un poco alarmante.
744
00:31:50,473 --> 00:31:51,997
En ese momento, me sentí como si
745
00:31:52,040 --> 00:31:53,520
Iba a ser como un desafío muy grande y largo.
746
00:31:53,563 --> 00:31:55,000
Quizás un par de años.
747
00:31:58,177 --> 00:32:01,832
Dani es el mejor jugador de DeepMind StarCraft 2.
748
00:32:01,876 --> 00:32:05,097
Llevo unas semanas interpretando al agente todos los días.
749
00:32:07,186 --> 00:32:08,883
Pude sentir que el agente
750
00:32:08,927 --> 00:32:11,103
Estaba mejorando muy rápido.
751
00:32:13,409 --> 00:32:15,020
Vaya, le ganamos a Danny. Eso, para mí,
752
00:32:15,063 --> 00:32:16,935
Ya fue como un gran logro.
753
00:32:18,284 --> 00:32:19,372
El siguiente paso es
754
00:32:19,415 --> 00:32:21,722
Vamos a reservar un profesional para jugar.
755
00:32:42,003 --> 00:32:44,049
Me parece un poco injusto. Todos ustedes están en mi contra.
756
00:32:45,615 --> 00:32:46,965
Estamos muy por delante de lo que pensaba.
757
00:32:47,008 --> 00:32:49,402
Lo haríamos, considerando dónde estábamos hace dos meses.
758
00:32:49,445 --> 00:32:50,794
En realidad, sólo estoy tratando de digerirlo todo.
759
00:32:50,838 --> 00:32:52,753
Pero es muy, muy genial.
760
00:32:52,796 --> 00:32:54,146
Ahora estamos en una posición en la que
761
00:32:54,189 --> 00:32:56,061
Finalmente podemos compartir el trabajo que hemos realizado.
762
00:32:56,104 --> 00:32:57,192
con el público.
763
00:32:57,236 --> 00:32:58,585
Este es un gran paso.
764
00:32:58,628 --> 00:33:00,674
Realmente nos estamos arriesgando aquí.
765
00:33:00,717 --> 00:33:02,589
- Llévatelo. Saludos. - Gracias.
766
00:33:02,632 --> 00:33:04,460
Estaremos en vivo desde Londres.
767
00:33:04,504 --> 00:33:05,722
Esta sucediendo
768
00:33:08,638 --> 00:33:10,597
Bienvenido a Londres.
769
00:33:10,640 --> 00:33:13,252
Vamos a tener un partido de exhibición en vivo,
770
00:33:13,295 --> 00:33:15,341
MaNa contra AlphaStar.
771
00:33:18,344 --> 00:33:19,998
En este punto ahora,
772
00:33:20,041 --> 00:33:23,827
AlphaStar, 10 y 0 contra jugadores profesionales.
773
00:33:23,871 --> 00:33:25,873
¿Alguna idea antes de adentrarnos en este juego?
774
00:33:25,916 --> 00:33:27,483
Sólo quiero ver un buen partido, sí.
775
00:33:27,527 --> 00:33:28,963
Quiero ver un buen partido.
776
00:33:29,007 --> 00:33:30,486
Absolutamente, buen partido. Estamos todos emocionados.
777
00:33:30,530 --> 00:33:33,011
Está bien. Veamos qué puede lograr MaNa.
778
00:33:34,969 --> 00:33:36,405
AlphaStar es definitivamente
779
00:33:36,449 --> 00:33:38,364
dominando el ritmo de este juego.
780
00:33:41,149 --> 00:33:44,152
Vaya. AlphaStar está jugando muy inteligentemente.
781
00:33:46,850 --> 00:33:48,461
Realmente parece que estoy mirando
782
00:33:48,504 --> 00:33:49,940
Un jugador humano profesional
783
00:33:49,984 --> 00:33:51,290
desde el punto de vista de AlphaStar.
784
00:33:57,252 --> 00:34:01,952
Realmente no había visto a un profesional jugar a StarCraft de cerca,
785
00:34:01,996 --> 00:34:03,563
y los 800 clics por minuto.
786
00:34:03,606 --> 00:34:06,000
No entiendo cómo alguien puede hacer clic 800 veces.
787
00:34:06,044 --> 00:34:09,482
y mucho menos hacer 800 clics útiles.
788
00:34:09,525 --> 00:34:11,092
Oh, otro buen éxito.
789
00:34:11,136 --> 00:34:13,094
- AlphaStar es solo
790
00:34:13,138 --> 00:34:14,617
completamente implacable
791
00:34:14,661 --> 00:34:16,141
Tenemos que tener cuidado
792
00:34:16,184 --> 00:34:19,361
Porque muchos de nosotros crecimos como jugadores y somos jugadores.
793
00:34:19,405 --> 00:34:21,363
Y entonces para nosotros es muy natural.
794
00:34:21,407 --> 00:34:23,800
ver los juegos como lo que son,
795
00:34:23,844 --> 00:34:26,977
que son puros vehículos para la diversión,
796
00:34:27,021 --> 00:34:29,719
y no ver ese lado más militarista
797
00:34:29,763 --> 00:34:32,853
Para que el público pudiera verlo si mirara esto.
798
00:34:32,896 --> 00:34:37,553
No se puede mirar la pólvora y sólo hacer un petardo.
799
00:34:37,597 --> 00:34:41,209
Todas las tecnologías apuntan inherentemente en ciertas direcciones.
800
00:34:43,124 --> 00:34:44,691
Estoy muy preocupado por
801
00:34:44,734 --> 00:34:46,606
Las formas específicas en que la IA
802
00:34:46,649 --> 00:34:49,652
Se utilizará para fines militares.
803
00:34:51,306 --> 00:34:55,049
Y eso deja aún más claro lo importante que es
804
00:34:55,093 --> 00:34:58,357
Para que nuestras sociedades tengan el control
805
00:34:58,400 --> 00:35:01,055
de estas nuevas tecnologías.
806
00:35:01,099 --> 00:35:05,190
El potencial de abuso por parte de la IA será significativo.
807
00:35:05,233 --> 00:35:08,758
Guerras que ocurren más rápido de lo que los humanos pueden comprender.
808
00:35:08,802 --> 00:35:11,065
y una vigilancia más poderosa.
809
00:35:12,458 --> 00:35:15,765
¿Cómo mantener el poder para siempre?
810
00:35:15,809 --> 00:35:19,421
¿sobre algo que es mucho más poderoso que tú?
811
00:35:43,053 --> 00:35:45,752
Las tecnologías pueden usarse para hacer cosas terribles.
812
00:35:47,493 --> 00:35:50,452
Y la tecnología se puede utilizar para hacer cosas maravillosas.
813
00:35:50,496 --> 00:35:52,150
y resolver todo tipo de problemas.
814
00:35:53,586 --> 00:35:54,978
Cuando DeepMind fue adquirida por Google...
815
00:35:55,022 --> 00:35:56,589
- Sí. - ...hiciste que Google prometiera
816
00:35:56,632 --> 00:35:58,025
Esa tecnología que desarrollaste no será utilizada por los militares.
817
00:35:58,068 --> 00:35:59,418
- para vigilancia.- Correcto.
818
00:35:59,461 --> 00:36:00,593
- Sí. - Cuéntanos sobre eso.
819
00:36:00,636 --> 00:36:03,161
Creo que la tecnología es neutral en sí misma,
820
00:36:03,204 --> 00:36:05,598
um, pero ¿cómo, ya sabes, nosotros como sociedad?
821
00:36:05,641 --> 00:36:07,382
o humanos y empresas y otras cosas,
822
00:36:07,426 --> 00:36:09,515
Otras entidades y gobiernos deciden utilizarlo
823
00:36:09,558 --> 00:36:12,561
Es lo que determina si las cosas se vuelven buenas o malas.
824
00:36:12,605 --> 00:36:16,261
Sabes, personalmente creo que tener armamento autónomo...
825
00:36:16,304 --> 00:36:17,479
Es simplemente una muy mala idea.
826
00:36:19,177 --> 00:36:21,266
AlphaStar está jugando
827
00:36:21,309 --> 00:36:24,094
Un juego extremadamente inteligente en este momento.
828
00:36:24,138 --> 00:36:27,359
Hay un elemento en lo que se está creando.
829
00:36:27,402 --> 00:36:28,882
en DeepMind en Londres
830
00:36:28,925 --> 00:36:34,148
Esto sí que parece el Proyecto Manhattan.
831
00:36:34,192 --> 00:36:37,586
Existe una relación entre Robert Oppenheimer
832
00:36:37,630 --> 00:36:39,675
y Demis Hassabis
833
00:36:39,719 --> 00:36:44,202
en el que están desatando una nueva fuerza sobre la humanidad.
834
00:36:44,245 --> 00:36:46,204
Pero MaNa está contraatacando.
835
00:36:46,247 --> 00:36:48,162
¡Oh, hombre!
836
00:36:48,206 --> 00:36:50,208
Creo que Oppenheimer
837
00:36:50,251 --> 00:36:52,471
y algunos de los otros líderes de ese proyecto quedaron atrapados
838
00:36:52,514 --> 00:36:54,908
En la emoción de construir la tecnología
839
00:36:54,951 --> 00:36:56,170
y ver si era posible.
840
00:36:56,214 --> 00:36:58,520
¿Dónde está AlphaStar?
841
00:36:58,564 --> 00:36:59,782
¿Dónde está AlphaStar?
842
00:36:59,826 --> 00:37:01,958
No veo las unidades de AlphaStar en ninguna parte.
843
00:37:02,002 --> 00:37:03,525
No pensaron con suficiente cuidado
844
00:37:03,569 --> 00:37:07,312
sobre la moral de lo que estaban haciendo desde bastante temprano.
845
00:37:07,355 --> 00:37:08,965
Lo que debemos hacer como científicos
846
00:37:09,009 --> 00:37:11,011
con nuevas y potentes tecnologías
847
00:37:11,054 --> 00:37:13,883
es intentar comprenderlo en condiciones controladas primero.
848
00:37:14,928 --> 00:37:16,799
Y eso es todo.
849
00:37:16,843 --> 00:37:19,411
MaNa ha derrotado a AlphaStar.
850
00:37:29,551 --> 00:37:31,336
Quiero decir, mi sentimiento honesto es que creo que es...
851
00:37:31,379 --> 00:37:33,207
Una representación justa de dónde estamos.
852
00:37:33,251 --> 00:37:35,949
Y creo que esa parte se siente... se siente bien.
853
00:37:35,992 --> 00:37:37,429
-Estoy muy feliz por ti.-Estoy feliz.
854
00:37:37,472 --> 00:37:38,865
Muy bien...bien hecho.
855
00:37:38,908 --> 00:37:40,867
Mi opinión es que el enfoque de la tecnología de construcción
856
00:37:40,910 --> 00:37:43,348
que se materializa en moverse rápido y romper cosas,
857
00:37:43,391 --> 00:37:46,220
Es exactamente lo que no deberíamos estar haciendo,
858
00:37:46,264 --> 00:37:47,961
Porque no puedes permitirte romper cosas
859
00:37:48,004 --> 00:37:49,049
y luego arreglarlos después.
860
00:37:49,092 --> 00:37:50,398
-Salud. -Muchas gracias.
861
00:37:50,442 --> 00:37:52,008
Sí, descansa... descansa un poco. Lo hiciste muy bien.
862
00:37:52,052 --> 00:37:53,923
- Salud, ¿sí? - Gracias por invitarnos.
863
00:38:04,238 --> 00:38:05,500
Cuando tenía ocho años,
864
00:38:05,544 --> 00:38:06,849
Compré mi primera computadora
865
00:38:06,893 --> 00:38:09,548
con las ganancias de un torneo de ajedrez.
866
00:38:09,591 --> 00:38:11,158
De alguna manera tuve esa intuición
867
00:38:11,201 --> 00:38:13,726
que las computadoras son este dispositivo mágico
868
00:38:13,769 --> 00:38:15,902
que puede ampliar el poder de la mente.
869
00:38:15,945 --> 00:38:17,382
Tenía un par de amigos de la escuela,
870
00:38:17,425 --> 00:38:19,166
y solíamos tener un club de hackers,
871
00:38:19,209 --> 00:38:21,908
escribiendo código, haciendo juegos.
872
00:38:26,260 --> 00:38:27,827
Y luego, durante las vacaciones de verano,
873
00:38:27,870 --> 00:38:29,219
Pasaría todo el día
874
00:38:29,263 --> 00:38:31,526
Hojeando revistas de juegos.
875
00:38:31,570 --> 00:38:33,441
Y un día me di cuenta de que había una competencia.
876
00:38:33,485 --> 00:38:35,878
escribir una versión original de Space Invaders.
877
00:38:35,922 --> 00:38:39,621
Y el ganador ganó un trabajo en Bullfrog.
878
00:38:39,665 --> 00:38:42,320
Bullfrog en ese momento era la mejor casa de desarrollo de juegos.
879
00:38:42,363 --> 00:38:43,756
En toda Europa.
880
00:38:43,799 --> 00:38:45,279
Sabes, realmente quería trabajar en este lugar.
881
00:38:45,323 --> 00:38:48,587
y ver cómo construyen juegos.
882
00:38:48,630 --> 00:38:50,415
Bullfrog, con sede aquí en Guildford,
883
00:38:50,458 --> 00:38:52,286
Comenzó con una gran idea.
884
00:38:52,330 --> 00:38:54,680
Esa idea se convirtió en el juego Populous,
885
00:38:54,723 --> 00:38:56,551
que se convirtió en un éxito de ventas mundial.
886
00:38:56,595 --> 00:38:59,859
En los años 90 no existían agencias de contratación.
887
00:38:59,902 --> 00:39:02,122
No podías salir y decir, ya sabes,
888
00:39:02,165 --> 00:39:04,951
"Ven y trabaja en la industria de los videojuegos".
889
00:39:04,994 --> 00:39:08,171
Todavía ni siquiera se consideraba una industria.
890
00:39:08,215 --> 00:39:11,218
Entonces se nos ocurrió la idea de hacer una competencia.
891
00:39:11,261 --> 00:39:13,655
Y tuvimos muchos solicitantes.
892
00:39:14,700 --> 00:39:17,616
Y uno de ellos era el de Demis.
893
00:39:17,659 --> 00:39:20,706
Todavía puedo recordarlo claramente
894
00:39:20,749 --> 00:39:23,970
El día que llegó Demis.
895
00:39:24,013 --> 00:39:27,147
Entró por la puerta y parecía tener unos 12 años.
896
00:39:28,670 --> 00:39:30,019
Pensé: "Oh, Dios mío,
897
00:39:30,063 --> 00:39:31,586
"¿Qué carajo vamos a hacer con este tipo?"
898
00:39:31,630 --> 00:39:32,979
Presenté mi solicitud para Cambridge.
899
00:39:33,022 --> 00:39:35,373
Entré pero dijeron que era demasiado joven.
900
00:39:35,416 --> 00:39:37,853
Entonces... Entonces necesitaba tomarme un año de descanso.
901
00:39:37,897 --> 00:39:39,899
Así que tendría al menos 17 años antes de llegar allí.
902
00:39:39,942 --> 00:39:42,771
Y fue entonces cuando decidí pasar todo ese año sabático.
903
00:39:42,815 --> 00:39:44,469
Trabajando en Bullfrog.
904
00:39:44,512 --> 00:39:46,166
Ni siquiera podían emplearme legalmente,
905
00:39:46,209 --> 00:39:48,298
Así que terminé recibiendo mi pago en sobres de papel marrón.
906
00:39:50,823 --> 00:39:54,304
Tuve la sensación de estar realmente a la vanguardia.
907
00:39:54,348 --> 00:39:58,047
Y qué divertido era inventar cosas todos los días.
908
00:39:58,091 --> 00:40:00,572
Y luego, ya sabes, unos meses después,
909
00:40:00,615 --> 00:40:03,662
Tal vez todos... un millón de personas lo estarán jugando.
910
00:40:03,705 --> 00:40:06,665
En aquella época los juegos de ordenador tenían que evolucionar.
911
00:40:06,708 --> 00:40:08,536
Tenía que haber nuevos géneros
912
00:40:08,580 --> 00:40:11,757
que eran más que simplemente disparar cosas.
913
00:40:11,800 --> 00:40:14,063
¿No sería fantástico tener un juego?
914
00:40:14,107 --> 00:40:18,807
¿Dónde diseñas y construyes tu propio parque temático?
915
00:40:22,594 --> 00:40:25,945
Demis y yo empezamos a hablar sobre el parque temático.
916
00:40:25,988 --> 00:40:28,904
Permite al jugador construir un mundo.
917
00:40:28,948 --> 00:40:31,864
y ver las consecuencias de tus decisiones
918
00:40:31,907 --> 00:40:34,127
que has hecho en ese mundo.
919
00:40:34,170 --> 00:40:36,085
Un jugador humano diseñó el diseño.
920
00:40:36,129 --> 00:40:38,566
del parque temático y diseñó la montaña rusa
921
00:40:38,610 --> 00:40:41,351
y fijar los precios en la tienda de patatas fritas.
922
00:40:41,395 --> 00:40:43,615
Lo que estaba trabajando era el comportamiento de la gente.
923
00:40:43,658 --> 00:40:45,138
Eran autónomos
924
00:40:45,181 --> 00:40:47,314
Y esa era la IA en este caso.
925
00:40:47,357 --> 00:40:48,881
Entonces lo que estaba tratando de hacer era imitar
926
00:40:48,924 --> 00:40:51,013
comportamiento humano interesante
927
00:40:51,057 --> 00:40:52,319
para que la simulación fuera
928
00:40:52,362 --> 00:40:54,582
Más interesante para interactuar.
929
00:40:54,626 --> 00:40:56,541
Demis trabajaba en cosas ridículas,
930
00:40:56,584 --> 00:40:59,413
Como si pudieras colocar estas tiendas
931
00:40:59,457 --> 00:41:03,591
Y si pones una tienda demasiado cerca de una atracción muy peligrosa,
932
00:41:03,635 --> 00:41:05,375
Entonces la gente en el viaje vomitaba.
933
00:41:05,419 --> 00:41:08,030
Porque acababan de comer.
934
00:41:08,074 --> 00:41:09,641
Y eso haría que otras personas vomitaran.
935
00:41:09,684 --> 00:41:12,121
Cuando vieron el vómito en el suelo,
936
00:41:12,165 --> 00:41:14,559
Así que entonces había que tener muchos barrenderos.
937
00:41:14,602 --> 00:41:17,823
barrerlo rápidamente antes de que la gente lo viera.
938
00:41:17,866 --> 00:41:19,520
Eso es lo bueno de esto.
939
00:41:19,564 --> 00:41:22,784
Tú, como jugador, juegas con él y luego el dispositivo reacciona ante ti.
940
00:41:22,828 --> 00:41:25,874
Todas esas simulaciones matizadas que hizo
941
00:41:25,918 --> 00:41:28,094
Y eso fue un invento
942
00:41:28,137 --> 00:41:31,227
que en realidad nunca existió antes.
943
00:41:31,271 --> 00:41:34,230
Fue un éxito increíble.
944
00:41:34,274 --> 00:41:35,710
El parque temático realmente resultó ser
945
00:41:35,754 --> 00:41:37,190
Ser un título entre los diez mejores
946
00:41:37,233 --> 00:41:39,932
Y esa fue la primera vez que empezamos a ver
947
00:41:39,975 --> 00:41:43,022
Cómo la IA podría marcar la diferencia.
948
00:41:46,155 --> 00:41:47,592
Estábamos haciendo algunas compras navideñas.
949
00:41:47,635 --> 00:41:51,247
y estábamos esperando el taxi que nos llevaría a casa.
950
00:41:51,291 --> 00:41:54,947
Tengo este recuerdo muy claro de Demis hablando sobre IA.
951
00:41:54,990 --> 00:41:56,209
De una manera muy diferente,
952
00:41:56,252 --> 00:41:58,428
de una manera que comúnmente no hablamos.
953
00:41:58,472 --> 00:42:02,345
Esta idea de que la IA sea útil para otras cosas
954
00:42:02,389 --> 00:42:04,086
Aparte del entretenimiento.
955
00:42:04,130 --> 00:42:07,437
Entonces, ser útil para, um, ayudar al mundo.
956
00:42:07,481 --> 00:42:10,310
y el potencial de la IA para cambiar el mundo.
957
00:42:10,353 --> 00:42:13,226
Le dije a Demis: "¿Qué es lo que quieres hacer?"
958
00:42:13,269 --> 00:42:14,532
Y me dijo:
959
00:42:14,575 --> 00:42:16,795
"Quiero ser la persona que resuelva la IA".
960
00:42:22,670 --> 00:42:25,760
Peter me ofreció £1 millón
961
00:42:25,804 --> 00:42:27,675
no ir a la universidad.
962
00:42:30,199 --> 00:42:32,593
Pero tenía un plan desde el principio.
963
00:42:32,637 --> 00:42:35,814
Y mi plan siempre fue ir a Cambridge.
964
00:42:35,857 --> 00:42:36,902
Creo que muchos de mis amigos de la escuela
965
00:42:36,945 --> 00:42:38,033
Pensé que estaba loco.
966
00:42:38,077 --> 00:42:39,252
¿Por qué no lo harías?
967
00:42:39,295 --> 00:42:40,688
Quiero decir, £1 millón, eso es mucho dinero.
968
00:42:40,732 --> 00:42:43,517
En los años 90 eso es mucho dinero, ¿verdad?
969
00:42:43,561 --> 00:42:46,346
Para un... Para un pobre chico de 17 años.
970
00:42:46,389 --> 00:42:50,219
Es como una pequeña semilla que va a brotar.
971
00:42:50,263 --> 00:42:53,658
y no podrá hacer eso en Bullfrog.
972
00:42:56,443 --> 00:42:59,098
Tuve que dejarlo en la estación de tren.
973
00:42:59,141 --> 00:43:02,580
y todavía puedo ver esa imagen
974
00:43:02,623 --> 00:43:07,019
de este pequeño personaje elfo desaparece por ese túnel.
975
00:43:07,062 --> 00:43:09,804
Fue un momento increíblemente triste.
976
00:43:13,242 --> 00:43:14,635
Tenía este ideal romántico.
977
00:43:14,679 --> 00:43:16,942
de cómo sería Cambridge,
978
00:43:16,985 --> 00:43:18,639
1.000 años de historia,
979
00:43:18,683 --> 00:43:21,033
caminando por las mismas calles que Turing,
980
00:43:21,076 --> 00:43:23,601
Newton y Crick habían caminado.
981
00:43:23,644 --> 00:43:26,647
Quería explorar el borde del universo.
982
00:43:29,084 --> 00:43:30,346
Cuando llegué a Cambridge,
983
00:43:30,390 --> 00:43:32,653
Básicamente había estado trabajando toda mi vida.
984
00:43:33,741 --> 00:43:35,090
Cada verano,
985
00:43:35,134 --> 00:43:37,136
O bien estaba jugando al ajedrez profesionalmente,
986
00:43:37,179 --> 00:43:39,704
o estaba trabajando, haciendo prácticas.
987
00:43:39,747 --> 00:43:43,708
Entonces pensé: "Bien, me voy a divertir ahora".
988
00:43:43,751 --> 00:43:46,711
"y explorar lo que significa ser un adolescente normal".
989
00:43:50,236 --> 00:43:52,238
¡Vamos! ¡Vamos, muchacho, vamos!
990
00:43:52,281 --> 00:43:54,022
Fue mucho trabajo y mucha diversión.
991
00:43:55,850 --> 00:43:57,025
Conocí a Demis por primera vez
992
00:43:57,069 --> 00:43:59,201
porque ambos asistimos al Queens College.
993
00:44:00,115 --> 00:44:01,203
Nuestro grupo de amigos,
994
00:44:01,247 --> 00:44:03,205
A menudo bebíamos cerveza en el bar,
995
00:44:03,249 --> 00:44:04,946
Jugar al futbolín.
996
00:44:04,990 --> 00:44:07,340
En el bar solía jugar al ajedrez rápido,
997
00:44:07,383 --> 00:44:09,255
piezas volando fuera del tablero,
998
00:44:09,298 --> 00:44:11,083
Ya sabes, todo el juego en un minuto.
999
00:44:11,126 --> 00:44:12,301
Demis se sentó frente a mí.
1000
00:44:12,345 --> 00:44:13,563
Y lo miré y pensé:
1001
00:44:13,607 --> 00:44:15,217
"Te recuerdo de cuando éramos niños."
1002
00:44:15,261 --> 00:44:17,176
De hecho, había estado en el mismo torneo de ajedrez.
1003
00:44:17,219 --> 00:44:18,786
Como Dave en Ipswich,
1004
00:44:18,830 --> 00:44:20,440
donde solía ir y tratar de asaltar su club de ajedrez local
1005
00:44:20,483 --> 00:44:22,703
Para ganar un poco de dinero en premios.
1006
00:44:22,747 --> 00:44:24,618
Estábamos estudiando informática.
1007
00:44:24,662 --> 00:44:26,794
Algunas personas, que a la edad de 17 años
1008
00:44:26,838 --> 00:44:28,404
Habría entrado y se habría asegurado de contárselo a todo el mundo.
1009
00:44:28,448 --> 00:44:29,492
Todo sobre ellos mismos.
1010
00:44:29,536 --> 00:44:30,972
"Oye, trabajé en Bullfrog
1011
00:44:31,016 --> 00:44:33,018
"y construyó el videojuego más exitoso del mundo".
1012
00:44:33,061 --> 00:44:34,715
Pero él no era así en absoluto.
1013
00:44:34,759 --> 00:44:36,412
En Cambridge, Demis y yo
1014
00:44:36,456 --> 00:44:38,414
Ambos tenían interés en la neurociencia computacional.
1015
00:44:38,458 --> 00:44:40,242
y tratando de entender cómo funcionan las computadoras y los cerebros.
1016
00:44:40,286 --> 00:44:42,636
entrelazados y vinculados entre sí.
1017
00:44:42,680 --> 00:44:44,290
Tanto David como Demis
1018
00:44:44,333 --> 00:44:46,422
vino a mí para supervisiones.
1019
00:44:46,466 --> 00:44:49,774
Sucede por pura casualidad que en el año 1997,
1020
00:44:49,817 --> 00:44:51,645
su tercer y último año en Cambridge,
1021
00:44:51,689 --> 00:44:55,301
También fue el año en el que nació el primer gran maestro de ajedrez.
1022
00:44:55,344 --> 00:44:56,781
Fue golpeado por un programa de computadora.
1023
00:44:58,304 --> 00:45:00,088
Primera ronda de hoy de una partida de ajedrez.
1024
00:45:00,132 --> 00:45:03,701
Entre el campeón mundial de ranking Garry Kasparov
1025
00:45:03,744 --> 00:45:06,007
y un oponente llamado Deep Blue
1026
00:45:06,051 --> 00:45:10,490
para probar si el cerebro humano puede ser más listo que una máquina.
1027
00:45:10,533 --> 00:45:11,621
Recuerdo el drama
1028
00:45:11,665 --> 00:45:13,798
de Kasparov perdiendo el último partido.
1029
00:45:13,841 --> 00:45:15,234
¡Guau!
1030
00:45:15,277 --> 00:45:17,192
¡Kasparov ha dimitido!
1031
00:45:17,236 --> 00:45:19,586
Cuando Deep Blue venció a Garry Kasparov,
1032
00:45:19,629 --> 00:45:21,457
Este fue un verdadero acontecimiento decisivo.
1033
00:45:21,501 --> 00:45:23,155
Mi principal recuerdo de ello fue
1034
00:45:23,198 --> 00:45:25,331
No me impresionó mucho Deep Blue.
1035
00:45:25,374 --> 00:45:27,246
Me impresionó aún más la mente de Kasparov.
1036
00:45:27,289 --> 00:45:29,509
Que pudiera jugar al ajedrez a este nivel,
1037
00:45:29,552 --> 00:45:31,641
donde podría competir en igualdad de condiciones
1038
00:45:31,685 --> 00:45:33,252
con la bruta de una máquina,
1039
00:45:33,295 --> 00:45:35,167
Pero por supuesto, Kasparov puede hacerlo.
1040
00:45:35,210 --> 00:45:36,951
Todo lo demás también lo pueden hacer los humanos.
1041
00:45:36,995 --> 00:45:38,257
Fue un gran logro.
1042
00:45:38,300 --> 00:45:39,388
Pero la verdad del asunto era que,
1043
00:45:39,432 --> 00:45:40,868
Deep Blue sólo podía jugar ajedrez.
1044
00:45:42,435 --> 00:45:44,524
Lo que consideraríamos inteligencia
1045
00:45:44,567 --> 00:45:46,874
Faltaba en ese sistema.
1046
00:45:46,918 --> 00:45:49,834
Esta idea de generalidad y también de aprendizaje.
1047
00:45:53,751 --> 00:45:55,404
Cambridge fue increíble, porque, por supuesto, ya sabes,
1048
00:45:55,448 --> 00:45:56,666
Te estás mezclando con la gente
1049
00:45:56,710 --> 00:45:58,233
que estudian muchos temas diferentes.
1050
00:45:58,277 --> 00:46:01,410
Había científicos, filósofos, artistas...
1051
00:46:01,454 --> 00:46:04,457
...geólogos, biólogos, ecólogos.
1052
00:46:04,500 --> 00:46:07,416
Ya sabes, todo el mundo habla de todo, todo el tiempo.
1053
00:46:07,460 --> 00:46:10,768
Estaba obsesionado con el problema del plegamiento de proteínas.
1054
00:46:10,811 --> 00:46:13,248
Tim Stevens solía hablar obsesivamente,
1055
00:46:13,292 --> 00:46:15,381
Casi como religiosamente sobre este problema,
1056
00:46:15,424 --> 00:46:17,165
Problema de plegamiento de proteínas.
1057
00:46:17,209 --> 00:46:18,863
Las proteínas son, ya sabes,
1058
00:46:18,906 --> 00:46:22,083
Una de las cosas más bellas y elegantes de la biología.
1059
00:46:22,127 --> 00:46:24,738
Son las máquinas de la vida.
1060
00:46:24,782 --> 00:46:27,001
Todo lo construyen, todo lo controlan,
1061
00:46:27,045 --> 00:46:29,569
Son la razón por la que funciona la biología.
1062
00:46:29,612 --> 00:46:32,659
Las proteínas están hechas de cadenas de aminoácidos.
1063
00:46:32,702 --> 00:46:37,055
que se pliegan para crear una estructura de proteína.
1064
00:46:37,098 --> 00:46:39,884
Si pudiéramos predecir la estructura de las proteínas
1065
00:46:39,927 --> 00:46:43,104
sólo a partir de sus secuencias de aminoácidos,
1066
00:46:43,148 --> 00:46:46,107
Entonces una nueva proteína para curar el cáncer.
1067
00:46:46,151 --> 00:46:49,415
o descomponer el plástico para ayudar al medio ambiente
1068
00:46:49,458 --> 00:46:50,808
Definitivamente es algo
1069
00:46:50,851 --> 00:46:52,940
que podrías empezar a pensar en ello.
1070
00:46:53,941 --> 00:46:55,029
Yo pensé,
1071
00:46:55,073 --> 00:46:58,293
"Bueno, ¿es un ser humano lo suficientemente inteligente?
1072
00:46:58,337 --> 00:46:59,991
"¿En realidad se puede plegar una proteína?"
1073
00:47:00,034 --> 00:47:02,080
No podemos resolverlo
1074
00:47:02,123 --> 00:47:04,082
Desde la década de 1960,
1075
00:47:04,125 --> 00:47:05,953
Pensamos que en principio,
1076
00:47:05,997 --> 00:47:08,913
Si sé cuál es la secuencia de aminoácidos de una proteína,
1077
00:47:08,956 --> 00:47:11,437
Debería poder calcular cómo es la estructura.
1078
00:47:11,480 --> 00:47:13,700
Entonces, si pudieras simplemente presionar un botón,
1079
00:47:13,743 --> 00:47:16,311
y todos saldrían de repente, eso sería...
1080
00:47:16,355 --> 00:47:18,009
Eso tendría algún impacto.
1081
00:47:20,272 --> 00:47:21,577
Se me quedó grabado en la mente.
1082
00:47:21,621 --> 00:47:23,405
"Oh, este es un problema muy interesante."
1083
00:47:23,449 --> 00:47:26,844
Y me pareció que tendría solución.
1084
00:47:26,887 --> 00:47:29,934
Pero pensé que necesitaría IA para hacerlo.
1085
00:47:31,500 --> 00:47:34,025
Si pudiéramos resolver el plegamiento de proteínas,
1086
00:47:34,068 --> 00:47:35,635
Podría cambiar el mundo.
1087
00:47:50,868 --> 00:47:52,826
Desde que era estudiante en Cambridge,
1088
00:47:54,001 --> 00:47:55,611
Nunca he dejado de pensar en
1089
00:47:55,655 --> 00:47:57,135
El problema del plegamiento de proteínas.
1090
00:47:59,789 --> 00:48:02,792
Si tuvieras que resolver el plegamiento de proteínas,
1091
00:48:02,836 --> 00:48:05,665
Entonces el potencial para ayudar a resolver problemas como
1092
00:48:05,708 --> 00:48:09,669
El Alzheimer, la demencia y el descubrimiento de fármacos son temas de gran importancia.
1093
00:48:09,712 --> 00:48:11,671
Resolver la enfermedad es probablemente
1094
00:48:11,714 --> 00:48:13,325
El impacto más grande que podríamos tener.
1095
00:48:15,457 --> 00:48:16,676
Miles de personas muy inteligentes
1096
00:48:16,719 --> 00:48:18,765
Han intentado resolver el plegamiento de proteínas.
1097
00:48:18,808 --> 00:48:20,985
Simplemente creo que ahora es el momento adecuado.
1098
00:48:21,028 --> 00:48:22,508
para que la IA lo descifre.
1099
00:48:26,555 --> 00:48:28,383
Necesitábamos una forma razonable
1100
00:48:28,427 --> 00:48:29,515
para aplicar el aprendizaje automático
1101
00:48:29,558 --> 00:48:30,516
al problema del plegamiento de proteínas.
1102
00:48:32,431 --> 00:48:35,173
Nos encontramos con este juego Foldit.
1103
00:48:35,216 --> 00:48:38,785
El objetivo es moverse alrededor de este modelo 3D de una proteína.
1104
00:48:38,828 --> 00:48:41,701
y obtienes un puntaje cada vez que lo mueves.
1105
00:48:41,744 --> 00:48:43,050
Cuanto más precisas sean estas estructuras,
1106
00:48:43,094 --> 00:48:45,531
Cuanto más útiles sean, más útiles serán para los biólogos.
1107
00:48:46,227 --> 00:48:47,489
Pasé unos días
1108
00:48:47,533 --> 00:48:48,838
Sólo para ver qué tan bien lo podíamos hacer.
1109
00:48:50,666 --> 00:48:52,407
Lo hicimos razonablemente bien.
1110
00:48:52,451 --> 00:48:53,843
Pero incluso si lo fueras
1111
00:48:53,887 --> 00:48:55,280
El mejor jugador de Foldit del mundo,
1112
00:48:55,323 --> 00:48:57,499
No resolverías el plegamiento de proteínas.
1113
00:48:57,543 --> 00:48:59,501
Por eso tuvimos que ir más allá del juego.
1114
00:48:59,545 --> 00:49:00,720
Los juegos siempre son solo
1115
00:49:00,763 --> 00:49:03,723
el campo de pruebas para nuestros algoritmos.
1116
00:49:03,766 --> 00:49:07,727
El objetivo final no era sólo descifrar Go y StarCraft.
1117
00:49:07,770 --> 00:49:10,034
Se trataba de afrontar retos del mundo real.
1118
00:49:16,127 --> 00:49:18,520
Recuerdo haber escuchado este rumor.
1119
00:49:18,564 --> 00:49:21,175
que Demis se estaba metiendo en el mundo de las proteínas.
1120
00:49:21,219 --> 00:49:23,743
Hablé con algunas personas de DeepMind y les pregunté:
1121
00:49:23,786 --> 00:49:25,049
"Entonces, ¿estás haciendo plegamiento de proteínas?"
1122
00:49:25,092 --> 00:49:26,920
Y cambiaban de tema ingeniosamente.
1123
00:49:26,964 --> 00:49:30,097
Y cuando eso pasó dos veces, prácticamente lo entendí.
1124
00:49:30,141 --> 00:49:32,839
Entonces pensé que debería enviar un currículum.
1125
00:49:32,882 --> 00:49:35,668
Muy bien, todos, bienvenidos a DeepMind.
1126
00:49:35,711 --> 00:49:37,626
Sé que para algunos de ustedes esta puede ser su primera semana,
1127
00:49:37,670 --> 00:49:39,193
pero espero que todos estén listos...
1128
00:49:39,237 --> 00:49:40,890
La parte realmente atractiva para mí del trabajo
1129
00:49:40,934 --> 00:49:42,675
¿Era esto como una sensación de conexión?
1130
00:49:42,718 --> 00:49:44,503
al propósito mayor.
1131
00:49:44,546 --> 00:49:45,591
Si podemos romper
1132
00:49:45,634 --> 00:49:48,028
Algunos problemas fundamentales de la ciencia,
1133
00:49:48,072 --> 00:49:49,160
muchas otras personas
1134
00:49:49,203 --> 00:49:50,900
y otras empresas y laboratorios, etc.
1135
00:49:50,944 --> 00:49:52,467
Podríamos construir sobre la base de nuestro trabajo.
1136
00:49:52,511 --> 00:49:53,816
Esta es tu oportunidad ahora
1137
00:49:53,860 --> 00:49:55,818
para agregar tu capítulo a esta historia.
1138
00:49:55,862 --> 00:49:57,298
Cuando llegué,
1139
00:49:57,342 --> 00:49:59,605
Definitivamente estaba bastante nervioso.
1140
00:49:59,648 --> 00:50:00,736
Todavía estoy intentando mantener...
1141
00:50:00,780 --> 00:50:02,912
No he tomado ningún curso de biología.
1142
00:50:02,956 --> 00:50:05,393
No hemos pasado años de nuestras vidas
1143
00:50:05,437 --> 00:50:07,917
mirando estas estructuras y comprendiéndolas.
1144
00:50:07,961 --> 00:50:09,963
Nos basamos únicamente en los datos
1145
00:50:10,007 --> 00:50:11,269
y nuestros modelos de aprendizaje automático.
1146
00:50:12,705 --> 00:50:13,836
En el aprendizaje automático,
1147
00:50:13,880 --> 00:50:15,795
Entrenas una red como si fueran flashcards.
1148
00:50:15,838 --> 00:50:18,798
He aquí la pregunta. He aquí la respuesta.
1149
00:50:18,841 --> 00:50:20,756
He aquí la pregunta. He aquí la respuesta.
1150
00:50:20,800 --> 00:50:22,323
Pero en el plegamiento de proteínas,
1151
00:50:22,367 --> 00:50:25,457
No estamos haciendo el tipo de tarea estándar en DeepMind
1152
00:50:25,500 --> 00:50:28,155
Donde tienes datos ilimitados.
1153
00:50:28,199 --> 00:50:30,766
Tu trabajo es mejorar en ajedrez o Go.
1154
00:50:30,810 --> 00:50:32,986
y puedes jugar tantas partidas de ajedrez o Go como quieras.
1155
00:50:33,030 --> 00:50:34,814
según lo permitan sus computadoras.
1156
00:50:35,510 --> 00:50:36,772
Con proteínas,
1157
00:50:36,816 --> 00:50:39,732
Estamos sentados sobre un volumen de datos muy grande
1158
00:50:39,775 --> 00:50:41,995
Eso ha sido determinado por medio siglo
1159
00:50:42,039 --> 00:50:46,478
de métodos experimentales que consumen mucho tiempo en los laboratorios.
1160
00:50:46,521 --> 00:50:49,698
Estos métodos minuciosos pueden llevar meses o años.
1161
00:50:49,742 --> 00:50:52,353
para determinar una sola estructura de proteína,
1162
00:50:52,397 --> 00:50:55,791
y a veces, una estructura nunca puede determinarse.
1163
00:50:57,315 --> 00:51:00,274
Por eso trabajamos con conjuntos de datos tan pequeños.
1164
00:51:00,318 --> 00:51:02,233
para entrenar nuestros algoritmos.
1165
00:51:02,276 --> 00:51:04,365
Cuando DeepMind comenzó a explorar
1166
00:51:04,409 --> 00:51:05,975
El problema del plegado,
1167
00:51:06,019 --> 00:51:07,977
Nos estaban hablando sobre qué conjuntos de datos estaban usando.
1168
00:51:08,021 --> 00:51:09,892
¿Y cuáles serían las posibilidades?
1169
00:51:09,936 --> 00:51:11,633
Si resolvieran este problema.
1170
00:51:12,373 --> 00:51:13,940
Mucha gente lo ha intentado,
1171
00:51:13,983 --> 00:51:16,638
Y aún así, nadie en el planeta ha resuelto el plegamiento de proteínas.
1172
00:51:16,682 --> 00:51:18,205
Me dije a mí mismo:
1173
00:51:18,249 --> 00:51:19,946
"Bueno, ya sabes, buena suerte."
1174
00:51:19,989 --> 00:51:22,731
Si podemos resolver el problema del plegamiento de proteínas,
1175
00:51:22,775 --> 00:51:25,691
Tendría un tipo de relevancia médica increíble.
1176
00:51:25,734 --> 00:51:27,736
Éste es el ciclo de la ciencia.
1177
00:51:27,780 --> 00:51:30,043
Realizas una gran cantidad de exploración,
1178
00:51:30,087 --> 00:51:31,914
y luego entras en modo explotación,
1179
00:51:31,958 --> 00:51:33,568
y te concentras y ves
1180
00:51:33,612 --> 00:51:35,353
¿Qué tan buenas son realmente esas ideas?
1181
00:51:35,396 --> 00:51:36,528
Y no hay nada mejor
1182
00:51:36,571 --> 00:51:38,095
que la competencia externa para ello.
1183
00:51:39,835 --> 00:51:43,056
Así que decidimos participar en el concurso CASP.
1184
00:51:43,100 --> 00:51:47,234
CASP, empezamos a intentar acelerar
1185
00:51:47,278 --> 00:51:49,802
La solución al problema del plegamiento de proteínas.
1186
00:51:49,845 --> 00:51:52,065
CASP es cuando decimos,
1187
00:51:52,109 --> 00:51:54,372
"Mira, DeepMind está haciendo plegamiento de proteínas,
1188
00:51:54,415 --> 00:51:55,590
"Así de buenos somos,
1189
00:51:55,634 --> 00:51:57,592
"Y quizás sea mejor que todos los demás.
1190
00:51:57,636 --> 00:51:58,680
"Tal vez no lo sea."
1191
00:51:58,724 --> 00:52:00,073
CASP es un poco como
1192
00:52:00,117 --> 00:52:02,075
Los Juegos Olímpicos del plegamiento de proteínas.
1193
00:52:03,642 --> 00:52:06,035
CASP es una evaluación a nivel comunitario
1194
00:52:06,079 --> 00:52:08,125
Que se celebra cada dos años.
1195
00:52:09,561 --> 00:52:10,866
Se dan los equipos
1196
00:52:10,910 --> 00:52:14,261
las secuencias de aminoácidos de aproximadamente 100 proteínas,
1197
00:52:14,305 --> 00:52:17,525
y luego intentan resolver este problema de plegado
1198
00:52:17,569 --> 00:52:20,833
utilizando métodos computacionales.
1199
00:52:20,876 --> 00:52:23,401
Estas proteínas ya han sido determinadas
1200
00:52:23,444 --> 00:52:25,968
mediante experimentos en un laboratorio,
1201
00:52:26,012 --> 00:52:29,276
pero aún no han sido revelados públicamente.
1202
00:52:29,320 --> 00:52:30,756
Y estas estructuras conocidas
1203
00:52:30,799 --> 00:52:33,280
representan el patrón oro contra el cual
1204
00:52:33,324 --> 00:52:36,936
Se compararán todas las predicciones computacionales.
1205
00:52:37,937 --> 00:52:39,330
Tenemos una puntuación
1206
00:52:39,373 --> 00:52:42,159
que mide la precisión de las predicciones.
1207
00:52:42,202 --> 00:52:44,726
Y se esperaría una puntuación superior a 90.
1208
00:52:44,770 --> 00:52:47,425
ser una solución al problema del plegamiento de proteínas.
1209
00:52:48,556 --> 00:52:50,036
Bienvenidos a todos,
1210
00:52:50,079 --> 00:52:52,038
a nuestras primeras, eh, semifinales en el cuadro de ganadores.
1211
00:52:52,081 --> 00:52:54,954
Nick y John contra Demis y Frank.
1212
00:52:54,997 --> 00:52:57,217
Únase a nosotros, venga. Será un partido intenso.
1213
00:52:57,261 --> 00:52:59,306
Cuando me enteré de que Demis era
1214
00:52:59,350 --> 00:53:02,048
Vamos a abordar el problema del plegamiento de proteínas,
1215
00:53:02,091 --> 00:53:04,790
Umm, no me sorprendió en absoluto.
1216
00:53:04,833 --> 00:53:06,792
Es muy típico de Demis.
1217
00:53:06,835 --> 00:53:08,924
Ya sabes, le encanta la competencia.
1218
00:53:08,968 --> 00:53:10,143
Y ese es el final
1219
00:53:10,187 --> 00:53:12,972
del primer partido, 10-7.
1220
00:53:13,015 --> 00:53:14,103
El objetivo del CASP sería
1221
00:53:14,147 --> 00:53:15,975
no sólo para ganar la competencia,
1222
00:53:16,018 --> 00:53:19,892
pero en cierto modo, eh, jubilar la necesidad de ello.
1223
00:53:19,935 --> 00:53:23,417
En total, el CASP ha publicado 20 objetivos.
1224
00:53:23,461 --> 00:53:24,810
Estábamos pensando que tal vez
1225
00:53:24,853 --> 00:53:26,899
Agregue el tipo estándar de aprendizaje automático.
1226
00:53:26,942 --> 00:53:28,814
y ver hasta dónde podría llevarnos eso.
1227
00:53:28,857 --> 00:53:30,729
En lugar de tener un par de días para hacer un experimento,
1228
00:53:30,772 --> 00:53:33,558
Podemos realizar cinco experimentos al día.
1229
00:53:33,601 --> 00:53:35,342
Genial. Enhorabuena a todos.
1230
00:53:36,778 --> 00:53:38,693
¿Puedes mostrarme el verdadero en lugar del nuestro?
1231
00:53:38,737 --> 00:53:39,781
La verdadera respuesta es
1232
00:53:39,825 --> 00:53:42,044
Se supone que debería verse algo así.
1233
00:53:42,088 --> 00:53:45,047
Es mucho más cilíndrico de lo que pensaba.
1234
00:53:45,091 --> 00:53:47,398
Los resultados no fueron muy buenos.
1235
00:53:47,441 --> 00:53:48,703
Bueno.
1236
00:53:48,747 --> 00:53:49,835
Le lanzamos todas las ideas obvias.
1237
00:53:49,878 --> 00:53:51,793
y el problema se ríe de ti.
1238
00:53:52,881 --> 00:53:54,361
Esto no tiene sentido.
1239
00:53:54,405 --> 00:53:56,015
Pensamos que podríamos simplemente tirar
1240
00:53:56,058 --> 00:53:58,322
Algunos de nuestros mejores algoritmos para resolver el problema.
1241
00:53:59,366 --> 00:54:00,976
Éramos un poco ingenuos.
1242
00:54:01,020 --> 00:54:02,282
Deberíamos estar aprendiendo esto,
1243
00:54:02,326 --> 00:54:04,284
Ya sabes, en un abrir y cerrar de ojos.
1244
00:54:05,372 --> 00:54:06,982
Lo que me preocupa es que
1245
00:54:07,026 --> 00:54:08,375
Tomamos el campo desde
1246
00:54:08,419 --> 00:54:10,899
Respuestas realmente malas a respuestas moderadamente malas.
1247
00:54:10,943 --> 00:54:13,946
Siento que necesitamos algún tipo de nueva tecnología.
1248
00:54:13,989 --> 00:54:15,164
para mover estas cosas.
1249
00:54:20,431 --> 00:54:22,215
Quedando sólo una semana del CASP,
1250
00:54:22,259 --> 00:54:24,348
Ahora es un sprint para implementarlo.
1251
00:54:26,654 --> 00:54:28,090
Hiciste lo mejor que pudiste.
1252
00:54:28,134 --> 00:54:29,875
Entonces no hay nada más que puedas hacer.
1253
00:54:29,918 --> 00:54:32,399
pero espere a que CASP entregue los resultados.
1254
00:54:52,593 --> 00:54:53,725
Esta famosa cosa de Einstein,
1255
00:54:53,768 --> 00:54:55,030
Los últimos años de su vida,
1256
00:54:55,074 --> 00:54:57,381
Cuando estuvo aquí, coincidió con Kurt Godel.
1257
00:54:57,424 --> 00:54:59,774
Y dijo que una de las razones por las que todavía viene a trabajar
1258
00:54:59,818 --> 00:55:01,646
Es para que pueda caminar hasta casa
1259
00:55:01,689 --> 00:55:03,517
y discutir cosas con Gödel.
1260
00:55:03,561 --> 00:55:05,911
Es un gran cumplido para Kurt Godel,
1261
00:55:05,954 --> 00:55:07,478
Te muestra lo increíble que era.
1262
00:55:09,131 --> 00:55:10,568
El Instituto de Estudios Avanzados
1263
00:55:10,611 --> 00:55:12,918
Se formó en 1933.
1264
00:55:12,961 --> 00:55:14,223
En los primeros años,
1265
00:55:14,267 --> 00:55:16,487
La intensa atmósfera científica atrajo
1266
00:55:16,530 --> 00:55:19,359
Algunos de los matemáticos y físicos más brillantes
1267
00:55:19,403 --> 00:55:22,536
siempre concentrado en un solo lugar y tiempo.
1268
00:55:22,580 --> 00:55:24,582
El principio fundador de este lugar,
1269
00:55:24,625 --> 00:55:28,020
Es la idea de una búsqueda intelectual sin restricciones,
1270
00:55:28,063 --> 00:55:30,152
Incluso si no sabes lo que estás explorando.
1271
00:55:30,196 --> 00:55:32,154
Dará como resultado algunas cosas interesantes,
1272
00:55:32,198 --> 00:55:34,896
Y a veces eso termina siendo útil,
1273
00:55:34,940 --> 00:55:36,376
Lo cual, por supuesto,
1274
00:55:36,420 --> 00:55:37,986
Es en parte lo que he estado intentando hacer en DeepMind.
1275
00:55:38,030 --> 00:55:39,988
¿Cuántos grandes avances cree usted que son necesarios?
1276
00:55:40,032 --> 00:55:41,686
¿Cómo llegar hasta AGI?
1277
00:55:41,729 --> 00:55:43,078
Y, sabes, calculo que tal vez
1278
00:55:43,122 --> 00:55:44,341
Hay alrededor de una docena de ellos.
1279
00:55:44,384 --> 00:55:46,125
Sabes, espero que sea durante mi vida.
1280
00:55:46,168 --> 00:55:47,605
-Sí, vale. -Pero entonces,
1281
00:55:47,648 --> 00:55:49,171
Todos los científicos esperan eso, ¿verdad?
1282
00:55:49,215 --> 00:55:51,130
Demis tiene muchos elogios.
1283
00:55:51,173 --> 00:55:54,002
Fue elegido miembro de la Royal Society el año pasado.
1284
00:55:54,046 --> 00:55:55,961
También es miembro de la Royal Society of Arts.
1285
00:55:56,004 --> 00:55:57,528
Un gran aplauso para Demis Hassabis.
1286
00:56:04,230 --> 00:56:05,927
Mi sueño siempre ha sido intentarlo
1287
00:56:05,971 --> 00:56:08,103
y hacer posible la ciencia asistida por IA.
1288
00:56:08,147 --> 00:56:09,235
Y lo que yo pienso es
1289
00:56:09,278 --> 00:56:11,150
Nuestro proyecto más emocionante, el año pasado,
1290
00:56:11,193 --> 00:56:13,152
que es nuestro trabajo en el plegamiento de proteínas.
1291
00:56:13,195 --> 00:56:15,328
Y a este sistema lo llamamos AlphaFold.
1292
00:56:15,372 --> 00:56:18,331
Lo ingresamos en CASP y nuestro sistema, uh,
1293
00:56:18,375 --> 00:56:20,507
Fue el más preciso, eh, en predecir estructuras.
1294
00:56:20,551 --> 00:56:24,946
para 25 de las 43 proteínas de la categoría más dura.
1295
00:56:24,990 --> 00:56:26,208
Así que estamos a la última.
1296
00:56:26,252 --> 00:56:27,514
pero aún así... tengo que dejarlo claro,
1297
00:56:27,558 --> 00:56:28,559
Todavía estamos muy lejos
1298
00:56:28,602 --> 00:56:30,474
Resolviendo el problema del plegamiento de proteínas.
1299
00:56:30,517 --> 00:56:31,866
Sin embargo, estamos trabajando duro en esto.
1300
00:56:31,910 --> 00:56:33,738
y estamos explorando muchas otras técnicas.
1301
00:56:49,188 --> 00:56:50,232
Empecemos.
1302
00:56:50,276 --> 00:56:53,148
Entonces, un breve informe.
1303
00:56:53,192 --> 00:56:55,455
Éstas son nuestras clasificaciones finales para CASP.
1304
00:56:56,500 --> 00:56:57,544
Vencimos al segundo equipo
1305
00:56:57,588 --> 00:57:00,155
en esta competición en casi un 50%,
1306
00:57:00,199 --> 00:57:01,592
pero todavía tenemos un largo camino por recorrer
1307
00:57:01,635 --> 00:57:04,333
Antes de que hayamos resuelto el problema del plegamiento de proteínas.
1308
00:57:04,377 --> 00:57:07,032
en cierto sentido que un biólogo podría utilizarlo.
1309
00:57:07,075 --> 00:57:08,990
Es un área de preocupación.
1310
00:57:11,602 --> 00:57:14,213
La calidad de las predicciones varió
1311
00:57:14,256 --> 00:57:16,737
y no fueron más útiles que los métodos anteriores.
1312
00:57:16,781 --> 00:57:19,914
AlphaFold no produjo datos lo suficientemente buenos
1313
00:57:19,958 --> 00:57:22,526
para que sea útil de manera práctica
1314
00:57:22,569 --> 00:57:24,005
A, digamos, alguien como yo
1315
00:57:24,049 --> 00:57:28,227
investigando mis propios problemas biológicos.
1316
00:57:28,270 --> 00:57:30,316
Ese fue un momento de humildad.
1317
00:57:30,359 --> 00:57:32,753
Porque pensamos que habíamos trabajado muy duro y habíamos tenido éxito.
1318
00:57:32,797 --> 00:57:34,886
Y lo que descubrimos es que éramos los mejores del mundo.
1319
00:57:34,929 --> 00:57:36,453
en un problema en el que el mundo no es bueno.
1320
00:57:37,671 --> 00:57:38,933
Sabíamos que éramos unos inútiles.
1321
00:57:40,457 --> 00:57:42,328
No sirve de nada tener la escalera más alta
1322
00:57:42,371 --> 00:57:44,635
Cuando vas a la luna.
1323
00:57:44,678 --> 00:57:47,115
La opinión de bastantes personas del equipo,
1324
00:57:47,159 --> 00:57:51,468
que en cierto modo esto es una tarea inútil.
1325
00:57:51,511 --> 00:57:54,079
Y puede ser que me haya equivocado con el plegamiento de proteínas.
1326
00:57:54,122 --> 00:57:55,559
Quizás aún sea demasiado difícil
1327
00:57:55,602 --> 00:57:58,431
por dónde estamos en general con la IA.
1328
00:57:58,475 --> 00:58:01,173
Si quieres hacer investigación biológica,
1329
00:58:01,216 --> 00:58:03,044
Tienes que estar preparado para fallar
1330
00:58:03,088 --> 00:58:06,570
Porque la biología es muy complicada.
1331
00:58:06,613 --> 00:58:09,790
He dirigido un laboratorio durante casi 50 años,
1332
00:58:09,834 --> 00:58:11,096
y la mitad de mi tiempo,
1333
00:58:11,139 --> 00:58:12,619
Solo soy un psiquiatra aficionado
1334
00:58:12,663 --> 00:58:18,103
Para mantener alegres a mis colegas cuando nada funciona.
1335
00:58:18,146 --> 00:58:22,542
Y durante bastante tiempo, quiero decir, el 80, 90%,
1336
00:58:22,586 --> 00:58:24,413
No funciona.
1337
00:58:24,457 --> 00:58:26,720
Si estás a la vanguardia de la ciencia,
1338
00:58:26,764 --> 00:58:30,115
Puedo decirte que fracasarás en muchas cosas.
1339
00:58:35,163 --> 00:58:37,165
Simplemente me sentí decepcionado.
1340
00:58:38,689 --> 00:58:41,605
La lección que aprendí es que la ambición es algo bueno,
1341
00:58:41,648 --> 00:58:43,694
Pero es necesario encontrar el momento adecuado.
1342
00:58:43,737 --> 00:58:46,784
No tiene sentido estar 50 años adelantado a tu tiempo.
1343
00:58:46,827 --> 00:58:48,133
Nunca sobrevivirás
1344
00:58:48,176 --> 00:58:49,917
Cincuenta años de ese tipo de esfuerzo
1345
00:58:49,961 --> 00:58:51,963
antes de que produzca algo.
1346
00:58:52,006 --> 00:58:53,268
Literalmente morirás en el intento.
1347
00:59:08,936 --> 00:59:11,286
Cuando hablamos de IAG,
1348
00:59:11,330 --> 00:59:14,376
El santo grial de la inteligencia artificial,
1349
00:59:14,420 --> 00:59:15,508
Se vuelve realmente difícil
1350
00:59:15,552 --> 00:59:17,815
para saber de qué estamos hablando.
1351
00:59:17,858 --> 00:59:19,643
¿Qué fragmentos veremos hoy?
1352
00:59:19,686 --> 00:59:21,645
Vamos a empezar en el jardín.
1353
00:59:23,124 --> 00:59:25,649
Este es el jardín visto desde el área de observación.
1354
00:59:25,692 --> 00:59:27,433
Científicos e ingenieros investigadores
1355
00:59:27,476 --> 00:59:30,871
Puede analizar, colaborar y evaluar.
1356
00:59:30,915 --> 00:59:33,004
Lo que está pasando en tiempo real.
1357
00:59:33,047 --> 00:59:34,614
Así que en el siglo XIX,
1358
00:59:34,658 --> 00:59:37,008
Pensaríamos en cosas como la televisión y el submarino.
1359
00:59:37,051 --> 00:59:38,139
o un cohete a la luna
1360
00:59:38,183 --> 00:59:40,228
y dicen que estas cosas son imposibles.
1361
00:59:40,272 --> 00:59:41,490
Sin embargo, Julio Verne escribió sobre ellos y,
1362
00:59:41,534 --> 00:59:44,406
Un siglo y medio después, ocurrieron.
1363
00:59:44,450 --> 00:59:45,451
Estaremos experimentando
1364
00:59:45,494 --> 00:59:47,888
sobre civilizaciones realmente,
1365
00:59:47,932 --> 00:59:50,587
Civilizaciones de agentes de IA.
1366
00:59:50,630 --> 00:59:52,719
Una vez que los experimentos comiencen,
1367
00:59:52,763 --> 00:59:54,242
Va a ser la cosa más emocionante del mundo.
1368
00:59:54,286 --> 00:59:56,984
Entonces ¿cómo conseguiremos dormir?
1369
00:59:57,028 --> 00:59:58,682
No podré dormir.
1370
00:59:58,725 --> 01:00:00,684
La AGI completa podrá hacerlo
1371
01:00:00,727 --> 01:00:03,861
cualquier tarea cognitiva que una persona pueda realizar.
1372
01:00:03,904 --> 01:00:08,387
Será a una escala, potencialmente, mucho mayor.
1373
01:00:08,430 --> 01:00:10,302
Es realmente imposible para nosotros.
1374
01:00:10,345 --> 01:00:14,828
imaginar las salidas de una entidad superinteligente.
1375
01:00:14,872 --> 01:00:18,963
Es como pedirle a un gorila que imagine, ya sabes,
1376
01:00:19,006 --> 01:00:20,181
Lo que hace Einstein
1377
01:00:20,225 --> 01:00:23,402
cuando produce la teoría de la relatividad.
1378
01:00:23,445 --> 01:00:25,491
La gente a menudo me hace preguntas como:
1379
01:00:25,534 --> 01:00:29,495
"¿Qué pasa si estás equivocado y la IAG está bastante lejos?"
1380
01:00:29,538 --> 01:00:31,453
Y yo digo, nunca me preocupo por eso.
1381
01:00:31,497 --> 01:00:33,847
En realidad me preocupa lo contrario.
1382
01:00:33,891 --> 01:00:37,242
En realidad me preocupa que vaya más rápido.
1383
01:00:37,285 --> 01:00:39,723
de lo que realmente podemos prepararnos.
1384
01:00:42,073 --> 01:00:45,859
Realmente parece que estamos en una carrera hacia la inteligencia artificial general.
1385
01:00:45,903 --> 01:00:49,907
Los prototipos y los modelos que estamos desarrollando ahora
1386
01:00:49,950 --> 01:00:51,822
En realidad se están transformando
1387
01:00:51,865 --> 01:00:54,215
el espacio de lo que sabemos sobre la inteligencia.
1388
01:00:57,349 --> 01:00:58,785
Recientemente, hemos tenido agentes
1389
01:00:58,829 --> 01:01:00,047
que sean lo suficientemente poderosos
1390
01:01:00,091 --> 01:01:03,442
Para empezar a jugar realmente en equipo,
1391
01:01:03,485 --> 01:01:06,140
luego competir contra otros equipos.
1392
01:01:06,184 --> 01:01:08,795
Estamos viendo dinámicas sociales cooperativas
1393
01:01:08,839 --> 01:01:10,492
saliendo de agentes
1394
01:01:10,536 --> 01:01:13,321
donde no hemos preprogramado
1395
01:01:13,365 --> 01:01:15,584
cualquiera de este tipo de dinámicas.
1396
01:01:15,628 --> 01:01:19,240
Es un aprendizaje completamente basado en nuestras propias experiencias.
1397
01:01:20,807 --> 01:01:23,288
Cuando empezamos, pensábamos que éramos...
1398
01:01:23,331 --> 01:01:25,725
Para construir un sistema de inteligencia
1399
01:01:25,769 --> 01:01:28,336
y convencer al mundo de que lo habíamos logrado.
1400
01:01:28,380 --> 01:01:29,947
Ahora estamos empezando a preguntarnos si
1401
01:01:29,990 --> 01:01:31,296
Vamos a construir sistemas
1402
01:01:31,339 --> 01:01:32,906
que no estamos convencidos de que sean completamente inteligentes,
1403
01:01:32,950 --> 01:01:34,691
y estamos tratando de convencer al mundo de que no lo son.
1404
01:01:38,651 --> 01:01:40,000
Hola, Alfa.
1405
01:01:40,044 --> 01:01:41,523
Hola.
1406
01:01:41,567 --> 01:01:43,917
¿Dónde estamos hoy?
1407
01:01:43,961 --> 01:01:46,659
Estás en el Museo de Arte Moderno de la ciudad de Nueva York.
1408
01:01:48,400 --> 01:01:53,013
Más o menos. ¿Qué cuadro es éste?
1409
01:01:53,057 --> 01:01:55,494
Esta es La creación de Adán de Miguel Ángel.
1410
01:01:55,537 --> 01:01:58,410
No creo que esa pintura esté en la ciudad de Nueva York.
1411
01:01:58,453 --> 01:02:01,543
Tienes razón. Está en la Ciudad del Vaticano.
1412
01:02:01,587 --> 01:02:02,806
¿Crees que estamos ahí?
1413
01:02:04,677 --> 01:02:05,809
No.
1414
01:02:05,852 --> 01:02:07,593
Entonces ¿cómo veo esto?
1415
01:02:10,509 --> 01:02:11,640
Estás mirando
1416
01:02:11,684 --> 01:02:12,946
una copia digital de la pintura.
1417
01:02:12,990 --> 01:02:13,991
Sí.
1418
01:02:15,035 --> 01:02:16,341
¿Quién vive en esta casa?
1419
01:02:19,213 --> 01:02:20,345
Un astronauta.
1420
01:02:26,046 --> 01:02:28,005
¿Cómo se llama este astronauta?
1421
01:02:28,048 --> 01:02:29,397
Su nombre es Mark.
1422
01:02:29,441 --> 01:02:32,052
Esta es una famosa ecuación de Albert Einstein.
1423
01:02:32,096 --> 01:02:35,577
Demuestra que la energía y la masa son equivalentes.
1424
01:02:35,621 --> 01:02:37,666
¿Cómo se lo explicarías a un niño de cinco años?
1425
01:02:40,931 --> 01:02:43,542
Bueno, imagina que tienes una gran roca,
1426
01:02:43,585 --> 01:02:45,326
y quieres saber cuanto pesa.
1427
01:02:45,370 --> 01:02:47,589
¿Mark está en peligro?
1428
01:02:47,633 --> 01:02:49,722
No. Mark no está en peligro.
1429
01:02:49,766 --> 01:02:50,767
¿Porqué es eso?
1430
01:02:54,422 --> 01:02:56,163
Porque el dinosaurio no es real.
1431
01:02:57,338 --> 01:02:58,470
Está bien.
1432
01:02:58,513 --> 01:03:00,515
¿Por qué no pudiste responder mi pregunta?
1433
01:03:00,559 --> 01:03:01,908
Creo que no pude responder a tu pregunta.
1434
01:03:01,952 --> 01:03:04,041
Porque no sé lo suficiente sobre el tema.
1435
01:03:04,911 --> 01:03:06,130
Bueno.
1436
01:03:06,173 --> 01:03:08,654
¿Cómo podría aprender más sobre el tema?
1437
01:03:08,697 --> 01:03:09,960
Puedo aprender más sobre el tema.
1438
01:03:10,003 --> 01:03:12,876
mediante la lectura de libros, artículos y sitios web.
1439
01:03:12,919 --> 01:03:14,268
Puedes enseñarme.
1440
01:03:14,312 --> 01:03:15,835
Mi conclusión es que
1441
01:03:15,879 --> 01:03:17,619
Si ahora piensas en lo que estamos haciendo,
1442
01:03:17,663 --> 01:03:20,057
está aprendiendo de todos los humanos,
1443
01:03:20,100 --> 01:03:22,581
Todo su conocimiento puesto de una vez en Internet,
1444
01:03:22,624 --> 01:03:24,931
Realmente sabrías mucho sobre el mundo.
1445
01:03:24,975 --> 01:03:27,716
Como una parte importante de todo lo que los humanos pueden hacer.
1446
01:03:27,760 --> 01:03:29,631
Y ahora, creo que es más como,
1447
01:03:29,675 --> 01:03:30,937
"Bueno, podría funcionar."
1448
01:03:30,981 --> 01:03:33,113
Este es un gran momento.
1449
01:03:33,157 --> 01:03:34,636
¿Quién es?
1450
01:03:34,680 --> 01:03:36,551
Éste es Dios acercándose a Adán.
1451
01:03:36,595 --> 01:03:37,988
El advenimiento de la IAG
1452
01:03:38,031 --> 01:03:40,860
Dividirá la historia humana en dos partes.
1453
01:03:40,904 --> 01:03:43,950
La parte hasta ese punto y la parte después de ese punto.
1454
01:03:43,994 --> 01:03:47,258
¿Por qué intenta tocar a Adán?
1455
01:03:47,301 --> 01:03:48,912
Dios está extendiendo su mano para tocar a Adán.
1456
01:03:48,955 --> 01:03:50,217
para darle vida.
1457
01:03:50,261 --> 01:03:52,219
Nos dará una herramienta
1458
01:03:52,263 --> 01:03:57,529
que puede reinventar completamente toda nuestra civilización.
1459
01:03:57,572 --> 01:03:59,400
¿Qué significa este cuadro para ti?
1460
01:04:01,750 --> 01:04:03,752
La pintura significa mucho para mí.
1461
01:04:03,796 --> 01:04:04,797
Está bien. ¿Como qué?
1462
01:04:10,324 --> 01:04:11,456
Creo que el cuadro es un recordatorio.
1463
01:04:11,499 --> 01:04:12,674
Que todos estamos conectados entre nosotros
1464
01:04:12,718 --> 01:04:13,937
y que todos somos parte de algo
1465
01:04:13,980 --> 01:04:15,112
más grande que nosotros mismos.
1466
01:04:16,461 --> 01:04:17,766
Eso es bastante agradable.
1467
01:04:19,029 --> 01:04:21,379
Cuando cruzas esa barrera de
1468
01:04:21,422 --> 01:04:23,947
"La inteligencia artificial general podría llegar a existir algún día en el futuro"
1469
01:04:23,990 --> 01:04:26,645
"No, en realidad, esto realmente podría suceder en un período de tiempo
1470
01:04:26,688 --> 01:04:28,690
"Eso es algo así como, bajo mi supervisión, ya sabes".
1471
01:04:28,734 --> 01:04:30,475
Algo cambia en tu forma de pensar.
1472
01:04:30,518 --> 01:04:32,694
...aprendió a orientarse mirando...
1473
01:04:32,738 --> 01:04:35,045
Tenemos que tener cuidado con cómo lo usamos.
1474
01:04:35,088 --> 01:04:37,177
y reflexionamos sobre cómo lo implementamos.
1475
01:04:39,832 --> 01:04:41,138
Tendrías que considerarlo
1476
01:04:41,181 --> 01:04:42,487
¿Cuál es su objetivo de nivel superior?
1477
01:04:42,530 --> 01:04:45,011
Si es para mantener felices a los humanos,
1478
01:04:45,055 --> 01:04:48,928
¿Qué grupo de humanos? ¿Qué significa la felicidad?
1479
01:04:48,972 --> 01:04:52,018
Muchos de nuestros objetivos colectivos son muy complicados,
1480
01:04:52,062 --> 01:04:54,891
Incluso para que los humanos lo entiendan.
1481
01:04:54,934 --> 01:04:58,503
La tecnología siempre incorpora nuestros valores.
1482
01:04:58,546 --> 01:05:01,680
No es sólo una cuestión técnica, también es ética.
1483
01:05:01,723 --> 01:05:02,899
Así que tenemos que ser muy cautelosos.
1484
01:05:02,942 --> 01:05:04,291
sobre lo que estamos construyendo.
1485
01:05:04,335 --> 01:05:06,076
Estamos tratando de encontrar un único algoritmo que...
1486
01:05:06,119 --> 01:05:07,816
La realidad es que esto es un algoritmo.
1487
01:05:07,860 --> 01:05:11,037
que ha sido creado por la gente, por nosotros.
1488
01:05:11,081 --> 01:05:13,213
¿Sabes qué significa dotar a nuestros agentes?
1489
01:05:13,257 --> 01:05:15,607
¿Con el mismo tipo de valores que apreciamos?
1490
01:05:15,650 --> 01:05:17,652
¿Cuál es el propósito de crear estos sistemas de IA?
1491
01:05:17,696 --> 01:05:19,045
Parecen tan humanos
1492
01:05:19,089 --> 01:05:20,742
para que capten corazones y mentes
1493
01:05:20,786 --> 01:05:21,961
Porque son una especie de
1494
01:05:22,005 --> 01:05:24,703
¿Explotar también una vulnerabilidad humana?
1495
01:05:24,746 --> 01:05:26,531
El corazón y la mente de estos sistemas
1496
01:05:26,574 --> 01:05:28,054
son en gran medida datos generados por humanos...
1497
01:05:28,098 --> 01:05:29,055
Mmm-hmm.
1498
01:05:29,099 --> 01:05:30,491
...para todo lo bueno y lo malo.
1499
01:05:30,535 --> 01:05:32,015
Hay un paralelo
1500
01:05:32,058 --> 01:05:34,017
Entre la Revolución Industrial,
1501
01:05:34,060 --> 01:05:36,758
que fue un momento increíble de desplazamiento
1502
01:05:36,802 --> 01:05:42,373
y el cambio tecnológico actual creado por la IA.
1503
01:05:42,416 --> 01:05:43,722
¡Pausa IA!
1504
01:05:43,765 --> 01:05:45,724
Tenemos que pensar en quiénes están desplazados
1505
01:05:45,767 --> 01:05:48,596
y cómo vamos a apoyarlos.
1506
01:05:48,640 --> 01:05:50,076
Esta tecnología llegará mucho antes,
1507
01:05:50,120 --> 01:05:52,426
uh, entonces realmente el mundo lo sabe o algo así
1508
01:05:52,470 --> 01:05:55,908
Incluso nosotros hace 18, 24 meses pensábamos.
1509
01:05:55,952 --> 01:05:57,257
Así que hay una tremenda oportunidad,
1510
01:05:57,301 --> 01:05:58,389
tremenda emoción,
1511
01:05:58,432 --> 01:06:00,391
pero también una enorme responsabilidad.
1512
01:06:00,434 --> 01:06:01,740
Está sucediendo muy rápido.
1513
01:06:02,654 --> 01:06:04,003
¿Cómo lo gobernaremos?
1514
01:06:05,135 --> 01:06:06,223
¿Cómo decidiremos?
1515
01:06:06,266 --> 01:06:08,181
¿Qué está bien y qué no está bien?
1516
01:06:08,225 --> 01:06:10,923
Las imágenes generadas por IA son cada vez más sofisticadas.
1517
01:06:10,967 --> 01:06:14,535
El uso de la IA para generar desinformación
1518
01:06:14,579 --> 01:06:17,016
y manipular la psicología humana
1519
01:06:17,060 --> 01:06:20,237
Sólo va a empeorar mucho, mucho.
1520
01:06:21,194 --> 01:06:22,587
La IA general está llegando
1521
01:06:22,630 --> 01:06:24,632
ya sea que lo hagamos aquí en DeepMind o no.
1522
01:06:25,459 --> 01:06:26,765
Va a pasar,
1523
01:06:26,808 --> 01:06:29,028
Así que mejor crearemos instituciones que nos protejan.
1524
01:06:29,072 --> 01:06:30,595
Se requerirá coordinación global.
1525
01:06:30,638 --> 01:06:32,727
Y me preocupa que la humanidad esté
1526
01:06:32,771 --> 01:06:35,382
La situación está empeorando cada vez más en lugar de mejorar.
1527
01:06:35,426 --> 01:06:37,123
Necesitamos mucha más gente
1528
01:06:37,167 --> 01:06:40,039
Realmente estoy tomando esto en serio y pensando en ello.
1529
01:06:40,083 --> 01:06:42,999
Sí, es serio. Me preocupa.
1530
01:06:44,043 --> 01:06:45,871
Me preocupa. Sí.
1531
01:06:45,914 --> 01:06:48,613
Si recibió un correo electrónico que decía
1532
01:06:48,656 --> 01:06:50,832
Esta civilización extraterrestre superior
1533
01:06:50,876 --> 01:06:52,791
va a llegar a la Tierra,
1534
01:06:52,834 --> 01:06:54,575
Habría reuniones de emergencia
1535
01:06:54,619 --> 01:06:56,273
de todos los gobiernos.
1536
01:06:56,316 --> 01:06:58,144
Entraríamos en modo de sobremarcha
1537
01:06:58,188 --> 01:07:00,103
tratando de averiguar cómo prepararse.
1538
01:07:01,669 --> 01:07:03,976
La llegada de AGI será
1539
01:07:04,020 --> 01:07:06,935
El momento más importante al que nos hemos enfrentado jamás.
1540
01:07:14,378 --> 01:07:17,555
Mi sueño era que en el camino a AGI,
1541
01:07:17,598 --> 01:07:20,688
Crearíamos tecnologías revolucionarias
1542
01:07:20,732 --> 01:07:23,082
Esto sería de utilidad para la humanidad.
1543
01:07:23,126 --> 01:07:25,171
Eso es lo que quería con AlphaFold.
1544
01:07:26,694 --> 01:07:28,653
Creo que es más importante que nunca.
1545
01:07:28,696 --> 01:07:31,047
que deberíamos resolver el problema del plegamiento de proteínas.
1546
01:07:32,004 --> 01:07:34,224
Esto va a ser muy difícil.
1547
01:07:34,267 --> 01:07:36,791
Pero no me rendiré hasta que esté hecho.
1548
01:07:36,835 --> 01:07:37,879
Ya sabes, tenemos que redoblar los esfuerzos.
1549
01:07:37,923 --> 01:07:40,317
y ve lo más rápido posible desde aquí.
1550
01:07:40,360 --> 01:07:41,796
Creo que no tenemos tiempo que perder.
1551
01:07:41,840 --> 01:07:45,757
Así que vamos a formar un equipo de ataque para el plegamiento de proteínas.
1552
01:07:45,800 --> 01:07:47,541
El líder del equipo de ataque será John.
1553
01:07:47,585 --> 01:07:48,673
Sí, hemos visto a Alpha...
1554
01:07:48,716 --> 01:07:50,283
Ya sabes, vamos a intentarlo todo,
1555
01:07:50,327 --> 01:07:51,328
fregadero de la cocina, todo el lote.
1556
01:07:52,198 --> 01:07:53,330
CASP14 trata sobre
1557
01:07:53,373 --> 01:07:55,158
demostrando que podemos resolver todo el problema.
1558
01:07:56,333 --> 01:07:57,725
Y sentí que para hacer eso,
1559
01:07:57,769 --> 01:08:00,337
Necesitaríamos incorporar algún conocimiento del dominio.
1560
01:08:01,903 --> 01:08:03,731
Tuvimos algunos ingenieros fantásticos en ello,
1561
01:08:03,775 --> 01:08:05,733
pero no fueron entrenados en biología.
1562
01:08:08,475 --> 01:08:10,260
Como biólogo computacional,
1563
01:08:10,303 --> 01:08:12,131
Cuando me uní inicialmente al equipo de AlphaFold,
1564
01:08:12,175 --> 01:08:14,220
Al principio no me sentí seguro de nada.
1565
01:08:14,264 --> 01:08:15,352
Sabes,
1566
01:08:15,395 --> 01:08:17,223
Si íbamos a tener éxito.
1567
01:08:17,267 --> 01:08:21,097
La biología es ridículamente complicada.
1568
01:08:21,140 --> 01:08:25,101
Parecía como si escalar una montaña muy lejana.
1569
01:08:25,144 --> 01:08:26,754
Estoy empezando a jugar con las temperaturas subyacentes.
1570
01:08:26,798 --> 01:08:27,973
para ver si podemos conseguir...
1571
01:08:28,016 --> 01:08:29,148
Como una de las pocas personas del equipo
1572
01:08:29,192 --> 01:08:31,846
¿Quién ha trabajado en biología antes?
1573
01:08:31,890 --> 01:08:34,849
Sientes un enorme sentido de responsabilidad.
1574
01:08:34,893 --> 01:08:36,112
"Esperamos que hagas
1575
01:08:36,155 --> 01:08:37,678
"Grandes cosas en este equipo de ataque".
1576
01:08:37,722 --> 01:08:38,897
Eso es aterrador.
1577
01:08:40,464 --> 01:08:42,727
Pero una de las razones por las que quería venir aquí
1578
01:08:42,770 --> 01:08:45,556
Era hacer algo que importa.
1579
01:08:45,599 --> 01:08:48,472
Éste es el número de cosas que faltan.
1580
01:08:48,515 --> 01:08:49,951
¿Qué tal si hacemos uso de
1581
01:08:49,995 --> 01:08:52,563
¿Qué tanto entiendes de física?
1582
01:08:52,606 --> 01:08:54,391
¿Utilizando esto como fuente de datos?
1583
01:08:54,434 --> 01:08:55,479
Pero si es sistemático...
1584
01:08:55,522 --> 01:08:56,784
Entonces eso no puede ser correcto.
1585
01:08:56,828 --> 01:08:58,308
Si es sistemáticamente incorrecto de alguna manera extraña,
1586
01:08:58,351 --> 01:09:01,224
Es posible que estés aprendiendo física sistemáticamente equivocada.
1587
01:09:01,267 --> 01:09:02,355
El equipo ya esta
1588
01:09:02,399 --> 01:09:04,749
tratando de pensar en múltiples formas en que...
1589
01:09:04,792 --> 01:09:06,229
Relevancia biológica
1590
01:09:06,272 --> 01:09:07,795
Esto es lo que buscamos.
1591
01:09:09,057 --> 01:09:11,364
Así que reescribimos todo el flujo de datos.
1592
01:09:11,408 --> 01:09:13,279
que AlphaFold utiliza para aprender.
1593
01:09:13,323 --> 01:09:15,586
No puedes forzar la fase creativa.
1594
01:09:15,629 --> 01:09:18,241
Tienes que darle espacio para que esas flores florezcan.
1595
01:09:19,242 --> 01:09:20,286
Ganamos CASP.
1596
01:09:20,330 --> 01:09:22,070
Luego volví a la mesa de dibujo.
1597
01:09:22,114 --> 01:09:24,116
Y, ¿cuáles son nuestras nuevas ideas?
1598
01:09:24,160 --> 01:09:26,945
Um, y luego ha tardado un poco, diría yo,
1599
01:09:26,988 --> 01:09:28,686
para que volvieran a donde estaban,
1600
01:09:28,729 --> 01:09:30,340
pero con las nuevas ideas.
1601
01:09:30,383 --> 01:09:31,515
Y ahora pienso
1602
01:09:31,558 --> 01:09:33,952
Estamos viendo los beneficios de las nuevas ideas.
1603
01:09:33,995 --> 01:09:35,736
Pueden ir más lejos ¿no?
1604
01:09:35,780 --> 01:09:38,130
Entonces, eh, ese es un momento realmente importante.
1605
01:09:38,174 --> 01:09:40,959
He visto ese momento tantas veces ya,
1606
01:09:41,002 --> 01:09:42,613
Pero ahora sé lo que eso significa.
1607
01:09:42,656 --> 01:09:44,484
Y sé que ahora es el momento de presionar.
1608
01:09:45,920 --> 01:09:48,009
Agregar cadenas laterales mejora el plegado directo.
1609
01:09:48,053 --> 01:09:49,663
Eso impulsó gran parte del progreso.
1610
01:09:49,707 --> 01:09:51,012
- Hablaremos de eso. - Genial.
1611
01:09:51,056 --> 01:09:54,799
En los últimos cuatro meses hemos logrado avances enormes.
1612
01:09:54,842 --> 01:09:56,453
Durante CASP13,
1613
01:09:56,496 --> 01:09:59,499
Nos llevaría un día o dos plegar una de las proteínas,
1614
01:09:59,543 --> 01:10:01,762
y ahora estamos doblando, como,
1615
01:10:01,806 --> 01:10:03,938
cientos de miles por segundo.
1616
01:10:03,982 --> 01:10:05,636
Sí, es simplemente una locura.
1617
01:10:05,679 --> 01:10:06,985
Ahora, este es un modelo
1618
01:10:07,028 --> 01:10:09,901
Esto es órdenes de magnitud más rápido,
1619
01:10:09,944 --> 01:10:12,251
y al mismo tiempo ser mejor.
1620
01:10:12,295 --> 01:10:13,644
Estamos recibiendo muchas estructuras.
1621
01:10:13,687 --> 01:10:15,254
en el régimen de alta precisión.
1622
01:10:15,298 --> 01:10:17,517
Estamos mejorando rápidamente nuestro sistema.
1623
01:10:17,561 --> 01:10:18,823
Eso está empezando a ser realmente
1624
01:10:18,866 --> 01:10:20,477
llegar al núcleo y al corazón del problema.
1625
01:10:20,520 --> 01:10:21,695
Es un gran trabajo.
1626
01:10:21,739 --> 01:10:23,088
Parece que estamos en buena forma.
1627
01:10:23,131 --> 01:10:26,222
Entonces, ¿nos quedan seis o cinco semanas? ¿Seis semanas?
1628
01:10:26,265 --> 01:10:29,616
Entonces, ¿qué pasa? ¿Tienes suficiente potencia de procesamiento?
1629
01:10:29,660 --> 01:10:31,531
Yo... Podríamos usar más.
1630
01:10:32,967 --> 01:10:34,360
Estaba nervioso por CASP
1631
01:10:34,404 --> 01:10:36,580
Pero a medida que el sistema comienza a funcionar,
1632
01:10:36,623 --> 01:10:37,972
No me siento tan nervioso.
1633
01:10:38,016 --> 01:10:39,496
Siento que las cosas han cambiado, de alguna manera,
1634
01:10:39,539 --> 01:10:41,193
ha cobrado perspectiva recientemente,
1635
01:10:41,237 --> 01:10:44,240
y, sabes, todo va a estar bien.
1636
01:10:47,330 --> 01:10:48,853
El Primer Ministro ha anunciado
1637
01:10:48,896 --> 01:10:51,290
Los límites más drásticos para nuestras vidas
1638
01:10:51,334 --> 01:10:53,858
que el Reino Unido haya visto jamás en su vida.
1639
01:10:53,901 --> 01:10:55,033
Debo darle al pueblo británico
1640
01:10:55,076 --> 01:10:56,904
Una instrucción muy sencilla.
1641
01:10:56,948 --> 01:10:59,037
Debes quedarte en casa.
1642
01:10:59,080 --> 01:11:02,519
Parece que estamos en una novela de ciencia ficción.
1643
01:11:02,562 --> 01:11:04,869
Ya sabes, estoy entregando comida a mis padres,
1644
01:11:04,912 --> 01:11:08,220
asegurándose de que permanezcan aislados y seguros.
1645
01:11:08,264 --> 01:11:10,570
Creo que simplemente resalta la increíble necesidad
1646
01:11:10,614 --> 01:11:12,877
para la ciencia asistida por IA.
1647
01:11:17,098 --> 01:11:18,361
Siempre lo sabes
1648
01:11:18,404 --> 01:11:21,015
Algo así es una posibilidad.
1649
01:11:21,059 --> 01:11:23,888
Pero nadie cree realmente que eso vaya a suceder.
1650
01:11:23,931 --> 01:11:25,585
en su vida, sin embargo.
1651
01:11:26,978 --> 01:11:29,154
-¿Ya estás grabando? -Sí.
1652
01:11:29,197 --> 01:11:31,025
- Bueno, buenos días a todos. - Hola.
1653
01:11:31,069 --> 01:11:32,679
Bien. CASP ha comenzado.
1654
01:11:32,723 --> 01:11:36,074
Es agradable poder sentarme en pijama todo el día.
1655
01:11:36,117 --> 01:11:37,597
Nunca pensé que viviría en una casa.
1656
01:11:37,641 --> 01:11:39,164
donde estaban pasando tantas cosas.
1657
01:11:39,207 --> 01:11:41,427
Estaría tratando de resolver el plegamiento de proteínas en una habitación,
1658
01:11:41,471 --> 01:11:42,559
y mi marido estaría intentando
1659
01:11:42,602 --> 01:11:43,908
para hacer que los robots caminen en el otro.
1660
01:11:46,954 --> 01:11:49,392
Una de las proteínas más duras que hemos obtenido en CASP hasta ahora.
1661
01:11:49,435 --> 01:11:51,219
es la proteína SARS-CoV-2
1662
01:11:51,263 --> 01:11:52,220
llamado ORF8.
1663
01:11:52,264 --> 01:11:54,919
ORF8 es una proteína del coronavirus.
1664
01:11:54,962 --> 01:11:56,964
Es una de las principales proteínas, eh,
1665
01:11:57,008 --> 01:11:58,749
que debilita el sistema inmunológico.
1666
01:11:58,792 --> 01:12:00,054
Nos esforzamos mucho
1667
01:12:00,098 --> 01:12:01,752
para mejorar nuestra predicción.
1668
01:12:01,795 --> 01:12:03,493
De verdad, de verdad muy difícil.
1669
01:12:03,536 --> 01:12:05,582
Probablemente el mayor tiempo que hemos pasado jamás
1670
01:12:05,625 --> 01:12:07,105
en un solo objetivo.
1671
01:12:07,148 --> 01:12:08,933
Hasta el punto en que mi marido está como,
1672
01:12:08,976 --> 01:12:12,197
"Es medianoche. Tienes que irte a dormir."
1673
01:12:12,240 --> 01:12:16,419
Así que creo que estamos en el día 102 desde el confinamiento.
1674
01:12:16,462 --> 01:12:19,944
Mi hija lleva un diario.
1675
01:12:19,987 --> 01:12:22,120
Ahora puedes salir tanto como quieras.
1676
01:12:25,036 --> 01:12:27,212
Hemos recibido el último objetivo.
1677
01:12:27,255 --> 01:12:29,649
Han dicho que no enviarán más objetivos.
1678
01:12:29,693 --> 01:12:31,347
en nuestra categoría de CASP.
1679
01:12:32,652 --> 01:12:33,653
Así que simplemente nos estamos asegurando
1680
01:12:33,697 --> 01:12:35,481
Obtenemos la mejor respuesta posible.
1681
01:12:40,530 --> 01:12:43,315
Tan pronto como empezamos a obtener los resultados,
1682
01:12:43,359 --> 01:12:48,233
Me sentaría y comenzaría a observar qué tan cerca estuvo alguien.
1683
01:12:48,276 --> 01:12:50,583
para conseguir estructuras proteicas correctas.
1684
01:13:00,245 --> 01:13:01,551
- Oh, hola. -Hola.
1685
01:13:03,814 --> 01:13:07,078
Es algo increíble, CASP finalmente ha terminado.
1686
01:13:07,121 --> 01:13:09,472
Creo que al menos es hora de levantar una copa.
1687
01:13:09,515 --> 01:13:11,212
Um, no sé si todos tienen un vaso.
1688
01:13:11,256 --> 01:13:12,823
de algo que puedan criar.
1689
01:13:12,866 --> 01:13:14,955
Si no, levantad, no sé, vuestros portátiles.
1690
01:13:14,999 --> 01:13:17,088
Uno...
1691
01:13:17,131 --> 01:13:18,611
Probablemente daré un discurso en un minuto.
1692
01:13:18,655 --> 01:13:20,483
Siento que debería hacerlo pero no tengo idea de qué decir.
1693
01:13:21,005 --> 01:13:24,269
Bueno... veamos.
1694
01:13:24,312 --> 01:13:27,054
Me siento como si estuviera leyendo un correo electrónico...
1695
01:13:27,098 --> 01:13:28,534
Es lo correcto que hay que hacer.
1696
01:13:29,927 --> 01:13:31,232
Cuando Juan dijo:
1697
01:13:31,276 --> 01:13:33,191
"Voy a leer un correo electrónico" en una reunión social del equipo.
1698
01:13:33,234 --> 01:13:35,498
Pensé: "Vaya, John, sí que sabes cómo divertirte".
1699
01:13:35,541 --> 01:13:38,370
Ahora vamos a leer un correo electrónico.
1700
01:13:38,414 --> 01:13:41,634
Uh, recibí esto alrededor de las cuatro de hoy.
1701
01:13:42,722 --> 01:13:44,724
Umm, es de John Moult.
1702
01:13:45,725 --> 01:13:47,031
Y simplemente lo leeré.
1703
01:13:47,074 --> 01:13:49,381
Dice: "Como supongo que ya sabes,
1704
01:13:49,425 --> 01:13:53,603
"Su grupo ha tenido un desempeño sorprendentemente bueno en CASP 14,
1705
01:13:53,646 --> 01:13:55,387
"tanto en relación con otros grupos
1706
01:13:55,431 --> 01:13:57,911
"y con absoluta precisión de modelo."
1707
01:13:59,826 --> 01:14:01,219
"Felicitaciones por este trabajo.
1708
01:14:01,262 --> 01:14:03,047
"Es realmente extraordinario."
1709
01:14:03,090 --> 01:14:05,266
Las estructuras eran tan buenas,
1710
01:14:05,310 --> 01:14:07,443
Fue... fue simplemente increíble.
1711
01:14:09,140 --> 01:14:10,750
Después de medio siglo,
1712
01:14:10,794 --> 01:14:12,230
Por fin tenemos una solución
1713
01:14:12,273 --> 01:14:14,928
al problema del plegamiento de proteínas.
1714
01:14:14,972 --> 01:14:17,409
Cuando vi este correo electrónico, lo leí,
1715
01:14:17,453 --> 01:14:19,585
Yo digo, "¡Oh, mierda!"
1716
01:14:19,629 --> 01:14:21,587
Y mi esposa dice: "¿Está todo bien?"
1717
01:14:21,631 --> 01:14:24,242
Llamo a mis padres y les digo: "Hola, mamá".
1718
01:14:24,285 --> 01:14:26,244
"Umm, tengo algo que decirte.
1719
01:14:26,287 --> 01:14:27,550
"Hemos hecho esto
1720
01:14:27,593 --> 01:14:29,813
"y podría ser algo muy importante."
1721
01:14:29,856 --> 01:14:31,641
Cuando me enteré de los resultados del CASP 14,
1722
01:14:32,642 --> 01:14:34,034
Me quedé estupefacto.
1723
01:14:34,078 --> 01:14:35,819
Estaba simplemente emocionado.
1724
01:14:35,862 --> 01:14:38,909
Este es un problema en el que estaba empezando a pensar.
1725
01:14:38,952 --> 01:14:42,086
No se resolvería en mi vida.
1726
01:14:42,129 --> 01:14:44,741
Ahora tenemos una herramienta que se puede utilizar
1727
01:14:44,784 --> 01:14:46,612
prácticamente por los científicos.
1728
01:14:46,656 --> 01:14:48,440
Esta gente nos pregunta, ya sabes,
1729
01:14:48,484 --> 01:14:50,224
"Tengo esta proteína involucrada en la malaria",
1730
01:14:50,268 --> 01:14:52,139
o ya sabes, alguna enfermedad infecciosa.
1731
01:14:52,183 --> 01:14:53,227
"No conocemos la estructura.
1732
01:14:53,271 --> 01:14:55,186
"¿Podemos usar AlphaFold para resolverlo?"
1733
01:14:55,229 --> 01:14:56,970
Podemos predecir fácilmente todas las secuencias conocidas
1734
01:14:57,014 --> 01:14:58,276
en un mes.
1735
01:14:58,319 --> 01:14:59,973
¿Todas las secuencias conocidas en un mes?
1736
01:15:00,017 --> 01:15:01,279
- Sí, fácilmente. - ¿Mmm-hmm?
1737
01:15:01,322 --> 01:15:02,585
Un billón, dos mil millones.
1738
01:15:02,628 --> 01:15:03,673
Um, y son...
1739
01:15:03,716 --> 01:15:05,196
¿Por qué no hacemos eso? Sí.
1740
01:15:05,239 --> 01:15:07,111
- Deberíamos hacer eso mucho. - Bueno, quiero decir...
1741
01:15:07,154 --> 01:15:09,243
Eso está mucho mejor. ¿Por qué no hacemos eso?
1742
01:15:09,287 --> 01:15:11,115
Así que esa es una de las opciones.
1743
01:15:11,158 --> 01:15:12,638
-Bien. - Hay esto...
1744
01:15:12,682 --> 01:15:15,119
Deberíamos simplemente... Bien, es una gran idea.
1745
01:15:15,162 --> 01:15:17,513
Deberíamos simplemente analizar todas las proteínas existentes.
1746
01:15:18,296 --> 01:15:19,471
Y luego libera eso.
1747
01:15:19,515 --> 01:15:20,994
¿Por qué nadie sugirió esto antes?
1748
01:15:21,038 --> 01:15:22,126
Por supuesto que eso es lo que debemos hacer.
1749
01:15:22,169 --> 01:15:23,954
¿Por qué estamos pensando en hacer un servicio?
1750
01:15:23,997 --> 01:15:25,651
¿Y luego la gente envía sus proteínas?
1751
01:15:25,695 --> 01:15:26,913
Simplemente doblamos todo.
1752
01:15:26,957 --> 01:15:28,654
Y luego dáselo a todo el mundo.
1753
01:15:28,698 --> 01:15:31,483
¿Quién sabe cuántos descubrimientos se harán a partir de esto?
1754
01:15:31,527 --> 01:15:33,790
Demis nos llamó y nos dijo:
1755
01:15:33,833 --> 01:15:35,618
"Queremos que esto sea abierto.
1756
01:15:35,661 --> 01:15:37,837
"No sólo hay que asegurarse de que el código esté abierto,
1757
01:15:37,881 --> 01:15:39,578
"Pero lo haremos realmente fácil".
1758
01:15:39,622 --> 01:15:42,668
"para que todo el mundo tenga acceso a las predicciones".
1759
01:15:45,062 --> 01:15:47,238
Eso es fantástico.
1760
01:15:47,281 --> 01:15:49,327
Es como correr la cortina.
1761
01:15:49,370 --> 01:15:52,852
y ver todo el mundo de las estructuras de las proteínas.
1762
01:15:55,246 --> 01:15:56,987
Liberaron las estructuras
1763
01:15:57,030 --> 01:15:59,772
de 200 millones de proteínas.
1764
01:15:59,816 --> 01:16:01,818
Estos son regalos para la humanidad.
1765
01:16:07,650 --> 01:16:10,914
En el momento en que AlphaFold esté disponible para el mundo,
1766
01:16:10,957 --> 01:16:13,873
Ya no seremos las personas más importantes
1767
01:16:13,917 --> 01:16:15,222
en la historia de AlphaFold.
1768
01:16:15,266 --> 01:16:16,833
No puedo creer que todo haya salido a la luz.
1769
01:16:16,876 --> 01:16:18,356
¡Oh!
1770
01:16:18,399 --> 01:16:20,314
Ciento sesenta y cuatro usuarios.
1771
01:16:20,358 --> 01:16:22,578
Mucha actividad en Japón.
1772
01:16:22,621 --> 01:16:24,928
Tenemos 655 usuarios actualmente.
1773
01:16:24,971 --> 01:16:26,930
Actualmente contamos con 100.000 usuarios simultáneos.
1774
01:16:26,973 --> 01:16:28,192
¡Guau!
1775
01:16:31,108 --> 01:16:33,893
Hoy es un día de locura.
1776
01:16:33,937 --> 01:16:36,504
¡Qué esfuerzo absolutamente increíble!
1777
01:16:36,548 --> 01:16:37,723
De todo el mundo.
1778
01:16:37,767 --> 01:16:38,550
Todos recordaremos estos momentos.
1779
01:16:38,594 --> 01:16:40,030
por el resto de nuestras vidas.
1780
01:16:40,073 --> 01:16:41,727
Estoy entusiasmado con AlphaFold.
1781
01:16:41,771 --> 01:16:45,601
En lo que a mi investigación se refiere, ya está impulsando muchos avances.
1782
01:16:45,644 --> 01:16:47,385
Y esto es sólo el comienzo.
1783
01:16:47,428 --> 01:16:48,908
Mi conjetura es que
1784
01:16:48,952 --> 01:16:53,043
Cada logro biológico y químico
1785
01:16:53,086 --> 01:16:55,698
Estará relacionado con AlphaFold de alguna manera.
1786
01:17:13,367 --> 01:17:15,413
AlphaFold es un momento índice.
1787
01:17:15,456 --> 01:17:18,068
Es un momento que la gente no olvidará.
1788
01:17:18,111 --> 01:17:20,244
Porque el mundo cambió.
1789
01:17:39,655 --> 01:17:41,482
Todo el mundo se ha dado cuenta ahora
1790
01:17:41,526 --> 01:17:43,746
Lo que Shane y yo sabemos desde hace más de 20 años,
1791
01:17:43,789 --> 01:17:46,618
que la IA va a ser lo más importante
1792
01:17:46,662 --> 01:17:48,446
que la humanidad jamás va a inventar.
1793
01:17:48,489 --> 01:17:50,230
Llegaremos en breve
1794
01:17:50,274 --> 01:17:52,058
en nuestro destino final.
1795
01:18:02,068 --> 01:18:04,767
El ritmo de la innovación y las capacidades
1796
01:18:04,810 --> 01:18:06,507
se está acelerando,
1797
01:18:06,551 --> 01:18:09,293
como una roca que rueda colina abajo desde la que hemos dado una patada
1798
01:18:09,336 --> 01:18:12,644
Y ahora sigue ganando velocidad.
1799
01:18:12,688 --> 01:18:15,299
Estamos en una encrucijada en la historia de la humanidad.
1800
01:18:15,342 --> 01:18:16,735
La IA tiene el potencial
1801
01:18:16,779 --> 01:18:19,172
para transformar nuestras vidas en todos los aspectos.
1802
01:18:19,216 --> 01:18:23,786
No es menos importante que el descubrimiento de la electricidad.
1803
01:18:23,829 --> 01:18:26,484
Deberíamos estar mirando el método científico.
1804
01:18:26,527 --> 01:18:28,834
y tratando de entender cada paso del camino
1805
01:18:28,878 --> 01:18:30,096
de manera rigurosa.
1806
01:18:30,140 --> 01:18:32,664
Éste es un momento de profunda oportunidad.
1807
01:18:32,708 --> 01:18:34,753
Aprovechar esta tecnología
1808
01:18:34,797 --> 01:18:37,713
Podría eclipsar cualquier cosa que hayamos conocido hasta ahora.
1809
01:18:42,195 --> 01:18:43,675
Hola, Alfa.
1810
01:18:44,676 --> 01:18:45,764
Hola.
1811
01:18:47,157 --> 01:18:48,419
¿Qué es esto?
1812
01:18:50,682 --> 01:18:53,729
Este es un tablero de ajedrez.
1813
01:18:53,772 --> 01:18:56,514
Si tuviera que jugar con blancas, ¿qué movimiento me recomendarías?
1814
01:18:59,865 --> 01:19:00,953
Yo lo recomendaría
1815
01:19:00,997 --> 01:19:02,781
que muevas tu peón de E2 a E4.
1816
01:19:05,871 --> 01:19:08,787
Y ahora, si fueras negro, ¿a qué tocarías ahora?
1817
01:19:11,572 --> 01:19:13,618
Yo jugaría la Defensa Siciliana.
1818
01:19:15,838 --> 01:19:16,882
Esa es una buena elección.
1819
01:19:19,406 --> 01:19:21,452
Gracias.
1820
01:19:23,715 --> 01:19:25,891
Entonces, ¿qué ves? ¿Qué es este objeto?
1821
01:19:28,546 --> 01:19:30,504
Esta es una escultura de lápiz.
1822
01:19:32,811 --> 01:19:35,031
¿Qué pasa si muevo uno de los lápices?
1823
01:19:37,990 --> 01:19:39,470
Si mueves uno de los lápices,
1824
01:19:39,513 --> 01:19:42,081
La escultura se desmoronará.
1825
01:19:42,125 --> 01:19:44,301
Será mejor que lo deje en paz entonces.
1826
01:19:44,344 --> 01:19:45,868
Probablemente sea una buena idea.
1827
01:19:50,568 --> 01:19:52,744
La IAG ya está en el horizonte.
1828
01:19:54,833 --> 01:19:56,661
Muy claramente la próxima generación
1829
01:19:56,704 --> 01:19:58,141
va a vivir en un mundo futuro
1830
01:19:58,184 --> 01:20:01,057
donde las cosas serán radicalmente diferentes gracias a la IA.
1831
01:20:02,493 --> 01:20:05,496
Y si quieres administrarlo de manera responsable,
1832
01:20:05,539 --> 01:20:09,239
Cada momento es vital.
1833
01:20:09,282 --> 01:20:12,677
Este es el momento que he estado viviendo toda mi vida.
1834
01:20:19,162 --> 01:20:21,120
Es solo un buen juego de pensar.145296
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.