All language subtitles for The Thinking Game 2024 1080p WEBRip x264 AAC5.1 [YTS.MX]

af Afrikaans
ak Akan
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bem Bemba
bn Bengali
bh Bihari
bs Bosnian
br Breton
bg Bulgarian
km Cambodian
ca Catalan
ceb Cebuano
chr Cherokee
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English
eo Esperanto
et Estonian
ee Ewe
fo Faroese
tl Filipino
fi Finnish
fr French
fy Frisian
gaa Ga
gl Galician
ka Georgian
de German
el Greek
gn Guarani
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ia Interlingua
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
rw Kinyarwanda
rn Kirundi
kg Kongo
ko Korean
kri Krio (Sierra Leone)
ku Kurdish
ckb Kurdish (Soranî)
ky Kyrgyz
lo Laothian
la Latin
lv Latvian
ln Lingala
lt Lithuanian
loz Lozi
lg Luganda
ach Luo
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mfe Mauritian Creole
mo Moldavian
mn Mongolian
my Myanmar (Burmese)
sr-ME Montenegrin
ne Nepali
pcm Nigerian Pidgin
nso Northern Sotho
no Norwegian
nn Norwegian (Nynorsk)
oc Occitan
or Oriya
om Oromo
ps Pashto
fa Persian
pl Polish
pt-BR Portuguese (Brazil)
pt Portuguese (Portugal)
pa Punjabi
qu Quechua
ro Romanian Download
rm Romansh
nyn Runyakitara
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
sh Serbo-Croatian
st Sesotho
tn Setswana
crs Seychellois Creole
sn Shona
sd Sindhi
si Sinhalese
sk Slovak
sl Slovenian
so Somali
es Spanish
es-419 Spanish (Latin American)
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
tt Tatar
te Telugu
th Thai
ti Tigrinya
to Tonga
lua Tshiluba
tum Tumbuka
tr Turkish
tk Turkmen
tw Twi
ug Uighur
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
wo Wolof
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:30,682 --> 00:00:31,814 Hola, Alfa. 2 00:00:32,684 --> 00:00:34,034 Hola. 3 00:00:34,077 --> 00:00:35,296 ¿Puedes ayudarme a escribir código? 4 00:00:37,559 --> 00:00:39,082 Me entrenaron para responder preguntas, 5 00:00:40,562 --> 00:00:42,216 pero soy capaz de aprender. 6 00:00:43,695 --> 00:00:45,958 Eso es muy abierto de tu parte. 7 00:00:46,002 --> 00:00:48,657 Gracias. Me alegro de que estés feliz conmigo. 8 00:00:50,311 --> 00:00:51,312 ¿Qué está haciendo este tipo? 9 00:00:54,532 --> 00:00:56,621 Ese es un desarrollador. 10 00:00:56,665 --> 00:00:58,014 ¿En qué crees que está trabajando? 11 00:00:59,537 --> 00:01:01,017 Esa es una pregunta difícil. 12 00:01:01,061 --> 00:01:02,888 Podría estar trabajando en una nueva función, 13 00:01:02,932 --> 00:01:05,239 una corrección de error o algo más. 14 00:01:05,282 --> 00:01:06,327 Es muy posible. 15 00:01:06,370 --> 00:01:07,328 Sí. 16 00:01:10,548 --> 00:01:11,854 ¿Ves mi mochila? 17 00:01:13,986 --> 00:01:15,292 Esa es una raqueta de bádminton. 18 00:01:15,336 --> 00:01:17,903 Es una raqueta de squash, pero se le parece bastante. 19 00:01:20,123 --> 00:01:21,690 Esa es una raqueta de bádminton. 20 00:01:21,733 --> 00:01:23,126 No, pero no eres la primera persona. 21 00:01:23,170 --> 00:01:24,649 Cometer ese error. 22 00:01:34,703 --> 00:01:35,965 IA, la tecnología 23 00:01:36,008 --> 00:01:38,402 que ha ido avanzando a una velocidad vertiginosa. 24 00:01:38,446 --> 00:01:40,796 La inteligencia artificial está de moda. 25 00:01:40,839 --> 00:01:42,319 Algunos ahora están dando la alarma sobre... 26 00:01:42,363 --> 00:01:43,886 Definitivamente es preocupante. 27 00:01:43,929 --> 00:01:45,322 Esta es una carrera armamentista de IA. 28 00:01:45,366 --> 00:01:46,454 No lo sabemos 29 00:01:46,497 --> 00:01:47,585 Cómo va a resultar todo esto, 30 00:01:47,629 --> 00:01:48,891 Pero está claro que algo está pasando. 31 00:01:53,809 --> 00:01:55,115 Estoy un poco inquieto. 32 00:01:57,073 --> 00:02:00,120 Intentar construir una IA general es el viaje más emocionante, 33 00:02:00,163 --> 00:02:02,383 en mi opinión, que los humanos jamás hayan emprendido. 34 00:02:04,254 --> 00:02:06,300 Si realmente vas a tomar eso en serio, 35 00:02:06,343 --> 00:02:08,345 No hay mucho tiempo 36 00:02:08,389 --> 00:02:09,825 La vida es muy corta. 37 00:02:12,523 --> 00:02:14,482 Mi meta en la vida entera es resolver 38 00:02:14,525 --> 00:02:16,875 Inteligencia general artificial. 39 00:02:16,919 --> 00:02:20,357 Y de camino, utilizar la IA como herramienta definitiva 40 00:02:20,401 --> 00:02:21,750 Para resolver todos los problemas del mundo 41 00:02:21,793 --> 00:02:23,230 Los problemas científicos más complejos. 42 00:02:25,449 --> 00:02:27,103 Pienso que esto es más grande que Internet. 43 00:02:27,147 --> 00:02:28,452 Pienso que esto es más grande que el móvil. 44 00:02:29,671 --> 00:02:31,020 Creo que es más como 45 00:02:31,063 --> 00:02:32,891 la llegada de la electricidad o el fuego. 46 00:02:45,687 --> 00:02:46,731 Líderes mundiales 47 00:02:46,775 --> 00:02:48,516 y expertos en inteligencia artificial 48 00:02:48,559 --> 00:02:49,908 se están reuniendo por primera vez 49 00:02:49,952 --> 00:02:52,781 cumbre mundial sobre seguridad de la IA, 50 00:02:52,824 --> 00:02:54,348 Dispuestos a analizar los riesgos 51 00:02:54,391 --> 00:02:56,611 de la tecnología de rápido crecimiento y también... 52 00:02:56,654 --> 00:02:57,873 Creo que esto es algo muy importante. 53 00:02:57,916 --> 00:03:00,136 momento crítico para toda la humanidad. 54 00:03:01,093 --> 00:03:03,618 Se siente como si estuviéramos en la cúspide 55 00:03:03,661 --> 00:03:05,794 de algunas cosas increíbles sucediendo. 56 00:03:05,837 --> 00:03:07,056 Déjame guiarte a través de 57 00:03:07,099 --> 00:03:08,275 Algunas de las reacciones en los periódicos de hoy. 58 00:03:08,318 --> 00:03:10,015 Creo que AGI está bastante cerca. 59 00:03:10,059 --> 00:03:12,844 Está claro que hay un enorme interés en lo que es capaz de hacer. 60 00:03:12,888 --> 00:03:14,803 A dónde nos lleva. 61 00:03:14,846 --> 00:03:15,978 Este es el momento 62 00:03:16,021 --> 00:03:17,936 He estado viviendo toda mi vida por. 63 00:03:22,202 --> 00:03:24,987 Siempre me ha fascinado la mente. 64 00:03:25,030 --> 00:03:27,990 Así que me propuse estudiar neurociencia. 65 00:03:28,033 --> 00:03:29,948 Porque quería inspirarme 66 00:03:29,992 --> 00:03:31,646 Del cerebro a la IA. 67 00:03:31,689 --> 00:03:33,300 Recuerdo haberle preguntado a Demis: 68 00:03:33,343 --> 00:03:34,649 "¿Cuál es el objetivo final?" 69 00:03:34,692 --> 00:03:36,172 ¿Lo sabes? Entonces vas a venir aquí. 70 00:03:36,216 --> 00:03:38,218 y vas a estudiar neurociencia 71 00:03:38,261 --> 00:03:41,438 Y tal vez obtendrás un doctorado si trabajas duro. 72 00:03:42,874 --> 00:03:44,136 Y él dijo: 73 00:03:44,180 --> 00:03:46,965 "Sabes, quiero poder resolver la IA. 74 00:03:47,009 --> 00:03:49,359 "Quiero poder resolver inteligencia." 75 00:03:49,403 --> 00:03:51,361 El cerebro humano es la única prueba existente 76 00:03:51,405 --> 00:03:53,494 Tenemos, tal vez en todo el universo, 77 00:03:53,537 --> 00:03:56,279 Que la inteligencia general sea posible. 78 00:03:56,323 --> 00:03:59,282 Y pensé que alguien en este edificio 79 00:03:59,326 --> 00:04:00,370 Debería estar interesado 80 00:04:00,414 --> 00:04:02,590 En general, inteligencia como la mía. 81 00:04:02,633 --> 00:04:04,809 Y entonces apareció el nombre de Shane. 82 00:04:04,853 --> 00:04:07,334 Nuestro próximo orador hoy es Shane Legg. 83 00:04:07,377 --> 00:04:08,596 Él es de Nueva Zelanda, 84 00:04:08,639 --> 00:04:11,512 donde se formó en matemáticas y ballet clásico. 85 00:04:11,555 --> 00:04:14,079 ¿Las máquinas se están volviendo realmente más inteligentes? 86 00:04:14,123 --> 00:04:16,517 Algunas personas dicen que sí, otras dicen que no. 87 00:04:16,560 --> 00:04:17,648 No está muy claro 88 00:04:17,692 --> 00:04:18,867 Sabemos que se están volviendo mucho más rápidos. 89 00:04:18,910 --> 00:04:20,216 al hacer cálculos. 90 00:04:20,260 --> 00:04:21,609 Pero ¿realmente estamos avanzando? 91 00:04:21,652 --> 00:04:23,828 ¿En términos de inteligencia general? 92 00:04:23,872 --> 00:04:25,700 Los dos estábamos obsesionados con la IAG, 93 00:04:25,743 --> 00:04:27,397 Inteligencia general artificial. 94 00:04:27,441 --> 00:04:29,704 Así que hoy voy a hablar sobre 95 00:04:29,747 --> 00:04:32,097 Diferentes enfoques para construir IAG. 96 00:04:32,141 --> 00:04:33,882 Con mi colega Demis Hassabis, 97 00:04:33,925 --> 00:04:35,884 Estamos buscando formas de incorporar ideas. 98 00:04:35,927 --> 00:04:37,451 de la neurociencia teórica. 99 00:04:37,494 --> 00:04:41,585 Me sentí como si fuéramos los guardianes de un secreto. 100 00:04:41,629 --> 00:04:43,152 que nadie más lo sabía. 101 00:04:43,195 --> 00:04:45,415 Shane y yo no conocíamos a nadie en el ámbito académico. 102 00:04:45,459 --> 00:04:47,809 apoyaría lo que estábamos haciendo. 103 00:04:47,852 --> 00:04:50,855 IA era casi una palabra vergonzosa 104 00:04:50,899 --> 00:04:52,857 para usar en círculos académicos, ¿verdad? 105 00:04:52,901 --> 00:04:54,903 Si dijeras que estás trabajando en IA, 106 00:04:54,946 --> 00:04:57,993 Entonces claramente no eras un científico serio. 107 00:04:58,036 --> 00:05:00,082 Así que convencí a Shane de la forma correcta de hacerlo. 108 00:05:00,125 --> 00:05:01,344 Sería iniciar una empresa. 109 00:05:01,388 --> 00:05:03,215 Bueno, vamos a intentar hacerlo. 110 00:05:03,259 --> 00:05:04,913 Inteligencia general artificial. 111 00:05:04,956 --> 00:05:06,915 Puede que ni siquiera sea posible. 112 00:05:06,958 --> 00:05:08,482 No estamos muy seguros de cómo lo vamos a hacer, 113 00:05:08,525 --> 00:05:11,528 pero tenemos algunas ideas o, en cierto modo, enfoques. 114 00:05:11,572 --> 00:05:14,966 Enormes cantidades de dinero, enormes cantidades de riesgo, 115 00:05:15,010 --> 00:05:16,533 Muchísimos cálculos. 116 00:05:18,709 --> 00:05:20,320 Y si logramos esto, 117 00:05:20,363 --> 00:05:23,540 Será lo más grande de la historia, ¿verdad? 118 00:05:23,584 --> 00:05:26,108 Esto es algo muy difícil para un inversor típico. 119 00:05:26,151 --> 00:05:27,327 para poner su dinero. 120 00:05:27,370 --> 00:05:29,633 Es casi como comprar un billete de lotería. 121 00:05:29,677 --> 00:05:32,462 Voy a hablar sobre el sistema de la neurociencia. 122 00:05:32,506 --> 00:05:36,727 y cómo podría usarse para ayudarnos a construir una IAG. 123 00:05:36,771 --> 00:05:37,946 Encontrar financiación inicial 124 00:05:37,989 --> 00:05:39,208 Porque esto fue muy difícil. 125 00:05:39,251 --> 00:05:41,253 Vamos a resolver toda la inteligencia. 126 00:05:41,297 --> 00:05:42,907 Puedes imaginar algunas de las miradas que recibí. 127 00:05:42,951 --> 00:05:44,779 Cuando estábamos lanzando eso. 128 00:05:44,822 --> 00:05:47,912 Entonces soy un VC y miro alrededor 129 00:05:47,956 --> 00:05:51,002 700 a 1.000 proyectos al año. 130 00:05:51,046 --> 00:05:54,789 Y yo financio literalmente el 1% de ellos. 131 00:05:54,832 --> 00:05:57,139 Alrededor de ocho proyectos al año. 132 00:05:57,182 --> 00:06:00,272 Eso significa que el 99% del tiempo estás en modo "No". 133 00:06:00,316 --> 00:06:01,622 "Espera un minuto. Te lo estoy diciendo, 134 00:06:01,665 --> 00:06:03,798 "Esto es lo más importante de todos los tiempos. 135 00:06:03,841 --> 00:06:05,103 "Te estoy dando toda esta preparación 136 00:06:05,147 --> 00:06:06,235 "sobre cómo... explicar 137 00:06:06,278 --> 00:06:07,671 "cómo se conecta con el cerebro, 138 00:06:07,715 --> 00:06:09,412 "¿Por qué es el momento justo y luego me preguntas, 139 00:06:09,456 --> 00:06:10,979 "Pero ¿cuál es tu, cómo vas a ganar dinero? 140 00:06:11,022 --> 00:06:12,154 "'¿Cuál es su producto?'" 141 00:06:12,197 --> 00:06:15,984 Es una pregunta muy prosaica. 142 00:06:16,506 --> 00:06:17,942 ¿Sabes? 143 00:06:17,986 --> 00:06:19,117 -¿No has estado escuchando lo que he estado diciendo? 144 00:06:19,161 --> 00:06:21,076 Necesitábamos inversores 145 00:06:21,119 --> 00:06:23,470 que no necesariamente van a invertir 146 00:06:23,513 --> 00:06:25,123 Porque creen que es lo mejor 147 00:06:25,167 --> 00:06:26,690 decisión de inversión. 148 00:06:26,734 --> 00:06:27,865 Probablemente van a invertir 149 00:06:27,909 --> 00:06:29,476 Porque simplemente piensan que es realmente genial. 150 00:06:29,519 --> 00:06:31,478 Él es Silicon Valley 151 00:06:31,521 --> 00:06:33,523 Versión del hombre detrás de la cortina 152 00:06:33,567 --> 00:06:34,872 enEl mago de Oz. 153 00:06:34,916 --> 00:06:36,265 Él tuvo mucho que ver con darte 154 00:06:36,308 --> 00:06:39,007 PayPal, Facebook, YouTube y Yelp. 155 00:06:39,050 --> 00:06:40,443 Si todo el mundo dice "X", 156 00:06:40,487 --> 00:06:43,185 Peter Thiel sospecha que lo opuesto de X 157 00:06:43,228 --> 00:06:44,708 Es muy posible que sea cierto. 158 00:06:44,752 --> 00:06:47,276 Así que Peter Thiel fue nuestro primer gran inversor. 159 00:06:47,319 --> 00:06:50,105 Pero él insistió en que fuéramos a Silicon Valley. 160 00:06:50,148 --> 00:06:51,802 Porque ese era el único lugar donde podíamos... 161 00:06:51,846 --> 00:06:52,977 Allí estaría el talento, 162 00:06:53,021 --> 00:06:55,066 y podríamos construir ese tipo de empresa. 163 00:06:55,110 --> 00:06:56,981 Pero yo estaba bastante convencido de que deberíamos estar en Londres. 164 00:06:57,025 --> 00:06:59,027 Porque creo que Londres es una ciudad increíble. 165 00:06:59,070 --> 00:07:01,464 Además, sabía que había gente realmente increíble. 166 00:07:01,508 --> 00:07:03,814 Formado en Cambridge, Oxford y UCL. 167 00:07:03,858 --> 00:07:05,033 En Silicon Valley, 168 00:07:05,076 --> 00:07:06,643 Todo el mundo funda una empresa cada año, 169 00:07:06,687 --> 00:07:07,818 y luego si no funciona, 170 00:07:07,862 --> 00:07:09,603 Lo dejas y empiezas algo nuevo. 171 00:07:09,646 --> 00:07:11,169 Eso no es propicio 172 00:07:11,213 --> 00:07:14,564 a un desafío de investigación a largo plazo. 173 00:07:14,608 --> 00:07:17,349 Así que éramos totalmente una excepción para él. 174 00:07:17,393 --> 00:07:20,962 Hola a todos. Bienvenidos a DeepMind. 175 00:07:21,005 --> 00:07:22,529 Entonces, ¿cuál es nuestra misión? 176 00:07:23,747 --> 00:07:25,706 Lo resumimos así... 177 00:07:25,749 --> 00:07:28,012 La misión de DeepMind es construir la primera 178 00:07:28,056 --> 00:07:29,579 máquina de aprendizaje general. 179 00:07:29,623 --> 00:07:31,712 Por eso siempre enfatizamos la palabra "general" y "aprendizaje" aquí. 180 00:07:31,755 --> 00:07:32,887 Son las cosas claves. 181 00:07:32,930 --> 00:07:35,106 Nuestra misión era construir una IAG, 182 00:07:35,150 --> 00:07:36,760 una inteligencia general artificial. 183 00:07:36,804 --> 00:07:40,372 Y eso significa que necesitamos un sistema que sea general. 184 00:07:40,416 --> 00:07:42,723 No aprende a hacer una cosa específica. 185 00:07:42,766 --> 00:07:45,073 Ésa es una parte realmente clave de la inteligencia humana. 186 00:07:45,116 --> 00:07:46,683 Podemos aprender a hacer muchas, muchas cosas. 187 00:07:46,727 --> 00:07:48,685 Por supuesto, será mucho trabajo duro. 188 00:07:48,729 --> 00:07:51,079 Pero una de las cosas que me mantiene despierto por la noche 189 00:07:51,122 --> 00:07:53,168 es no desperdiciar esta oportunidad, ya sabes, 190 00:07:53,211 --> 00:07:54,430 Para realmente hacer una diferencia aquí, 191 00:07:54,474 --> 00:07:56,824 y tienen un gran impacto en el mundo. 192 00:07:56,867 --> 00:07:58,303 Las primeras personas que vinieron 193 00:07:58,347 --> 00:08:00,262 y se unió a DeepMind realmente creyó en el sueño. 194 00:08:00,305 --> 00:08:02,090 Pero ésta fue, creo, una de las primeras veces 195 00:08:02,133 --> 00:08:04,440 Encontraron un lugar lleno de otros soñadores. 196 00:08:04,484 --> 00:08:06,398 Ya sabes, hemos recopilado este Proyecto Manhattan, 197 00:08:06,442 --> 00:08:08,400 Si quieres, juntos solucionemos la IA. 198 00:08:08,444 --> 00:08:09,750 En los dos primeros años, 199 00:08:09,793 --> 00:08:10,794 Estábamos en modo totalmente sigiloso. 200 00:08:10,838 --> 00:08:12,274 Y entonces no pudimos decirle a nadie 201 00:08:12,317 --> 00:08:14,755 ¿Qué estábamos haciendo o dónde trabajábamos? 202 00:08:14,798 --> 00:08:16,104 Todo era bastante vago. 203 00:08:16,147 --> 00:08:17,584 No tuvo ninguna presencia pública. 204 00:08:17,627 --> 00:08:18,933 No podrías mirar un sitio web. 205 00:08:18,976 --> 00:08:21,109 La oficina estaba en un lugar secreto. 206 00:08:21,152 --> 00:08:23,981 Cuando entrevistábamos a la gente en aquellos primeros días, 207 00:08:24,025 --> 00:08:26,288 Aparecerían muy nerviosos. 208 00:08:27,463 --> 00:08:29,639 Tuve al menos un candidato que dijo: 209 00:08:29,683 --> 00:08:31,989 "Acabo de enviarle un mensaje a mi esposa para decirle exactamente... 210 00:08:32,033 --> 00:08:33,338 "Adonde voy por si acaso 211 00:08:33,382 --> 00:08:34,514 "Esto resulta ser una especie de estafa horrible 212 00:08:34,557 --> 00:08:35,819 "y me van a secuestrar." 213 00:08:35,863 --> 00:08:39,693 Bueno, mi nueva persona favorita que es inversor, 214 00:08:39,736 --> 00:08:43,000 Con quien llevo trabajando un año es Elon Musk. 215 00:08:43,044 --> 00:08:44,132 Así que para aquellos que no lo saben, 216 00:08:44,175 --> 00:08:45,350 Así es como se ve. 217 00:08:45,394 --> 00:08:47,483 Y realmente no había pensado mucho en la IA. 218 00:08:47,527 --> 00:08:49,137 hasta que charlamos. 219 00:08:49,180 --> 00:08:51,269 Su misión es morir en Marte o algo así. 220 00:08:51,313 --> 00:08:52,923 Pero no en el impacto. 221 00:08:52,967 --> 00:08:54,185 Entonces... 222 00:08:55,186 --> 00:08:57,145 Tomamos algunas decisiones importantes 223 00:08:57,188 --> 00:08:59,321 sobre cómo íbamos a abordar la construcción de IA. 224 00:08:59,364 --> 00:09:01,105 Esta es una configuración de aprendizaje de refuerzo. 225 00:09:01,149 --> 00:09:02,803 Este es el tipo de configuración en la que pensamos 226 00:09:02,846 --> 00:09:06,328 Cuando decimos que estamos construyendo, ya sabes, un agente de IA. 227 00:09:06,371 --> 00:09:08,504 Básicamente es el agente, que es la IA, 228 00:09:08,548 --> 00:09:09,984 Y luego está el medio ambiente. 229 00:09:10,027 --> 00:09:11,159 con el que está interactuando. 230 00:09:11,202 --> 00:09:12,464 Decidimos que los juegos, 231 00:09:12,508 --> 00:09:13,988 siempre y cuando seas muy disciplinado 232 00:09:14,031 --> 00:09:15,293 sobre cómo los usas, 233 00:09:15,337 --> 00:09:17,252 son el campo de entrenamiento perfecto 234 00:09:17,295 --> 00:09:19,341 para el desarrollo de IA. 235 00:09:19,384 --> 00:09:21,691 Queríamos intentar crear un algoritmo 236 00:09:21,735 --> 00:09:23,650 que podría ser entrenado para jugar 237 00:09:23,693 --> 00:09:26,043 varias docenas de juegos diferentes de Atari. 238 00:09:26,087 --> 00:09:27,479 Así como un ser humano, 239 00:09:27,523 --> 00:09:29,525 Tienes que usar el mismo cerebro para jugar a todos los juegos. 240 00:09:29,569 --> 00:09:30,874 Puedes pensarlo 241 00:09:30,918 --> 00:09:33,007 que le proporciones al agente el cartucho. 242 00:09:33,050 --> 00:09:34,312 Y tú dices, 243 00:09:34,356 --> 00:09:35,705 "Está bien, imagina que naces en ese mundo. 244 00:09:35,749 --> 00:09:37,533 "con ese cartucho, y simplemente puedes interactuar 245 00:09:37,577 --> 00:09:39,404 "con los pixeles y ver la puntuación. 246 00:09:40,362 --> 00:09:41,668 "¿Qué puedes hacer?" 247 00:09:43,974 --> 00:09:47,369 Entonces lo que vas a hacer es tomar tu función Q. QK... 248 00:09:47,412 --> 00:09:49,197 Q-learning es uno de los métodos más antiguos 249 00:09:49,240 --> 00:09:50,894 para el aprendizaje de refuerzo. 250 00:09:50,938 --> 00:09:53,680 Y lo que hicimos fue combinar el aprendizaje de refuerzo 251 00:09:53,723 --> 00:09:56,770 con aprendizaje profundo en un solo sistema. 252 00:09:56,813 --> 00:09:59,337 Nadie había combinado nunca esas dos cosas juntas. 253 00:09:59,381 --> 00:10:01,426 a escala para hacer algo impresionante, 254 00:10:01,470 --> 00:10:03,515 y necesitábamos demostrar esta tesis. 255 00:10:03,559 --> 00:10:06,780 Intentamos hacer Pong como primer juego. 256 00:10:06,823 --> 00:10:08,129 Parecía lo más sencillo. 257 00:10:08,172 --> 00:10:10,218 No se ha contado 258 00:10:10,261 --> 00:10:11,828 Cualquier cosa sobre lo que está controlando 259 00:10:11,872 --> 00:10:12,873 o lo que se supone que debe hacer. 260 00:10:12,916 --> 00:10:14,657 Todo lo que sabe es que la puntuación es buena. 261 00:10:14,701 --> 00:10:18,052 y tiene que aprender lo que hacen sus controles, 262 00:10:18,095 --> 00:10:20,620 y construir todo...primeros principios. 263 00:10:29,193 --> 00:10:30,412 Realmente no estaba funcionando. 264 00:10:32,588 --> 00:10:34,068 Le estaba diciendo a Shane: 265 00:10:34,111 --> 00:10:37,071 "Tal vez simplemente estemos equivocados y ni siquiera podamos jugar Pong". 266 00:10:37,114 --> 00:10:38,812 Fue un poco estresante, 267 00:10:38,855 --> 00:10:40,422 Pensando en lo lejos que teníamos que llegar 268 00:10:40,465 --> 00:10:42,337 Si realmente fuéramos a construir 269 00:10:42,380 --> 00:10:44,426 un sistema generalmente inteligente. 270 00:10:44,469 --> 00:10:45,732 Y sentí que ya era hora 271 00:10:45,775 --> 00:10:47,255 Renunciar y seguir adelante. 272 00:10:48,169 --> 00:10:49,387 Y de repente... 273 00:10:51,389 --> 00:10:53,609 Conseguimos nuestro primer punto. 274 00:10:53,653 --> 00:10:56,612 Y entonces pensé: "¿Esto es aleatorio?" 275 00:10:56,656 --> 00:10:59,180 "No, no, ahora realmente está ganando importancia". 276 00:10:59,223 --> 00:11:00,703 Fue realmente emocionante que esta cosa 277 00:11:00,747 --> 00:11:02,226 que antes ni siquiera podía entender 278 00:11:02,270 --> 00:11:03,532 Cómo mover una paleta 279 00:11:03,575 --> 00:11:05,926 De repente había sido capaz de hacerlo totalmente bien. 280 00:11:05,969 --> 00:11:07,144 Luego estaba consiguiendo algunos puntos. 281 00:11:07,188 --> 00:11:08,624 Y luego ganó su primer partido. 282 00:11:08,668 --> 00:11:10,974 Y luego, tres meses después, ningún humano pudo vencerlo. 283 00:11:11,018 --> 00:11:14,238 No le habías dicho las reglas, cómo conseguir la puntuación, nada. 284 00:11:14,282 --> 00:11:16,110 Y simplemente le dices que maximice la puntuación, 285 00:11:16,153 --> 00:11:17,372 y se va y lo hace. 286 00:11:17,415 --> 00:11:18,678 Esta es la primera vez 287 00:11:18,721 --> 00:11:20,549 Alguien había realizado este aprendizaje de principio a fin. 288 00:11:20,592 --> 00:11:24,292 "Bien, entonces tenemos esto funcionando de una manera bastante general. 289 00:11:24,335 --> 00:11:25,772 "Ahora probemos otro juego." 290 00:11:25,815 --> 00:11:27,512 Entonces probamos Breakout. 291 00:11:27,556 --> 00:11:29,123 Al principio, después de 100 juegos, 292 00:11:29,166 --> 00:11:30,777 El agente no es muy bueno. 293 00:11:30,820 --> 00:11:32,474 La mayor parte del tiempo falta la pelota. 294 00:11:32,517 --> 00:11:34,389 Pero ya está empezando a entender la idea. 295 00:11:34,432 --> 00:11:35,999 Que el bate debe ir hacia la pelota. 296 00:11:36,043 --> 00:11:37,566 Ahora, después de 300 juegos, 297 00:11:37,609 --> 00:11:40,656 Es tan bueno como cualquier humano puede tocarlo. 298 00:11:40,700 --> 00:11:42,049 Pensamos: "Bueno, eso es bastante genial". 299 00:11:42,092 --> 00:11:44,312 pero dejamos el sistema funcionando otros 200 juegos, 300 00:11:44,355 --> 00:11:46,053 Y hizo esta cosa increíble. 301 00:11:46,096 --> 00:11:47,358 Encontró la estrategia óptima 302 00:11:47,402 --> 00:11:49,404 era cavar un túnel alrededor del costado 303 00:11:49,447 --> 00:11:51,667 y coloca la pelota alrededor de la parte trasera de la pared. 304 00:11:51,711 --> 00:11:53,234 Finalmente, el agente 305 00:11:53,277 --> 00:11:54,365 realmente está logrando 306 00:11:54,409 --> 00:11:55,627 Lo que pensabas que lograría. 307 00:11:55,671 --> 00:11:57,325 Es una sensación genial, ¿verdad? 308 00:11:57,368 --> 00:11:59,283 Es decir, cuando hacemos una investigación, 309 00:11:59,327 --> 00:12:00,676 Esto es lo mejor que podemos esperar. 310 00:12:00,720 --> 00:12:03,200 Empezamos a generalizar a 50 juegos, 311 00:12:03,244 --> 00:12:05,463 Y básicamente creamos una receta. 312 00:12:05,507 --> 00:12:06,813 Podríamos simplemente tomar un juego 313 00:12:06,856 --> 00:12:08,379 que nunca hemos visto antes. 314 00:12:08,423 --> 00:12:09,903 Ejecutaríamos el algoritmo en eso, 315 00:12:09,946 --> 00:12:13,036 y DQN podría entrenarse desde cero, 316 00:12:13,080 --> 00:12:14,429 Alcanzar el nivel humano 317 00:12:14,472 --> 00:12:15,996 o a veces mejor que el nivel humano. 318 00:12:16,039 --> 00:12:18,433 No lo construimos para reproducir ninguno de ellos. 319 00:12:18,476 --> 00:12:20,522 Podríamos simplemente darle un montón de juegos. 320 00:12:20,565 --> 00:12:22,654 y lo resolvería por sí mismo. 321 00:12:22,698 --> 00:12:25,179 Y había algo bastante mágico en eso. 322 00:12:25,222 --> 00:12:26,528 De repente tenías algo 323 00:12:26,571 --> 00:12:27,921 que respondería y aprendería 324 00:12:27,964 --> 00:12:30,358 Cualquiera que sea la situación en la que fue lanzado en paracaídas. 325 00:12:30,401 --> 00:12:33,013 Y eso fue como un gran, gran avance. 326 00:12:33,056 --> 00:12:35,276 Fue en muchos aspectos 327 00:12:35,319 --> 00:12:36,625 El primer ejemplo 328 00:12:36,668 --> 00:12:39,062 de cualquier tipo de cosa que puedas llamar 329 00:12:39,106 --> 00:12:40,542 una inteligencia general. 330 00:12:42,109 --> 00:12:43,893 Aunque éramos una startup bien financiada, 331 00:12:43,937 --> 00:12:47,375 Lo que nos frenaba era la falta de potencia informática. 332 00:12:47,418 --> 00:12:49,203 Me di cuenta de que esto aceleraría 333 00:12:49,246 --> 00:12:51,466 nuestra escala de tiempo hacia la IAG masivamente. 334 00:12:51,509 --> 00:12:53,163 Solía ​​ver a Demis con bastante frecuencia. 335 00:12:53,207 --> 00:12:55,035 Almorzábamos y él lo hacía... 336 00:12:56,210 --> 00:12:58,865 Dime que tenia dos empresas 337 00:12:58,908 --> 00:13:02,564 que estuvieron involucrados en la compra de DeepMind. 338 00:13:02,607 --> 00:13:04,609 Y no sabía con cuál quedarse. 339 00:13:04,653 --> 00:13:08,526 La cuestión era si cualquier empresa comercial... 340 00:13:08,570 --> 00:13:12,661 ¿Aprecias la importancia real de la investigación? 341 00:13:12,704 --> 00:13:15,838 Y darle tiempo a la investigación para que dé sus frutos. 342 00:13:15,882 --> 00:13:17,797 y no estar respirándoles en la nuca, 343 00:13:17,840 --> 00:13:21,539 diciendo: "Queremos algún tipo de beneficio comercial de esto". 344 00:13:27,284 --> 00:13:32,463 Google ha comprado DeepMind por una suma estimada de 400.000.000 libras esterlinas. 345 00:13:32,507 --> 00:13:34,726 Haciendo firme la inteligencia artificial 346 00:13:34,770 --> 00:13:37,947 su mayor adquisición europea hasta el momento. 347 00:13:37,991 --> 00:13:39,644 La empresa fue fundada 348 00:13:39,688 --> 00:13:43,344 por el empresario Demis Hassabis, de 37 años. 349 00:13:43,387 --> 00:13:45,563 Después de la adquisición, comencé a realizar tareas de mentoría. 350 00:13:45,607 --> 00:13:47,261 y pasar tiempo con Demis, 351 00:13:47,304 --> 00:13:48,915 y sólo escucharlo. 352 00:13:48,958 --> 00:13:52,396 Y esta es una persona que fundamentalmente 353 00:13:52,440 --> 00:13:55,573 Es un científico y un científico natural. 354 00:13:55,617 --> 00:13:58,489 Quiere que la ciencia resuelva todos los problemas del mundo, 355 00:13:58,533 --> 00:14:00,622 y él cree que puede hacerlo. 356 00:14:00,665 --> 00:14:03,625 Esa no es una persona normal que encuentras en una empresa tecnológica. 357 00:14:05,496 --> 00:14:07,455 No solo pudimos unirnos a Google 358 00:14:07,498 --> 00:14:10,240 pero se ejecuta de forma independiente en Londres, 359 00:14:10,284 --> 00:14:11,328 Construir nuestra cultura, 360 00:14:11,372 --> 00:14:13,461 que fue optimizado para avances 361 00:14:13,504 --> 00:14:15,419 y no tratar con productos, 362 00:14:15,463 --> 00:14:17,726 Hacer investigación pura. 363 00:14:17,769 --> 00:14:19,293 Nuestros inversores no querían vender, 364 00:14:19,336 --> 00:14:20,685 pero decidimos 365 00:14:20,729 --> 00:14:22,731 que esto era lo mejor para la misión. 366 00:14:22,774 --> 00:14:24,646 En muchos sentidos, estábamos vendiendo a un precio inferior al real. 367 00:14:24,689 --> 00:14:26,169 en términos de valor antes de que madurara más, 368 00:14:26,213 --> 00:14:28,128 y podrías haberlo vendido por mucho más dinero. 369 00:14:28,171 --> 00:14:32,828 Y la razón es porque no hay tiempo que perder. 370 00:14:32,872 --> 00:14:35,178 Hay tantas cosas que deben resolverse 371 00:14:35,222 --> 00:14:37,659 mientras el cerebro todavía está en funcionamiento. 372 00:14:37,702 --> 00:14:39,008 Sabes, todavía estoy vivo. 373 00:14:39,052 --> 00:14:40,880 Hay todas estas cosas que deben hacerse. 374 00:14:40,923 --> 00:14:42,925 Entonces no tienes... quiero decir, ¿cuántos...? 375 00:14:42,969 --> 00:14:44,492 ¿Por cuántos miles de millones estarías dispuesto a negociar? 376 00:14:44,535 --> 00:14:45,797 otros cinco años de vida, ya sabes, 377 00:14:45,841 --> 00:14:48,365 ¿Hacer lo que te propusiste hacer? 378 00:14:48,409 --> 00:14:49,758 Bueno, de repente, 379 00:14:49,801 --> 00:14:52,717 Tenemos a nuestra disposición esta capacidad informática a gran escala. 380 00:14:52,761 --> 00:14:53,936 ¿Qué podemos hacer con esto? 381 00:14:56,591 --> 00:14:59,942 Go es el pináculo de los juegos de mesa. 382 00:14:59,986 --> 00:15:04,642 Es el juego más complejo jamás ideado por el hombre. 383 00:15:04,686 --> 00:15:06,688 Hay más configuraciones de placa posibles 384 00:15:06,731 --> 00:15:09,821 En el juego de Go hay más átomos que en el universo. 385 00:15:09,865 --> 00:15:13,390 Go es el santo grial de la inteligencia artificial. 386 00:15:13,434 --> 00:15:14,522 Durante muchos años, 387 00:15:14,565 --> 00:15:16,002 La gente ha visto este juego 388 00:15:16,045 --> 00:15:17,917 y pensaron: "Vaya, esto es demasiado difícil". 389 00:15:17,960 --> 00:15:20,180 Todo lo que hemos probado en IA, 390 00:15:20,223 --> 00:15:22,704 Simplemente se cae cuando intentas jugar al Go. 391 00:15:22,747 --> 00:15:23,966 Y por eso es que se siente así 392 00:15:24,010 --> 00:15:26,099 una verdadera prueba de fuego del progreso. 393 00:15:26,142 --> 00:15:28,579 Acabábamos de comprar DeepMind. 394 00:15:28,623 --> 00:15:30,712 Estaban trabajando en el aprendizaje por refuerzo. 395 00:15:30,755 --> 00:15:32,975 y eran los expertos mundiales en juegos. 396 00:15:33,019 --> 00:15:34,846 Y entonces cuando introdujeron la idea 397 00:15:34,890 --> 00:15:37,197 que podrían vencer a los jugadores de Go de más alto nivel 398 00:15:37,240 --> 00:15:40,113 en un juego que se creía incomputable, 399 00:15:40,156 --> 00:15:42,724 Pensé: "Bueno, eso es bastante interesante". 400 00:15:42,767 --> 00:15:46,467 Nuestro próximo paso definitivo es jugar el legendario 401 00:15:46,510 --> 00:15:49,209 Lee Sedol en poco más de dos semanas. 402 00:15:50,514 --> 00:15:52,038 Un partido como ningún otro 403 00:15:52,081 --> 00:15:54,257 Está a punto de comenzar en Corea del Sur. 404 00:15:54,301 --> 00:15:57,826 Lee Sedol se está preparando para la pelea. 405 00:15:57,869 --> 00:15:59,262 Lee Sedol es probablemente 406 00:15:59,306 --> 00:16:01,699 Uno de los mejores jugadores de la última década. 407 00:16:01,743 --> 00:16:04,224 Lo describo como el Roger Federer del Go. 408 00:16:05,573 --> 00:16:06,922 Él apareció, 409 00:16:06,966 --> 00:16:09,838 Y de repente tenemos mil coreanos. 410 00:16:09,881 --> 00:16:13,059 que representan a toda la sociedad coreana, 411 00:16:13,102 --> 00:16:14,190 Los mejores jugadores de Go. 412 00:16:15,583 --> 00:16:17,802 Y luego tenemos a Demis. 413 00:16:17,846 --> 00:16:19,848 Y el gran equipo de ingeniería. 414 00:16:20,588 --> 00:16:22,285 Él es muy famoso 415 00:16:22,329 --> 00:16:25,506 para un juego de lucha muy creativo. 416 00:16:25,549 --> 00:16:28,770 Así que esto podría ser difícil para nosotros. 417 00:16:28,813 --> 00:16:31,991 Me imaginé que Lee Sedol iba a vencer a estos muchachos, 418 00:16:32,034 --> 00:16:34,297 pero harán una buena demostración. 419 00:16:34,341 --> 00:16:35,733 Bueno para una startup. 420 00:16:38,040 --> 00:16:39,563 Me pasé al grupo técnico. 421 00:16:39,607 --> 00:16:40,912 Y ellos dijeron: 422 00:16:40,956 --> 00:16:42,305 "Déjame mostrarte cómo funciona nuestro algoritmo". 423 00:16:43,654 --> 00:16:45,091 Si recorres el juego real, 424 00:16:45,134 --> 00:16:47,789 Podemos ver, más o menos, cómo piensa AlphaGo. 425 00:16:47,832 --> 00:16:50,226 La forma en que comenzamos a entrenar AlphaGo 426 00:16:50,270 --> 00:16:52,968 es mostrándole 100.000 juegos 427 00:16:53,012 --> 00:16:54,491 que han jugado fuertes aficionados. 428 00:16:54,535 --> 00:16:55,710 Y nosotros primero inicialmente 429 00:16:55,753 --> 00:16:58,887 Haz que AlphaGo imite al jugador humano. 430 00:16:58,930 --> 00:17:00,802 y luego a través del aprendizaje de refuerzo, 431 00:17:00,845 --> 00:17:02,369 Juega contra diferentes versiones de sí mismo. 432 00:17:02,412 --> 00:17:05,720 muchos millones de veces y aprende de sus errores. 433 00:17:05,763 --> 00:17:07,591 Hmm, esto es interesante. 434 00:17:07,635 --> 00:17:08,679 Muy bien, amigos, 435 00:17:08,723 --> 00:17:10,594 Vas a ver cómo se hace historia. 436 00:17:12,770 --> 00:17:14,772 Así que el juego comienza. 437 00:17:14,816 --> 00:17:15,991 Él realmente está concentrado. 438 00:17:16,035 --> 00:17:17,645 Si realmente miras el... 439 00:17:20,909 --> 00:17:25,348 Es un movimiento muy sorprendente. 440 00:17:25,392 --> 00:17:27,916 Creo que estamos viendo un movimiento original aquí. 441 00:17:34,401 --> 00:17:35,793 Sí, es un movimiento emocionante. 442 00:17:36,185 --> 00:17:37,230 Me gusta... 443 00:17:37,273 --> 00:17:38,579 Comentaristas profesionales 444 00:17:38,622 --> 00:17:40,102 Casi por unanimidad se dijo 445 00:17:40,146 --> 00:17:43,323 que ningún jugador humano habría elegido la jugada 37. 446 00:17:43,366 --> 00:17:45,803 Así que realmente eché un vistazo a AlphaGo. 447 00:17:45,847 --> 00:17:47,414 para ver qué pensaba AlphaGo. 448 00:17:47,457 --> 00:17:50,330 Y AlphaGo realmente estuvo de acuerdo con esa evaluación. 449 00:17:50,373 --> 00:17:53,811 AlphaGo dijo que había una probabilidad de uno en 10.000 450 00:17:53,855 --> 00:17:57,772 Esa jugada 37 la habría realizado un jugador humano. 451 00:18:08,826 --> 00:18:10,176 El juego de Go ha sido estudiado 452 00:18:10,219 --> 00:18:11,568 durante miles de años. 453 00:18:11,612 --> 00:18:15,137 Y AlphaGo descubrió algo completamente nuevo. 454 00:18:16,878 --> 00:18:19,707 Él renunció. Lee Sedol acaba de renunciar. 455 00:18:19,750 --> 00:18:21,187 Está derrotado. 456 00:18:22,710 --> 00:18:24,668 La batalla entre el hombre y la máquina, 457 00:18:24,712 --> 00:18:26,235 Una computadora acaba de salir victoriosa. 458 00:18:26,279 --> 00:18:28,237 Google puso a su equipo DeepMind 459 00:18:28,281 --> 00:18:29,673 a la prueba contra 460 00:18:29,717 --> 00:18:32,023 Una de las mentes más brillantes del mundo y ganó. 461 00:18:32,067 --> 00:18:33,721 Fue entonces cuando nos dimos cuenta. 462 00:18:33,764 --> 00:18:35,244 La gente de DeepMind sabía lo que hacía. 463 00:18:35,288 --> 00:18:37,551 y prestar atención al aprendizaje por refuerzo 464 00:18:37,594 --> 00:18:38,900 tal como lo han inventado. 465 00:18:40,075 --> 00:18:41,816 Basándonos en esa experiencia, 466 00:18:41,859 --> 00:18:44,819 AlphaGo fue mejorando cada vez más. 467 00:18:44,862 --> 00:18:45,950 Y tenían un pequeño gráfico. 468 00:18:45,994 --> 00:18:47,517 de lo mucho que estaban mejorando. 469 00:18:47,561 --> 00:18:49,302 Y dije: "¿Cuándo terminará esto?" 470 00:18:50,085 --> 00:18:50,999 Y Demis dijo: 471 00:18:51,042 --> 00:18:52,696 "Cuando vencimos al chino, 472 00:18:52,740 --> 00:18:55,743 "El jugador mejor valorado del mundo". 473 00:18:56,961 --> 00:18:59,225 Ke Jie contra AlphaGo. 474 00:19:03,620 --> 00:19:04,795 Y creo que lo veremos 475 00:19:04,839 --> 00:19:06,145 AlphaGo avanza por ahí. 476 00:19:06,188 --> 00:19:08,190 AlphaGo está bastante por delante. 477 00:19:08,234 --> 00:19:11,454 Aproximadamente a la mitad del primer juego, 478 00:19:11,498 --> 00:19:14,675 El mejor jugador del mundo no lo estaba haciendo tan bien. 479 00:19:14,718 --> 00:19:17,808 ¿Qué puede hacer el negro aquí? 480 00:19:19,114 --> 00:19:21,247 Parece difícil. 481 00:19:21,290 --> 00:19:23,336 Y en un momento crítico... 482 00:19:32,997 --> 00:19:35,913 El gobierno chino ordenó cortar la transmisión. 483 00:19:38,307 --> 00:19:41,745 Fue en ese momento que le estábamos diciendo al mundo 484 00:19:41,789 --> 00:19:44,966 que algo nuevo había llegado a la tierra. 485 00:19:47,621 --> 00:19:48,970 En la década de 1950 486 00:19:49,013 --> 00:19:51,929 Cuando se lanzó el satélite ruso Sputnik, 487 00:19:53,279 --> 00:19:55,194 Cambió el curso de la historia. 488 00:19:55,237 --> 00:19:57,544 Es un desafío que Estados Unidos debe afrontar 489 00:19:57,587 --> 00:19:59,633 Para sobrevivir en la era espacial. 490 00:19:59,676 --> 00:20:02,375 Esto se ha llamado el momento Sputnik. 491 00:20:02,418 --> 00:20:06,335 El momento Sputnik generó una reacción masiva en Estados Unidos. 492 00:20:06,379 --> 00:20:10,034 En términos de financiación para la ciencia y la ingeniería, 493 00:20:10,078 --> 00:20:12,254 y, en particular, de la tecnología espacial. 494 00:20:12,298 --> 00:20:15,823 Para China, AlphaGo fue una llamada de atención, 495 00:20:15,866 --> 00:20:17,128 El momento Sputnik. 496 00:20:17,172 --> 00:20:19,870 Lanzó una carrera espacial de IA. 497 00:20:21,220 --> 00:20:23,047 Tuvimos esta gran idea que funcionó, 498 00:20:23,091 --> 00:20:26,355 Y ahora todo el mundo lo sabe. 499 00:20:26,399 --> 00:20:28,879 Siempre es más fácil aterrizar en la luna. 500 00:20:28,923 --> 00:20:30,838 Si alguien ya ha aterrizado allí. 501 00:20:32,056 --> 00:20:34,450 Importará quién construya la IA, 502 00:20:34,494 --> 00:20:36,626 y cómo se construye. 503 00:20:36,670 --> 00:20:38,324 Siempre siento esa presión. 504 00:20:42,066 --> 00:20:43,764 Ha habido una gran cadena de acontecimientos. 505 00:20:43,807 --> 00:20:46,680 que siguió a todo el entusiasmo de AlphaGo. 506 00:20:46,723 --> 00:20:48,072 Cuando jugamos contra Lee Sedol, 507 00:20:48,116 --> 00:20:49,248 En realidad teníamos un sistema 508 00:20:49,291 --> 00:20:50,684 que había sido entrenado con datos humanos, 509 00:20:50,727 --> 00:20:52,251 En todos los millones de juegos 510 00:20:52,294 --> 00:20:55,036 que han sido interpretados por expertos humanos. 511 00:20:55,079 --> 00:20:56,994 Finalmente encontramos un nuevo algoritmo, 512 00:20:57,038 --> 00:20:59,170 un enfoque mucho más elegante para todo el sistema, 513 00:20:59,214 --> 00:21:01,172 que en realidad eliminó todo el conocimiento humano 514 00:21:01,216 --> 00:21:03,697 y empezó completamente desde cero. 515 00:21:03,740 --> 00:21:06,700 Y eso se convirtió en un proyecto al que llamamos AlphaZero. 516 00:21:06,743 --> 00:21:09,529 Cero, lo que significa que no hay ningún conocimiento humano en el circuito. 517 00:21:11,879 --> 00:21:13,054 En lugar de aprender de datos humanos, 518 00:21:13,097 --> 00:21:15,796 Aprendió de sus propios juegos. 519 00:21:15,839 --> 00:21:17,841 Así que realmente se convirtió en su propio maestro. 520 00:21:21,280 --> 00:21:23,499 AlphaZero es un experimento 521 00:21:23,543 --> 00:21:26,720 En qué tan poco conocimiento podemos poner en estos sistemas 522 00:21:26,763 --> 00:21:28,243 y con qué rapidez y eficiencia 523 00:21:28,287 --> 00:21:29,723 ¿Pueden aprender? 524 00:21:29,766 --> 00:21:32,552 Pero la otra cosa es que AlphaZero no tiene reglas. 525 00:21:32,595 --> 00:21:33,553 Aprende a través de la experiencia. 526 00:21:36,120 --> 00:21:38,862 El siguiente paso fue hacerlo más general. 527 00:21:38,906 --> 00:21:40,995 para que pueda jugar cualquier juego de dos jugadores. 528 00:21:41,038 --> 00:21:42,344 Cosas como el ajedrez, 529 00:21:42,388 --> 00:21:44,085 y de hecho, cualquier tipo de dos jugadores 530 00:21:44,128 --> 00:21:45,391 Juego de información perfecto. 531 00:21:45,434 --> 00:21:46,653 Va muy bien. 532 00:21:46,696 --> 00:21:47,828 Va muy, muy bien. 533 00:21:47,871 --> 00:21:50,091 - Oh, vaya. - Está bajando, muy rápido. 534 00:21:50,134 --> 00:21:53,050 AlphaGo solía tardar unos meses en entrenarse, 535 00:21:53,094 --> 00:21:55,662 pero AlphaZero podría comenzar por la mañana 536 00:21:55,705 --> 00:21:57,794 Jugando completamente al azar 537 00:21:57,838 --> 00:22:01,015 y luego por el té estar a nivel sobrehumano. 538 00:22:01,058 --> 00:22:03,365 Y para la cena será la entidad ajedrecística más fuerte. 539 00:22:03,409 --> 00:22:04,758 alguna vez ha habido 540 00:22:04,801 --> 00:22:06,629 - Increíble, es increíble. - Sí. 541 00:22:06,673 --> 00:22:09,371 Ha descubierto su propio estilo de ataque, ¿sabes? 542 00:22:09,415 --> 00:22:11,417 para asumir el nivel actual de defensa. 543 00:22:11,460 --> 00:22:12,766 Quiero decir, nunca en mis sueños más locos... 544 00:22:12,809 --> 00:22:14,942 Estoy de acuerdo. En realidad, yo tampoco me lo esperaba. 545 00:22:14,985 --> 00:22:16,422 Y es divertido para mí. 546 00:22:16,465 --> 00:22:18,598 Quiero decir, me ha inspirado a volver al ajedrez de nuevo. 547 00:22:18,641 --> 00:22:20,164 Porque es genial verlo 548 00:22:20,208 --> 00:22:22,384 que hay incluso más profundidad de la que pensábamos en el ajedrez. 549 00:22:31,611 --> 00:22:34,440 En realidad me interesé en la IA a través de los juegos. 550 00:22:35,658 --> 00:22:37,660 Al principio eran juegos de mesa. 551 00:22:37,704 --> 00:22:40,054 Estaba pensando: "¿Cómo hace esto mi cerebro?" 552 00:22:40,097 --> 00:22:41,969 ¿Qué es lo que está haciendo? 553 00:22:43,362 --> 00:22:47,148 Fui muy consciente de eso desde muy joven. 554 00:22:47,191 --> 00:22:50,064 Así que siempre he estado pensando en pensar. 555 00:22:50,107 --> 00:22:52,762 Los campeones de ajedrez británico y estadounidense 556 00:22:52,806 --> 00:22:55,025 reunirse para iniciar una serie de partidos. 557 00:22:55,069 --> 00:22:56,592 Junto a ellos juegan los mejores 558 00:22:56,636 --> 00:22:59,073 de los jugadores más jóvenes de Gran Bretaña y Estados Unidos. 559 00:22:59,116 --> 00:23:01,467 Demis Hassabis representa a Gran Bretaña. 560 00:23:06,210 --> 00:23:07,864 Cuando Demis tenía cuatro años, 561 00:23:07,908 --> 00:23:11,259 Demostró por primera vez aptitud para el ajedrez. 562 00:23:12,739 --> 00:23:14,044 Cuando tenía seis años, 563 00:23:14,088 --> 00:23:18,048 Se convirtió en campeón de Londres sub-8. 564 00:23:18,092 --> 00:23:19,485 Mis padres eran muy interesantes. 565 00:23:19,528 --> 00:23:20,834 Y, en realidad, inusual. 566 00:23:20,877 --> 00:23:23,750 Probablemente los describiría como bastante bohemios. 567 00:23:23,793 --> 00:23:25,491 Mi padre era cantautor. 568 00:23:25,534 --> 00:23:26,709 Cuando era más joven, 569 00:23:26,753 --> 00:23:28,363 y Bob Dylan era su héroe. 570 00:23:38,068 --> 00:23:39,287 Sí, sí. 571 00:23:41,637 --> 00:23:44,031 ¿Qué es lo que te gusta de este juego? 572 00:23:45,075 --> 00:23:47,121 Es solo un buen juego de pensar. 573 00:23:49,253 --> 00:23:51,038 En ese momento, yo era el segundo mejor calificado. 574 00:23:51,081 --> 00:23:52,692 El mejor jugador de ajedrez del mundo para mi edad. 575 00:23:52,735 --> 00:23:54,345 Pero aunque estaba en el buen camino 576 00:23:54,389 --> 00:23:55,956 ser un jugador de ajedrez profesional, 577 00:23:55,999 --> 00:23:57,523 Pensé que eso era lo que iba a hacer. 578 00:23:57,566 --> 00:23:59,220 No importa cuánto me encantó el juego, 579 00:23:59,263 --> 00:24:01,222 Fue increíblemente estresante. 580 00:24:01,265 --> 00:24:03,354 Definitivamente no fue diversión ni juegos para mí. 581 00:24:03,398 --> 00:24:05,226 Mis padres solían, ya sabes, 582 00:24:05,269 --> 00:24:06,923 Me enojé mucho cuando perdí el juego 583 00:24:06,967 --> 00:24:10,405 y me enojo si olvido algo. 584 00:24:10,449 --> 00:24:12,407 Y como para ellos había mucho en juego, ya sabes, 585 00:24:12,451 --> 00:24:14,061 Cuesta mucho dinero ir a estos torneos. 586 00:24:14,104 --> 00:24:15,715 Y mis padres no tenían mucho dinero. 587 00:24:18,413 --> 00:24:19,719 Mis padres pensaron, ya sabes, 588 00:24:19,762 --> 00:24:22,069 "Si estás interesado en ser un profesional del ajedrez, 589 00:24:22,112 --> 00:24:25,376 "Esto es muy importante. Es como tus exámenes". 590 00:24:27,291 --> 00:24:30,077 Recuerdo que tenía unos 12 años. 591 00:24:30,120 --> 00:24:32,079 Y estuve en este torneo internacional de ajedrez. 592 00:24:32,122 --> 00:24:34,255 En Liechtenstein, en las montañas. 593 00:24:43,307 --> 00:24:45,571 Y estábamos en este enorme salón de la iglesia. 594 00:24:47,181 --> 00:24:48,399 con, ya sabes, 595 00:24:48,443 --> 00:24:50,184 Cientos de ajedrecistas internacionales. 596 00:24:52,403 --> 00:24:56,016 Y yo estaba interpretando al ex campeón danés. 597 00:24:56,059 --> 00:24:58,801 Debía tener unos 30 años, probablemente. 598 00:25:00,411 --> 00:25:02,979 En aquellos días, había un largo límite de tiempo. 599 00:25:03,023 --> 00:25:05,068 Los juegos podrían durar literalmente todo el día. 600 00:25:08,332 --> 00:25:10,813 -Estábamos en nuestra décima hora. 601 00:25:20,257 --> 00:25:23,086 Y estábamos en este final increíblemente inusual. 602 00:25:23,130 --> 00:25:24,566 Pienso que debería haber un empate. 603 00:25:26,307 --> 00:25:28,657 Pero siguió intentando ganar durante horas. 604 00:25:35,359 --> 00:25:38,319 Finalmente, intentó un último truco barato. 605 00:25:42,541 --> 00:25:44,455 Todo lo que tenía que hacer era entregar a mi reina. 606 00:25:44,499 --> 00:25:45,674 Entonces se llegaría a un punto muerto. 607 00:25:47,023 --> 00:25:48,634 Pero estaba tan cansado, 608 00:25:48,677 --> 00:25:50,157 Pensé que era inevitable que me dieran jaque mate. 609 00:25:52,289 --> 00:25:53,508 Y entonces renuncié. 610 00:25:57,294 --> 00:25:59,558 Se levantó de un salto y empezó a reír. 611 00:26:01,777 --> 00:26:02,909 Y él se fue, 612 00:26:02,952 --> 00:26:04,171 "¿Por qué has dimitido? Es un empate". 613 00:26:04,214 --> 00:26:05,346 Y él inmediatamente, con un gesto elegante, 614 00:26:05,389 --> 00:26:06,652 De alguna manera me mostró el movimiento del dibujo. 615 00:26:09,045 --> 00:26:12,396 Me sentí muy mal del estómago. 616 00:26:12,440 --> 00:26:14,137 Me hizo pensar en el resto de ese torneo. 617 00:26:14,181 --> 00:26:16,662 ¿Estamos desperdiciando nuestras mentes? 618 00:26:16,705 --> 00:26:19,708 ¿Es este el mejor uso de todo este poder cerebral? 619 00:26:19,752 --> 00:26:22,363 ¿Están todos juntos en ese edificio? 620 00:26:22,406 --> 00:26:24,060 Si pudieras enchufarlo de alguna manera 621 00:26:24,104 --> 00:26:27,542 esos 300 cerebros en un sistema, 622 00:26:27,586 --> 00:26:29,022 Quizás puedas solucionar el cáncer 623 00:26:29,065 --> 00:26:30,501 con ese nivel de poder cerebral. 624 00:26:31,633 --> 00:26:33,504 Este sentimiento intuitivo me invadió. 625 00:26:33,548 --> 00:26:35,071 que aunque me encanta el ajedrez, 626 00:26:35,115 --> 00:26:38,335 Esto no es lo correcto en lo que debería invertir mi vida entera. 627 00:26:51,479 --> 00:26:53,089 Demis y yo, 628 00:26:53,133 --> 00:26:56,092 Nuestro plan siempre fue llenar DeepMind 629 00:26:56,136 --> 00:26:57,224 con algunos de los más 630 00:26:57,267 --> 00:26:59,226 Científicos brillantes del mundo. 631 00:26:59,269 --> 00:27:01,054 Así que teníamos los cerebros humanos. 632 00:27:01,097 --> 00:27:04,927 necesario crear un sistema AGI. 633 00:27:04,971 --> 00:27:09,279 Por definición, la "G" en AGI se refiere a generalidad. 634 00:27:09,323 --> 00:27:13,109 Lo que imagino es poder hablar con un agente, 635 00:27:13,153 --> 00:27:15,198 El agente puede responder, 636 00:27:15,242 --> 00:27:18,898 y el agente es capaz de resolver problemas novedosos 637 00:27:18,941 --> 00:27:20,595 que no había visto antes. 638 00:27:20,639 --> 00:27:22,728 Esa es una parte realmente clave de la inteligencia humana, 639 00:27:22,771 --> 00:27:24,468 Y es esa amplitud cognitiva 640 00:27:24,512 --> 00:27:27,733 y una flexibilidad increíble. 641 00:27:27,776 --> 00:27:29,473 La única inteligencia general natural 642 00:27:29,517 --> 00:27:30,910 que conocemos como humanos, 643 00:27:30,953 --> 00:27:33,434 Obviamente aprendemos mucho de nuestro entorno. 644 00:27:33,477 --> 00:27:35,871 Así que pensamos que los entornos simulados 645 00:27:35,915 --> 00:27:38,874 Son una de las formas de crear una IAG. 646 00:27:40,528 --> 00:27:42,356 Los primeros humanos 647 00:27:42,399 --> 00:27:44,314 Tenían que resolver problemas de lógica. 648 00:27:44,358 --> 00:27:46,752 Tenían que resolver la navegación, la memoria, 649 00:27:46,795 --> 00:27:48,971 y nosotros evolucionamos en ese entorno. 650 00:27:50,364 --> 00:27:52,496 Si pudiéramos crear una recreación virtual 651 00:27:52,540 --> 00:27:54,629 de ese tipo de ambiente, 652 00:27:54,673 --> 00:27:56,326 Ese es el campo de pruebas perfecto 653 00:27:56,370 --> 00:27:57,458 y campo de entrenamiento 654 00:27:57,501 --> 00:27:59,329 por todo lo que hacemos en DeepMind. 655 00:28:04,247 --> 00:28:05,727 ¿Qué estaban haciendo aquí? 656 00:28:05,771 --> 00:28:09,252 Estaba creando ambientes para seres infantiles, 657 00:28:09,296 --> 00:28:11,690 los agentes que existen dentro y juegan. 658 00:28:12,429 --> 00:28:13,648 Eso simplemente sonó como 659 00:28:13,692 --> 00:28:16,782 La cosa más interesante del mundo. 660 00:28:16,825 --> 00:28:19,132 Un niño aprende rompiendo cosas. 661 00:28:19,175 --> 00:28:20,655 y luego tirar la comida por todos lados 662 00:28:20,699 --> 00:28:23,353 y obtener una respuesta de mamá o papá. 663 00:28:23,397 --> 00:28:25,616 Esta parece una idea importante para incorporar. 664 00:28:25,660 --> 00:28:27,880 en la forma en que se entrena a un agente. 665 00:28:27,923 --> 00:28:30,970 Se supone que el humanoide debe ponerse de pie. 666 00:28:31,013 --> 00:28:32,972 A medida que su centro de gravedad se eleva, 667 00:28:33,015 --> 00:28:34,408 Obtienes más puntos. 668 00:28:37,454 --> 00:28:38,804 Tienes una recompensa 669 00:28:38,847 --> 00:28:40,849 y el agente aprende de la recompensa, 670 00:28:40,893 --> 00:28:43,373 Por ejemplo, si haces algo bien, obtienes una recompensa positiva. 671 00:28:43,417 --> 00:28:47,508 Haces algo malo y obtienes una recompensa negativa. 672 00:28:47,551 --> 00:28:49,379 Parece que está de pie. 673 00:28:50,859 --> 00:28:52,165 Todavía estoy un poco borracho. 674 00:28:52,208 --> 00:28:53,644 Le gusta caminar hacia atrás. 675 00:28:53,688 --> 00:28:55,342 Sí. 676 00:28:55,385 --> 00:28:57,518 Todo el algoritmo está intentando optimizar 677 00:28:57,561 --> 00:28:59,694 para recibir tantas recompensas como sea posible, 678 00:28:59,738 --> 00:29:02,305 y se descubrió que caminar hacia atrás, 679 00:29:02,349 --> 00:29:05,352 Es suficiente para obtener muy buenas puntuaciones. 680 00:29:07,746 --> 00:29:09,573 Cuando aprendemos a navegar, 681 00:29:09,617 --> 00:29:11,271 Cuando aprendemos a desenvolvernos en nuestro mundo, 682 00:29:11,314 --> 00:29:13,490 No empezamos con mapas. 683 00:29:13,534 --> 00:29:16,319 Simplemente comenzamos con nuestra propia exploración, 684 00:29:16,363 --> 00:29:18,017 Aventurándose por el parque, 685 00:29:18,060 --> 00:29:21,890 Sin nuestros padres a nuestro lado, 686 00:29:21,934 --> 00:29:24,327 o encontrar el camino a casa desde la escuela cuando somos jóvenes. 687 00:29:26,939 --> 00:29:28,723 A algunos de nosotros se nos ocurrió esta idea. 688 00:29:28,767 --> 00:29:31,987 que si tuviéramos un entorno donde un robot simulado 689 00:29:32,031 --> 00:29:33,728 Sólo tenía que correr hacia adelante, 690 00:29:33,772 --> 00:29:36,296 Podríamos poner todo tipo de obstáculos en su camino. 691 00:29:36,339 --> 00:29:38,211 y ver si lograba navegar 692 00:29:38,254 --> 00:29:40,474 Diferentes tipos de terreno. 693 00:29:40,517 --> 00:29:43,042 La idea sería como un desafío de parkour. 694 00:29:46,393 --> 00:29:48,743 No es elegante, 695 00:29:48,787 --> 00:29:51,833 pero nunca me entrenaron para sostener un vaso mientras estaba abierto 696 00:29:51,877 --> 00:29:53,052 y no derramar agua. 697 00:29:54,183 --> 00:29:55,706 Te fijaste este objetivo que dice, 698 00:29:55,750 --> 00:29:58,231 "Simplemente sigue adelante, avanza a gran velocidad, 699 00:29:58,274 --> 00:30:00,581 "y recibirás una recompensa por ello." 700 00:30:00,624 --> 00:30:02,670 Y el algoritmo de aprendizaje se da cuenta 701 00:30:02,713 --> 00:30:05,412 Cómo mover este complejo conjunto de articulaciones. 702 00:30:06,152 --> 00:30:07,370 Ese es el poder de 703 00:30:07,414 --> 00:30:10,069 aprendizaje de refuerzo basado en recompensas. 704 00:30:10,112 --> 00:30:12,767 Nuestro objetivo es intentar construir agentes. 705 00:30:12,811 --> 00:30:15,770 en los cuales los dejamos caer, no saben nada, 706 00:30:15,814 --> 00:30:18,381 Pueden jugar con cualquier problema que les des. 707 00:30:18,425 --> 00:30:22,342 y eventualmente descubrir cómo resolverlo por sí mismos. 708 00:30:22,385 --> 00:30:24,823 Ahora queremos algo que pueda hacer eso. 709 00:30:24,866 --> 00:30:27,390 en tantos tipos diferentes de problemas como sea posible. 710 00:30:29,262 --> 00:30:32,918 Un ser humano necesita diversas habilidades para interactuar con el mundo. 711 00:30:32,961 --> 00:30:35,050 Cómo tratar con imágenes complejas, 712 00:30:35,094 --> 00:30:37,879 Cómo manipular miles de cosas a la vez, 713 00:30:37,923 --> 00:30:40,447 Cómo lidiar con la información faltante. 714 00:30:40,490 --> 00:30:42,014 Pensamos en todas estas cosas juntas 715 00:30:42,057 --> 00:30:45,278 están representados por este juego llamado StarCraft. 716 00:30:45,321 --> 00:30:47,280 Lo único que está siendo entrenado para hacer es, 717 00:30:47,323 --> 00:30:50,457 Dada esta situación, esta pantalla, 718 00:30:50,500 --> 00:30:51,850 ¿Qué haría un humano? 719 00:30:51,893 --> 00:30:55,244 Nos inspiramos en grandes modelos lingüísticos. 720 00:30:55,288 --> 00:30:57,638 donde simplemente entrenas un modelo 721 00:30:57,681 --> 00:30:59,553 para predecir la siguiente palabra, 722 00:31:03,731 --> 00:31:05,472 que es exactamente lo mismo que 723 00:31:05,515 --> 00:31:07,735 predecir el próximo movimiento de StarCraft. 724 00:31:07,778 --> 00:31:08,954 A diferencia del ajedrez o el Go, 725 00:31:08,997 --> 00:31:11,217 donde los jugadores se turnan para realizar movimientos, 726 00:31:11,260 --> 00:31:14,133 En StarCraft hay un flujo continuo de decisiones. 727 00:31:15,134 --> 00:31:16,483 Además de eso, 728 00:31:16,526 --> 00:31:18,659 Ni siquiera puedes ver lo que está haciendo el oponente. 729 00:31:18,702 --> 00:31:20,879 Ya no existe una definición clara 730 00:31:20,922 --> 00:31:22,315 de lo que significa jugar de la mejor manera. 731 00:31:22,358 --> 00:31:23,925 Depende de lo que haga tu oponente. 732 00:31:23,969 --> 00:31:25,492 Así es como llegaremos a 733 00:31:25,535 --> 00:31:27,494 un mucho más fluido, 734 00:31:27,537 --> 00:31:31,672 Agente más natural, más rápido, más reactivo. 735 00:31:31,715 --> 00:31:33,021 Este es un gran desafío 736 00:31:33,065 --> 00:31:35,415 y veamos hasta dónde podemos llegar. 737 00:31:35,458 --> 00:31:36,459 ¡Oh! 738 00:31:36,503 --> 00:31:38,200 ¡Santo mono! 739 00:31:38,244 --> 00:31:40,376 Soy un aficionado de nivel bastante bajo. 740 00:31:40,420 --> 00:31:42,857 Estoy bien, pero soy un aficionado de nivel bastante bajo. 741 00:31:42,901 --> 00:31:45,991 Estos agentes tienen un largo camino por recorrer. 742 00:31:46,034 --> 00:31:48,515 No podríamos vencer a alguien del nivel de Tim. 743 00:31:48,558 --> 00:31:50,430 Sabes, eso fue un poco alarmante. 744 00:31:50,473 --> 00:31:51,997 En ese momento, me sentí como si 745 00:31:52,040 --> 00:31:53,520 Iba a ser como un desafío muy grande y largo. 746 00:31:53,563 --> 00:31:55,000 Quizás un par de años. 747 00:31:58,177 --> 00:32:01,832 Dani es el mejor jugador de DeepMind StarCraft 2. 748 00:32:01,876 --> 00:32:05,097 Llevo unas semanas interpretando al agente todos los días. 749 00:32:07,186 --> 00:32:08,883 Pude sentir que el agente 750 00:32:08,927 --> 00:32:11,103 Estaba mejorando muy rápido. 751 00:32:13,409 --> 00:32:15,020 Vaya, le ganamos a Danny. Eso, para mí, 752 00:32:15,063 --> 00:32:16,935 Ya fue como un gran logro. 753 00:32:18,284 --> 00:32:19,372 El siguiente paso es 754 00:32:19,415 --> 00:32:21,722 Vamos a reservar un profesional para jugar. 755 00:32:42,003 --> 00:32:44,049 Me parece un poco injusto. Todos ustedes están en mi contra. 756 00:32:45,615 --> 00:32:46,965 Estamos muy por delante de lo que pensaba. 757 00:32:47,008 --> 00:32:49,402 Lo haríamos, considerando dónde estábamos hace dos meses. 758 00:32:49,445 --> 00:32:50,794 En realidad, sólo estoy tratando de digerirlo todo. 759 00:32:50,838 --> 00:32:52,753 Pero es muy, muy genial. 760 00:32:52,796 --> 00:32:54,146 Ahora estamos en una posición en la que 761 00:32:54,189 --> 00:32:56,061 Finalmente podemos compartir el trabajo que hemos realizado. 762 00:32:56,104 --> 00:32:57,192 con el público. 763 00:32:57,236 --> 00:32:58,585 Este es un gran paso. 764 00:32:58,628 --> 00:33:00,674 Realmente nos estamos arriesgando aquí. 765 00:33:00,717 --> 00:33:02,589 - Llévatelo. Saludos. - Gracias. 766 00:33:02,632 --> 00:33:04,460 Estaremos en vivo desde Londres. 767 00:33:04,504 --> 00:33:05,722 Esta sucediendo 768 00:33:08,638 --> 00:33:10,597 Bienvenido a Londres. 769 00:33:10,640 --> 00:33:13,252 Vamos a tener un partido de exhibición en vivo, 770 00:33:13,295 --> 00:33:15,341 MaNa contra AlphaStar. 771 00:33:18,344 --> 00:33:19,998 En este punto ahora, 772 00:33:20,041 --> 00:33:23,827 AlphaStar, 10 y 0 contra jugadores profesionales. 773 00:33:23,871 --> 00:33:25,873 ¿Alguna idea antes de adentrarnos en este juego? 774 00:33:25,916 --> 00:33:27,483 Sólo quiero ver un buen partido, sí. 775 00:33:27,527 --> 00:33:28,963 Quiero ver un buen partido. 776 00:33:29,007 --> 00:33:30,486 Absolutamente, buen partido. Estamos todos emocionados. 777 00:33:30,530 --> 00:33:33,011 Está bien. Veamos qué puede lograr MaNa. 778 00:33:34,969 --> 00:33:36,405 AlphaStar es definitivamente 779 00:33:36,449 --> 00:33:38,364 dominando el ritmo de este juego. 780 00:33:41,149 --> 00:33:44,152 Vaya. AlphaStar está jugando muy inteligentemente. 781 00:33:46,850 --> 00:33:48,461 Realmente parece que estoy mirando 782 00:33:48,504 --> 00:33:49,940 Un jugador humano profesional 783 00:33:49,984 --> 00:33:51,290 desde el punto de vista de AlphaStar. 784 00:33:57,252 --> 00:34:01,952 Realmente no había visto a un profesional jugar a StarCraft de cerca, 785 00:34:01,996 --> 00:34:03,563 y los 800 clics por minuto. 786 00:34:03,606 --> 00:34:06,000 No entiendo cómo alguien puede hacer clic 800 veces. 787 00:34:06,044 --> 00:34:09,482 y mucho menos hacer 800 clics útiles. 788 00:34:09,525 --> 00:34:11,092 Oh, otro buen éxito. 789 00:34:11,136 --> 00:34:13,094 - AlphaStar es solo 790 00:34:13,138 --> 00:34:14,617 completamente implacable 791 00:34:14,661 --> 00:34:16,141 Tenemos que tener cuidado 792 00:34:16,184 --> 00:34:19,361 Porque muchos de nosotros crecimos como jugadores y somos jugadores. 793 00:34:19,405 --> 00:34:21,363 Y entonces para nosotros es muy natural. 794 00:34:21,407 --> 00:34:23,800 ver los juegos como lo que son, 795 00:34:23,844 --> 00:34:26,977 que son puros vehículos para la diversión, 796 00:34:27,021 --> 00:34:29,719 y no ver ese lado más militarista 797 00:34:29,763 --> 00:34:32,853 Para que el público pudiera verlo si mirara esto. 798 00:34:32,896 --> 00:34:37,553 No se puede mirar la pólvora y sólo hacer un petardo. 799 00:34:37,597 --> 00:34:41,209 Todas las tecnologías apuntan inherentemente en ciertas direcciones. 800 00:34:43,124 --> 00:34:44,691 Estoy muy preocupado por 801 00:34:44,734 --> 00:34:46,606 Las formas específicas en que la IA 802 00:34:46,649 --> 00:34:49,652 Se utilizará para fines militares. 803 00:34:51,306 --> 00:34:55,049 Y eso deja aún más claro lo importante que es 804 00:34:55,093 --> 00:34:58,357 Para que nuestras sociedades tengan el control 805 00:34:58,400 --> 00:35:01,055 de estas nuevas tecnologías. 806 00:35:01,099 --> 00:35:05,190 El potencial de abuso por parte de la IA será significativo. 807 00:35:05,233 --> 00:35:08,758 Guerras que ocurren más rápido de lo que los humanos pueden comprender. 808 00:35:08,802 --> 00:35:11,065 y una vigilancia más poderosa. 809 00:35:12,458 --> 00:35:15,765 ¿Cómo mantener el poder para siempre? 810 00:35:15,809 --> 00:35:19,421 ¿sobre algo que es mucho más poderoso que tú? 811 00:35:43,053 --> 00:35:45,752 Las tecnologías pueden usarse para hacer cosas terribles. 812 00:35:47,493 --> 00:35:50,452 Y la tecnología se puede utilizar para hacer cosas maravillosas. 813 00:35:50,496 --> 00:35:52,150 y resolver todo tipo de problemas. 814 00:35:53,586 --> 00:35:54,978 Cuando DeepMind fue adquirida por Google... 815 00:35:55,022 --> 00:35:56,589 - Sí. - ...hiciste que Google prometiera 816 00:35:56,632 --> 00:35:58,025 Esa tecnología que desarrollaste no será utilizada por los militares. 817 00:35:58,068 --> 00:35:59,418 - para vigilancia.- Correcto. 818 00:35:59,461 --> 00:36:00,593 - Sí. - Cuéntanos sobre eso. 819 00:36:00,636 --> 00:36:03,161 Creo que la tecnología es neutral en sí misma, 820 00:36:03,204 --> 00:36:05,598 um, pero ¿cómo, ya sabes, nosotros como sociedad? 821 00:36:05,641 --> 00:36:07,382 o humanos y empresas y otras cosas, 822 00:36:07,426 --> 00:36:09,515 Otras entidades y gobiernos deciden utilizarlo 823 00:36:09,558 --> 00:36:12,561 Es lo que determina si las cosas se vuelven buenas o malas. 824 00:36:12,605 --> 00:36:16,261 Sabes, personalmente creo que tener armamento autónomo... 825 00:36:16,304 --> 00:36:17,479 Es simplemente una muy mala idea. 826 00:36:19,177 --> 00:36:21,266 AlphaStar está jugando 827 00:36:21,309 --> 00:36:24,094 Un juego extremadamente inteligente en este momento. 828 00:36:24,138 --> 00:36:27,359 Hay un elemento en lo que se está creando. 829 00:36:27,402 --> 00:36:28,882 en DeepMind en Londres 830 00:36:28,925 --> 00:36:34,148 Esto sí que parece el Proyecto Manhattan. 831 00:36:34,192 --> 00:36:37,586 Existe una relación entre Robert Oppenheimer 832 00:36:37,630 --> 00:36:39,675 y Demis Hassabis 833 00:36:39,719 --> 00:36:44,202 en el que están desatando una nueva fuerza sobre la humanidad. 834 00:36:44,245 --> 00:36:46,204 Pero MaNa está contraatacando. 835 00:36:46,247 --> 00:36:48,162 ¡Oh, hombre! 836 00:36:48,206 --> 00:36:50,208 Creo que Oppenheimer 837 00:36:50,251 --> 00:36:52,471 y algunos de los otros líderes de ese proyecto quedaron atrapados 838 00:36:52,514 --> 00:36:54,908 En la emoción de construir la tecnología 839 00:36:54,951 --> 00:36:56,170 y ver si era posible. 840 00:36:56,214 --> 00:36:58,520 ¿Dónde está AlphaStar? 841 00:36:58,564 --> 00:36:59,782 ¿Dónde está AlphaStar? 842 00:36:59,826 --> 00:37:01,958 No veo las unidades de AlphaStar en ninguna parte. 843 00:37:02,002 --> 00:37:03,525 No pensaron con suficiente cuidado 844 00:37:03,569 --> 00:37:07,312 sobre la moral de lo que estaban haciendo desde bastante temprano. 845 00:37:07,355 --> 00:37:08,965 Lo que debemos hacer como científicos 846 00:37:09,009 --> 00:37:11,011 con nuevas y potentes tecnologías 847 00:37:11,054 --> 00:37:13,883 es intentar comprenderlo en condiciones controladas primero. 848 00:37:14,928 --> 00:37:16,799 Y eso es todo. 849 00:37:16,843 --> 00:37:19,411 MaNa ha derrotado a AlphaStar. 850 00:37:29,551 --> 00:37:31,336 Quiero decir, mi sentimiento honesto es que creo que es... 851 00:37:31,379 --> 00:37:33,207 Una representación justa de dónde estamos. 852 00:37:33,251 --> 00:37:35,949 Y creo que esa parte se siente... se siente bien. 853 00:37:35,992 --> 00:37:37,429 -Estoy muy feliz por ti.-Estoy feliz. 854 00:37:37,472 --> 00:37:38,865 Muy bien...bien hecho. 855 00:37:38,908 --> 00:37:40,867 Mi opinión es que el enfoque de la tecnología de construcción 856 00:37:40,910 --> 00:37:43,348 que se materializa en moverse rápido y romper cosas, 857 00:37:43,391 --> 00:37:46,220 Es exactamente lo que no deberíamos estar haciendo, 858 00:37:46,264 --> 00:37:47,961 Porque no puedes permitirte romper cosas 859 00:37:48,004 --> 00:37:49,049 y luego arreglarlos después. 860 00:37:49,092 --> 00:37:50,398 -Salud. -Muchas gracias. 861 00:37:50,442 --> 00:37:52,008 Sí, descansa... descansa un poco. Lo hiciste muy bien. 862 00:37:52,052 --> 00:37:53,923 - Salud, ¿sí? - Gracias por invitarnos. 863 00:38:04,238 --> 00:38:05,500 Cuando tenía ocho años, 864 00:38:05,544 --> 00:38:06,849 Compré mi primera computadora 865 00:38:06,893 --> 00:38:09,548 con las ganancias de un torneo de ajedrez. 866 00:38:09,591 --> 00:38:11,158 De alguna manera tuve esa intuición 867 00:38:11,201 --> 00:38:13,726 que las computadoras son este dispositivo mágico 868 00:38:13,769 --> 00:38:15,902 que puede ampliar el poder de la mente. 869 00:38:15,945 --> 00:38:17,382 Tenía un par de amigos de la escuela, 870 00:38:17,425 --> 00:38:19,166 y solíamos tener un club de hackers, 871 00:38:19,209 --> 00:38:21,908 escribiendo código, haciendo juegos. 872 00:38:26,260 --> 00:38:27,827 Y luego, durante las vacaciones de verano, 873 00:38:27,870 --> 00:38:29,219 Pasaría todo el día 874 00:38:29,263 --> 00:38:31,526 Hojeando revistas de juegos. 875 00:38:31,570 --> 00:38:33,441 Y un día me di cuenta de que había una competencia. 876 00:38:33,485 --> 00:38:35,878 escribir una versión original de Space Invaders. 877 00:38:35,922 --> 00:38:39,621 Y el ganador ganó un trabajo en Bullfrog. 878 00:38:39,665 --> 00:38:42,320 Bullfrog en ese momento era la mejor casa de desarrollo de juegos. 879 00:38:42,363 --> 00:38:43,756 En toda Europa. 880 00:38:43,799 --> 00:38:45,279 Sabes, realmente quería trabajar en este lugar. 881 00:38:45,323 --> 00:38:48,587 y ver cómo construyen juegos. 882 00:38:48,630 --> 00:38:50,415 Bullfrog, con sede aquí en Guildford, 883 00:38:50,458 --> 00:38:52,286 Comenzó con una gran idea. 884 00:38:52,330 --> 00:38:54,680 Esa idea se convirtió en el juego Populous, 885 00:38:54,723 --> 00:38:56,551 que se convirtió en un éxito de ventas mundial. 886 00:38:56,595 --> 00:38:59,859 En los años 90 no existían agencias de contratación. 887 00:38:59,902 --> 00:39:02,122 No podías salir y decir, ya sabes, 888 00:39:02,165 --> 00:39:04,951 "Ven y trabaja en la industria de los videojuegos". 889 00:39:04,994 --> 00:39:08,171 Todavía ni siquiera se consideraba una industria. 890 00:39:08,215 --> 00:39:11,218 Entonces se nos ocurrió la idea de hacer una competencia. 891 00:39:11,261 --> 00:39:13,655 Y tuvimos muchos solicitantes. 892 00:39:14,700 --> 00:39:17,616 Y uno de ellos era el de Demis. 893 00:39:17,659 --> 00:39:20,706 Todavía puedo recordarlo claramente 894 00:39:20,749 --> 00:39:23,970 El día que llegó Demis. 895 00:39:24,013 --> 00:39:27,147 Entró por la puerta y parecía tener unos 12 años. 896 00:39:28,670 --> 00:39:30,019 Pensé: "Oh, Dios mío, 897 00:39:30,063 --> 00:39:31,586 "¿Qué carajo vamos a hacer con este tipo?" 898 00:39:31,630 --> 00:39:32,979 Presenté mi solicitud para Cambridge. 899 00:39:33,022 --> 00:39:35,373 Entré pero dijeron que era demasiado joven. 900 00:39:35,416 --> 00:39:37,853 Entonces... Entonces necesitaba tomarme un año de descanso. 901 00:39:37,897 --> 00:39:39,899 Así que tendría al menos 17 años antes de llegar allí. 902 00:39:39,942 --> 00:39:42,771 Y fue entonces cuando decidí pasar todo ese año sabático. 903 00:39:42,815 --> 00:39:44,469 Trabajando en Bullfrog. 904 00:39:44,512 --> 00:39:46,166 Ni siquiera podían emplearme legalmente, 905 00:39:46,209 --> 00:39:48,298 Así que terminé recibiendo mi pago en sobres de papel marrón. 906 00:39:50,823 --> 00:39:54,304 Tuve la sensación de estar realmente a la vanguardia. 907 00:39:54,348 --> 00:39:58,047 Y qué divertido era inventar cosas todos los días. 908 00:39:58,091 --> 00:40:00,572 Y luego, ya sabes, unos meses después, 909 00:40:00,615 --> 00:40:03,662 Tal vez todos... un millón de personas lo estarán jugando. 910 00:40:03,705 --> 00:40:06,665 En aquella época los juegos de ordenador tenían que evolucionar. 911 00:40:06,708 --> 00:40:08,536 Tenía que haber nuevos géneros 912 00:40:08,580 --> 00:40:11,757 que eran más que simplemente disparar cosas. 913 00:40:11,800 --> 00:40:14,063 ¿No sería fantástico tener un juego? 914 00:40:14,107 --> 00:40:18,807 ¿Dónde diseñas y construyes tu propio parque temático? 915 00:40:22,594 --> 00:40:25,945 Demis y yo empezamos a hablar sobre el parque temático. 916 00:40:25,988 --> 00:40:28,904 Permite al jugador construir un mundo. 917 00:40:28,948 --> 00:40:31,864 y ver las consecuencias de tus decisiones 918 00:40:31,907 --> 00:40:34,127 que has hecho en ese mundo. 919 00:40:34,170 --> 00:40:36,085 Un jugador humano diseñó el diseño. 920 00:40:36,129 --> 00:40:38,566 del parque temático y diseñó la montaña rusa 921 00:40:38,610 --> 00:40:41,351 y fijar los precios en la tienda de patatas fritas. 922 00:40:41,395 --> 00:40:43,615 Lo que estaba trabajando era el comportamiento de la gente. 923 00:40:43,658 --> 00:40:45,138 Eran autónomos 924 00:40:45,181 --> 00:40:47,314 Y esa era la IA en este caso. 925 00:40:47,357 --> 00:40:48,881 Entonces lo que estaba tratando de hacer era imitar 926 00:40:48,924 --> 00:40:51,013 comportamiento humano interesante 927 00:40:51,057 --> 00:40:52,319 para que la simulación fuera 928 00:40:52,362 --> 00:40:54,582 Más interesante para interactuar. 929 00:40:54,626 --> 00:40:56,541 Demis trabajaba en cosas ridículas, 930 00:40:56,584 --> 00:40:59,413 Como si pudieras colocar estas tiendas 931 00:40:59,457 --> 00:41:03,591 Y si pones una tienda demasiado cerca de una atracción muy peligrosa, 932 00:41:03,635 --> 00:41:05,375 Entonces la gente en el viaje vomitaba. 933 00:41:05,419 --> 00:41:08,030 Porque acababan de comer. 934 00:41:08,074 --> 00:41:09,641 Y eso haría que otras personas vomitaran. 935 00:41:09,684 --> 00:41:12,121 Cuando vieron el vómito en el suelo, 936 00:41:12,165 --> 00:41:14,559 Así que entonces había que tener muchos barrenderos. 937 00:41:14,602 --> 00:41:17,823 barrerlo rápidamente antes de que la gente lo viera. 938 00:41:17,866 --> 00:41:19,520 Eso es lo bueno de esto. 939 00:41:19,564 --> 00:41:22,784 Tú, como jugador, juegas con él y luego el dispositivo reacciona ante ti. 940 00:41:22,828 --> 00:41:25,874 Todas esas simulaciones matizadas que hizo 941 00:41:25,918 --> 00:41:28,094 Y eso fue un invento 942 00:41:28,137 --> 00:41:31,227 que en realidad nunca existió antes. 943 00:41:31,271 --> 00:41:34,230 Fue un éxito increíble. 944 00:41:34,274 --> 00:41:35,710 El parque temático realmente resultó ser 945 00:41:35,754 --> 00:41:37,190 Ser un título entre los diez mejores 946 00:41:37,233 --> 00:41:39,932 Y esa fue la primera vez que empezamos a ver 947 00:41:39,975 --> 00:41:43,022 Cómo la IA podría marcar la diferencia. 948 00:41:46,155 --> 00:41:47,592 Estábamos haciendo algunas compras navideñas. 949 00:41:47,635 --> 00:41:51,247 y estábamos esperando el taxi que nos llevaría a casa. 950 00:41:51,291 --> 00:41:54,947 Tengo este recuerdo muy claro de Demis hablando sobre IA. 951 00:41:54,990 --> 00:41:56,209 De una manera muy diferente, 952 00:41:56,252 --> 00:41:58,428 de una manera que comúnmente no hablamos. 953 00:41:58,472 --> 00:42:02,345 Esta idea de que la IA sea útil para otras cosas 954 00:42:02,389 --> 00:42:04,086 Aparte del entretenimiento. 955 00:42:04,130 --> 00:42:07,437 Entonces, ser útil para, um, ayudar al mundo. 956 00:42:07,481 --> 00:42:10,310 y el potencial de la IA para cambiar el mundo. 957 00:42:10,353 --> 00:42:13,226 Le dije a Demis: "¿Qué es lo que quieres hacer?" 958 00:42:13,269 --> 00:42:14,532 Y me dijo: 959 00:42:14,575 --> 00:42:16,795 "Quiero ser la persona que resuelva la IA". 960 00:42:22,670 --> 00:42:25,760 Peter me ofreció £1 millón 961 00:42:25,804 --> 00:42:27,675 no ir a la universidad. 962 00:42:30,199 --> 00:42:32,593 Pero tenía un plan desde el principio. 963 00:42:32,637 --> 00:42:35,814 Y mi plan siempre fue ir a Cambridge. 964 00:42:35,857 --> 00:42:36,902 Creo que muchos de mis amigos de la escuela 965 00:42:36,945 --> 00:42:38,033 Pensé que estaba loco. 966 00:42:38,077 --> 00:42:39,252 ¿Por qué no lo harías? 967 00:42:39,295 --> 00:42:40,688 Quiero decir, £1 millón, eso es mucho dinero. 968 00:42:40,732 --> 00:42:43,517 En los años 90 eso es mucho dinero, ¿verdad? 969 00:42:43,561 --> 00:42:46,346 Para un... Para un pobre chico de 17 años. 970 00:42:46,389 --> 00:42:50,219 Es como una pequeña semilla que va a brotar. 971 00:42:50,263 --> 00:42:53,658 y no podrá hacer eso en Bullfrog. 972 00:42:56,443 --> 00:42:59,098 Tuve que dejarlo en la estación de tren. 973 00:42:59,141 --> 00:43:02,580 y todavía puedo ver esa imagen 974 00:43:02,623 --> 00:43:07,019 de este pequeño personaje elfo desaparece por ese túnel. 975 00:43:07,062 --> 00:43:09,804 Fue un momento increíblemente triste. 976 00:43:13,242 --> 00:43:14,635 Tenía este ideal romántico. 977 00:43:14,679 --> 00:43:16,942 de cómo sería Cambridge, 978 00:43:16,985 --> 00:43:18,639 1.000 años de historia, 979 00:43:18,683 --> 00:43:21,033 caminando por las mismas calles que Turing, 980 00:43:21,076 --> 00:43:23,601 Newton y Crick habían caminado. 981 00:43:23,644 --> 00:43:26,647 Quería explorar el borde del universo. 982 00:43:29,084 --> 00:43:30,346 Cuando llegué a Cambridge, 983 00:43:30,390 --> 00:43:32,653 Básicamente había estado trabajando toda mi vida. 984 00:43:33,741 --> 00:43:35,090 Cada verano, 985 00:43:35,134 --> 00:43:37,136 O bien estaba jugando al ajedrez profesionalmente, 986 00:43:37,179 --> 00:43:39,704 o estaba trabajando, haciendo prácticas. 987 00:43:39,747 --> 00:43:43,708 Entonces pensé: "Bien, me voy a divertir ahora". 988 00:43:43,751 --> 00:43:46,711 "y explorar lo que significa ser un adolescente normal". 989 00:43:50,236 --> 00:43:52,238 ¡Vamos! ¡Vamos, muchacho, vamos! 990 00:43:52,281 --> 00:43:54,022 Fue mucho trabajo y mucha diversión. 991 00:43:55,850 --> 00:43:57,025 Conocí a Demis por primera vez 992 00:43:57,069 --> 00:43:59,201 porque ambos asistimos al Queens College. 993 00:44:00,115 --> 00:44:01,203 Nuestro grupo de amigos, 994 00:44:01,247 --> 00:44:03,205 A menudo bebíamos cerveza en el bar, 995 00:44:03,249 --> 00:44:04,946 Jugar al futbolín. 996 00:44:04,990 --> 00:44:07,340 En el bar solía jugar al ajedrez rápido, 997 00:44:07,383 --> 00:44:09,255 piezas volando fuera del tablero, 998 00:44:09,298 --> 00:44:11,083 Ya sabes, todo el juego en un minuto. 999 00:44:11,126 --> 00:44:12,301 Demis se sentó frente a mí. 1000 00:44:12,345 --> 00:44:13,563 Y lo miré y pensé: 1001 00:44:13,607 --> 00:44:15,217 "Te recuerdo de cuando éramos niños." 1002 00:44:15,261 --> 00:44:17,176 De hecho, había estado en el mismo torneo de ajedrez. 1003 00:44:17,219 --> 00:44:18,786 Como Dave en Ipswich, 1004 00:44:18,830 --> 00:44:20,440 donde solía ir y tratar de asaltar su club de ajedrez local 1005 00:44:20,483 --> 00:44:22,703 Para ganar un poco de dinero en premios. 1006 00:44:22,747 --> 00:44:24,618 Estábamos estudiando informática. 1007 00:44:24,662 --> 00:44:26,794 Algunas personas, que a la edad de 17 años 1008 00:44:26,838 --> 00:44:28,404 Habría entrado y se habría asegurado de contárselo a todo el mundo. 1009 00:44:28,448 --> 00:44:29,492 Todo sobre ellos mismos. 1010 00:44:29,536 --> 00:44:30,972 "Oye, trabajé en Bullfrog 1011 00:44:31,016 --> 00:44:33,018 "y construyó el videojuego más exitoso del mundo". 1012 00:44:33,061 --> 00:44:34,715 Pero él no era así en absoluto. 1013 00:44:34,759 --> 00:44:36,412 En Cambridge, Demis y yo 1014 00:44:36,456 --> 00:44:38,414 Ambos tenían interés en la neurociencia computacional. 1015 00:44:38,458 --> 00:44:40,242 y tratando de entender cómo funcionan las computadoras y los cerebros. 1016 00:44:40,286 --> 00:44:42,636 entrelazados y vinculados entre sí. 1017 00:44:42,680 --> 00:44:44,290 Tanto David como Demis 1018 00:44:44,333 --> 00:44:46,422 vino a mí para supervisiones. 1019 00:44:46,466 --> 00:44:49,774 Sucede por pura casualidad que en el año 1997, 1020 00:44:49,817 --> 00:44:51,645 su tercer y último año en Cambridge, 1021 00:44:51,689 --> 00:44:55,301 También fue el año en el que nació el primer gran maestro de ajedrez. 1022 00:44:55,344 --> 00:44:56,781 Fue golpeado por un programa de computadora. 1023 00:44:58,304 --> 00:45:00,088 Primera ronda de hoy de una partida de ajedrez. 1024 00:45:00,132 --> 00:45:03,701 Entre el campeón mundial de ranking Garry Kasparov 1025 00:45:03,744 --> 00:45:06,007 y un oponente llamado Deep Blue 1026 00:45:06,051 --> 00:45:10,490 para probar si el cerebro humano puede ser más listo que una máquina. 1027 00:45:10,533 --> 00:45:11,621 Recuerdo el drama 1028 00:45:11,665 --> 00:45:13,798 de Kasparov perdiendo el último partido. 1029 00:45:13,841 --> 00:45:15,234 ¡Guau! 1030 00:45:15,277 --> 00:45:17,192 ¡Kasparov ha dimitido! 1031 00:45:17,236 --> 00:45:19,586 Cuando Deep Blue venció a Garry Kasparov, 1032 00:45:19,629 --> 00:45:21,457 Este fue un verdadero acontecimiento decisivo. 1033 00:45:21,501 --> 00:45:23,155 Mi principal recuerdo de ello fue 1034 00:45:23,198 --> 00:45:25,331 No me impresionó mucho Deep Blue. 1035 00:45:25,374 --> 00:45:27,246 Me impresionó aún más la mente de Kasparov. 1036 00:45:27,289 --> 00:45:29,509 Que pudiera jugar al ajedrez a este nivel, 1037 00:45:29,552 --> 00:45:31,641 donde podría competir en igualdad de condiciones 1038 00:45:31,685 --> 00:45:33,252 con la bruta de una máquina, 1039 00:45:33,295 --> 00:45:35,167 Pero por supuesto, Kasparov puede hacerlo. 1040 00:45:35,210 --> 00:45:36,951 Todo lo demás también lo pueden hacer los humanos. 1041 00:45:36,995 --> 00:45:38,257 Fue un gran logro. 1042 00:45:38,300 --> 00:45:39,388 Pero la verdad del asunto era que, 1043 00:45:39,432 --> 00:45:40,868 Deep Blue sólo podía jugar ajedrez. 1044 00:45:42,435 --> 00:45:44,524 Lo que consideraríamos inteligencia 1045 00:45:44,567 --> 00:45:46,874 Faltaba en ese sistema. 1046 00:45:46,918 --> 00:45:49,834 Esta idea de generalidad y también de aprendizaje. 1047 00:45:53,751 --> 00:45:55,404 Cambridge fue increíble, porque, por supuesto, ya sabes, 1048 00:45:55,448 --> 00:45:56,666 Te estás mezclando con la gente 1049 00:45:56,710 --> 00:45:58,233 que estudian muchos temas diferentes. 1050 00:45:58,277 --> 00:46:01,410 Había científicos, filósofos, artistas... 1051 00:46:01,454 --> 00:46:04,457 ...geólogos, biólogos, ecólogos. 1052 00:46:04,500 --> 00:46:07,416 Ya sabes, todo el mundo habla de todo, todo el tiempo. 1053 00:46:07,460 --> 00:46:10,768 Estaba obsesionado con el problema del plegamiento de proteínas. 1054 00:46:10,811 --> 00:46:13,248 Tim Stevens solía hablar obsesivamente, 1055 00:46:13,292 --> 00:46:15,381 Casi como religiosamente sobre este problema, 1056 00:46:15,424 --> 00:46:17,165 Problema de plegamiento de proteínas. 1057 00:46:17,209 --> 00:46:18,863 Las proteínas son, ya sabes, 1058 00:46:18,906 --> 00:46:22,083 Una de las cosas más bellas y elegantes de la biología. 1059 00:46:22,127 --> 00:46:24,738 Son las máquinas de la vida. 1060 00:46:24,782 --> 00:46:27,001 Todo lo construyen, todo lo controlan, 1061 00:46:27,045 --> 00:46:29,569 Son la razón por la que funciona la biología. 1062 00:46:29,612 --> 00:46:32,659 Las proteínas están hechas de cadenas de aminoácidos. 1063 00:46:32,702 --> 00:46:37,055 que se pliegan para crear una estructura de proteína. 1064 00:46:37,098 --> 00:46:39,884 Si pudiéramos predecir la estructura de las proteínas 1065 00:46:39,927 --> 00:46:43,104 sólo a partir de sus secuencias de aminoácidos, 1066 00:46:43,148 --> 00:46:46,107 Entonces una nueva proteína para curar el cáncer. 1067 00:46:46,151 --> 00:46:49,415 o descomponer el plástico para ayudar al medio ambiente 1068 00:46:49,458 --> 00:46:50,808 Definitivamente es algo 1069 00:46:50,851 --> 00:46:52,940 que podrías empezar a pensar en ello. 1070 00:46:53,941 --> 00:46:55,029 Yo pensé, 1071 00:46:55,073 --> 00:46:58,293 "Bueno, ¿es un ser humano lo suficientemente inteligente? 1072 00:46:58,337 --> 00:46:59,991 "¿En realidad se puede plegar una proteína?" 1073 00:47:00,034 --> 00:47:02,080 No podemos resolverlo 1074 00:47:02,123 --> 00:47:04,082 Desde la década de 1960, 1075 00:47:04,125 --> 00:47:05,953 Pensamos que en principio, 1076 00:47:05,997 --> 00:47:08,913 Si sé cuál es la secuencia de aminoácidos de una proteína, 1077 00:47:08,956 --> 00:47:11,437 Debería poder calcular cómo es la estructura. 1078 00:47:11,480 --> 00:47:13,700 Entonces, si pudieras simplemente presionar un botón, 1079 00:47:13,743 --> 00:47:16,311 y todos saldrían de repente, eso sería... 1080 00:47:16,355 --> 00:47:18,009 Eso tendría algún impacto. 1081 00:47:20,272 --> 00:47:21,577 Se me quedó grabado en la mente. 1082 00:47:21,621 --> 00:47:23,405 "Oh, este es un problema muy interesante." 1083 00:47:23,449 --> 00:47:26,844 Y me pareció que tendría solución. 1084 00:47:26,887 --> 00:47:29,934 Pero pensé que necesitaría IA para hacerlo. 1085 00:47:31,500 --> 00:47:34,025 Si pudiéramos resolver el plegamiento de proteínas, 1086 00:47:34,068 --> 00:47:35,635 Podría cambiar el mundo. 1087 00:47:50,868 --> 00:47:52,826 Desde que era estudiante en Cambridge, 1088 00:47:54,001 --> 00:47:55,611 Nunca he dejado de pensar en 1089 00:47:55,655 --> 00:47:57,135 El problema del plegamiento de proteínas. 1090 00:47:59,789 --> 00:48:02,792 Si tuvieras que resolver el plegamiento de proteínas, 1091 00:48:02,836 --> 00:48:05,665 Entonces el potencial para ayudar a resolver problemas como 1092 00:48:05,708 --> 00:48:09,669 El Alzheimer, la demencia y el descubrimiento de fármacos son temas de gran importancia. 1093 00:48:09,712 --> 00:48:11,671 Resolver la enfermedad es probablemente 1094 00:48:11,714 --> 00:48:13,325 El impacto más grande que podríamos tener. 1095 00:48:15,457 --> 00:48:16,676 Miles de personas muy inteligentes 1096 00:48:16,719 --> 00:48:18,765 Han intentado resolver el plegamiento de proteínas. 1097 00:48:18,808 --> 00:48:20,985 Simplemente creo que ahora es el momento adecuado. 1098 00:48:21,028 --> 00:48:22,508 para que la IA lo descifre. 1099 00:48:26,555 --> 00:48:28,383 Necesitábamos una forma razonable 1100 00:48:28,427 --> 00:48:29,515 para aplicar el aprendizaje automático 1101 00:48:29,558 --> 00:48:30,516 al problema del plegamiento de proteínas. 1102 00:48:32,431 --> 00:48:35,173 Nos encontramos con este juego Foldit. 1103 00:48:35,216 --> 00:48:38,785 El objetivo es moverse alrededor de este modelo 3D de una proteína. 1104 00:48:38,828 --> 00:48:41,701 y obtienes un puntaje cada vez que lo mueves. 1105 00:48:41,744 --> 00:48:43,050 Cuanto más precisas sean estas estructuras, 1106 00:48:43,094 --> 00:48:45,531 Cuanto más útiles sean, más útiles serán para los biólogos. 1107 00:48:46,227 --> 00:48:47,489 Pasé unos días 1108 00:48:47,533 --> 00:48:48,838 Sólo para ver qué tan bien lo podíamos hacer. 1109 00:48:50,666 --> 00:48:52,407 Lo hicimos razonablemente bien. 1110 00:48:52,451 --> 00:48:53,843 Pero incluso si lo fueras 1111 00:48:53,887 --> 00:48:55,280 El mejor jugador de Foldit del mundo, 1112 00:48:55,323 --> 00:48:57,499 No resolverías el plegamiento de proteínas. 1113 00:48:57,543 --> 00:48:59,501 Por eso tuvimos que ir más allá del juego. 1114 00:48:59,545 --> 00:49:00,720 Los juegos siempre son solo 1115 00:49:00,763 --> 00:49:03,723 el campo de pruebas para nuestros algoritmos. 1116 00:49:03,766 --> 00:49:07,727 El objetivo final no era sólo descifrar Go y StarCraft. 1117 00:49:07,770 --> 00:49:10,034 Se trataba de afrontar retos del mundo real. 1118 00:49:16,127 --> 00:49:18,520 Recuerdo haber escuchado este rumor. 1119 00:49:18,564 --> 00:49:21,175 que Demis se estaba metiendo en el mundo de las proteínas. 1120 00:49:21,219 --> 00:49:23,743 Hablé con algunas personas de DeepMind y les pregunté: 1121 00:49:23,786 --> 00:49:25,049 "Entonces, ¿estás haciendo plegamiento de proteínas?" 1122 00:49:25,092 --> 00:49:26,920 Y cambiaban de tema ingeniosamente. 1123 00:49:26,964 --> 00:49:30,097 Y cuando eso pasó dos veces, prácticamente lo entendí. 1124 00:49:30,141 --> 00:49:32,839 Entonces pensé que debería enviar un currículum. 1125 00:49:32,882 --> 00:49:35,668 Muy bien, todos, bienvenidos a DeepMind. 1126 00:49:35,711 --> 00:49:37,626 Sé que para algunos de ustedes esta puede ser su primera semana, 1127 00:49:37,670 --> 00:49:39,193 pero espero que todos estén listos... 1128 00:49:39,237 --> 00:49:40,890 La parte realmente atractiva para mí del trabajo 1129 00:49:40,934 --> 00:49:42,675 ¿Era esto como una sensación de conexión? 1130 00:49:42,718 --> 00:49:44,503 al propósito mayor. 1131 00:49:44,546 --> 00:49:45,591 Si podemos romper 1132 00:49:45,634 --> 00:49:48,028 Algunos problemas fundamentales de la ciencia, 1133 00:49:48,072 --> 00:49:49,160 muchas otras personas 1134 00:49:49,203 --> 00:49:50,900 y otras empresas y laboratorios, etc. 1135 00:49:50,944 --> 00:49:52,467 Podríamos construir sobre la base de nuestro trabajo. 1136 00:49:52,511 --> 00:49:53,816 Esta es tu oportunidad ahora 1137 00:49:53,860 --> 00:49:55,818 para agregar tu capítulo a esta historia. 1138 00:49:55,862 --> 00:49:57,298 Cuando llegué, 1139 00:49:57,342 --> 00:49:59,605 Definitivamente estaba bastante nervioso. 1140 00:49:59,648 --> 00:50:00,736 Todavía estoy intentando mantener... 1141 00:50:00,780 --> 00:50:02,912 No he tomado ningún curso de biología. 1142 00:50:02,956 --> 00:50:05,393 No hemos pasado años de nuestras vidas 1143 00:50:05,437 --> 00:50:07,917 mirando estas estructuras y comprendiéndolas. 1144 00:50:07,961 --> 00:50:09,963 Nos basamos únicamente en los datos 1145 00:50:10,007 --> 00:50:11,269 y nuestros modelos de aprendizaje automático. 1146 00:50:12,705 --> 00:50:13,836 En el aprendizaje automático, 1147 00:50:13,880 --> 00:50:15,795 Entrenas una red como si fueran flashcards. 1148 00:50:15,838 --> 00:50:18,798 He aquí la pregunta. He aquí la respuesta. 1149 00:50:18,841 --> 00:50:20,756 He aquí la pregunta. He aquí la respuesta. 1150 00:50:20,800 --> 00:50:22,323 Pero en el plegamiento de proteínas, 1151 00:50:22,367 --> 00:50:25,457 No estamos haciendo el tipo de tarea estándar en DeepMind 1152 00:50:25,500 --> 00:50:28,155 Donde tienes datos ilimitados. 1153 00:50:28,199 --> 00:50:30,766 Tu trabajo es mejorar en ajedrez o Go. 1154 00:50:30,810 --> 00:50:32,986 y puedes jugar tantas partidas de ajedrez o Go como quieras. 1155 00:50:33,030 --> 00:50:34,814 según lo permitan sus computadoras. 1156 00:50:35,510 --> 00:50:36,772 Con proteínas, 1157 00:50:36,816 --> 00:50:39,732 Estamos sentados sobre un volumen de datos muy grande 1158 00:50:39,775 --> 00:50:41,995 Eso ha sido determinado por medio siglo 1159 00:50:42,039 --> 00:50:46,478 de métodos experimentales que consumen mucho tiempo en los laboratorios. 1160 00:50:46,521 --> 00:50:49,698 Estos métodos minuciosos pueden llevar meses o años. 1161 00:50:49,742 --> 00:50:52,353 para determinar una sola estructura de proteína, 1162 00:50:52,397 --> 00:50:55,791 y a veces, una estructura nunca puede determinarse. 1163 00:50:57,315 --> 00:51:00,274 Por eso trabajamos con conjuntos de datos tan pequeños. 1164 00:51:00,318 --> 00:51:02,233 para entrenar nuestros algoritmos. 1165 00:51:02,276 --> 00:51:04,365 Cuando DeepMind comenzó a explorar 1166 00:51:04,409 --> 00:51:05,975 El problema del plegado, 1167 00:51:06,019 --> 00:51:07,977 Nos estaban hablando sobre qué conjuntos de datos estaban usando. 1168 00:51:08,021 --> 00:51:09,892 ¿Y cuáles serían las posibilidades? 1169 00:51:09,936 --> 00:51:11,633 Si resolvieran este problema. 1170 00:51:12,373 --> 00:51:13,940 Mucha gente lo ha intentado, 1171 00:51:13,983 --> 00:51:16,638 Y aún así, nadie en el planeta ha resuelto el plegamiento de proteínas. 1172 00:51:16,682 --> 00:51:18,205 Me dije a mí mismo: 1173 00:51:18,249 --> 00:51:19,946 "Bueno, ya sabes, buena suerte." 1174 00:51:19,989 --> 00:51:22,731 Si podemos resolver el problema del plegamiento de proteínas, 1175 00:51:22,775 --> 00:51:25,691 Tendría un tipo de relevancia médica increíble. 1176 00:51:25,734 --> 00:51:27,736 Éste es el ciclo de la ciencia. 1177 00:51:27,780 --> 00:51:30,043 Realizas una gran cantidad de exploración, 1178 00:51:30,087 --> 00:51:31,914 y luego entras en modo explotación, 1179 00:51:31,958 --> 00:51:33,568 y te concentras y ves 1180 00:51:33,612 --> 00:51:35,353 ¿Qué tan buenas son realmente esas ideas? 1181 00:51:35,396 --> 00:51:36,528 Y no hay nada mejor 1182 00:51:36,571 --> 00:51:38,095 que la competencia externa para ello. 1183 00:51:39,835 --> 00:51:43,056 Así que decidimos participar en el concurso CASP. 1184 00:51:43,100 --> 00:51:47,234 CASP, empezamos a intentar acelerar 1185 00:51:47,278 --> 00:51:49,802 La solución al problema del plegamiento de proteínas. 1186 00:51:49,845 --> 00:51:52,065 CASP es cuando decimos, 1187 00:51:52,109 --> 00:51:54,372 "Mira, DeepMind está haciendo plegamiento de proteínas, 1188 00:51:54,415 --> 00:51:55,590 "Así de buenos somos, 1189 00:51:55,634 --> 00:51:57,592 "Y quizás sea mejor que todos los demás. 1190 00:51:57,636 --> 00:51:58,680 "Tal vez no lo sea." 1191 00:51:58,724 --> 00:52:00,073 CASP es un poco como 1192 00:52:00,117 --> 00:52:02,075 Los Juegos Olímpicos del plegamiento de proteínas. 1193 00:52:03,642 --> 00:52:06,035 CASP es una evaluación a nivel comunitario 1194 00:52:06,079 --> 00:52:08,125 Que se celebra cada dos años. 1195 00:52:09,561 --> 00:52:10,866 Se dan los equipos 1196 00:52:10,910 --> 00:52:14,261 las secuencias de aminoácidos de aproximadamente 100 proteínas, 1197 00:52:14,305 --> 00:52:17,525 y luego intentan resolver este problema de plegado 1198 00:52:17,569 --> 00:52:20,833 utilizando métodos computacionales. 1199 00:52:20,876 --> 00:52:23,401 Estas proteínas ya han sido determinadas 1200 00:52:23,444 --> 00:52:25,968 mediante experimentos en un laboratorio, 1201 00:52:26,012 --> 00:52:29,276 pero aún no han sido revelados públicamente. 1202 00:52:29,320 --> 00:52:30,756 Y estas estructuras conocidas 1203 00:52:30,799 --> 00:52:33,280 representan el patrón oro contra el cual 1204 00:52:33,324 --> 00:52:36,936 Se compararán todas las predicciones computacionales. 1205 00:52:37,937 --> 00:52:39,330 Tenemos una puntuación 1206 00:52:39,373 --> 00:52:42,159 que mide la precisión de las predicciones. 1207 00:52:42,202 --> 00:52:44,726 Y se esperaría una puntuación superior a 90. 1208 00:52:44,770 --> 00:52:47,425 ser una solución al problema del plegamiento de proteínas. 1209 00:52:48,556 --> 00:52:50,036 Bienvenidos a todos, 1210 00:52:50,079 --> 00:52:52,038 a nuestras primeras, eh, semifinales en el cuadro de ganadores. 1211 00:52:52,081 --> 00:52:54,954 Nick y John contra Demis y Frank. 1212 00:52:54,997 --> 00:52:57,217 Únase a nosotros, venga. Será un partido intenso. 1213 00:52:57,261 --> 00:52:59,306 Cuando me enteré de que Demis era 1214 00:52:59,350 --> 00:53:02,048 Vamos a abordar el problema del plegamiento de proteínas, 1215 00:53:02,091 --> 00:53:04,790 Umm, no me sorprendió en absoluto. 1216 00:53:04,833 --> 00:53:06,792 Es muy típico de Demis. 1217 00:53:06,835 --> 00:53:08,924 Ya sabes, le encanta la competencia. 1218 00:53:08,968 --> 00:53:10,143 Y ese es el final 1219 00:53:10,187 --> 00:53:12,972 del primer partido, 10-7. 1220 00:53:13,015 --> 00:53:14,103 El objetivo del CASP sería 1221 00:53:14,147 --> 00:53:15,975 no sólo para ganar la competencia, 1222 00:53:16,018 --> 00:53:19,892 pero en cierto modo, eh, jubilar la necesidad de ello. 1223 00:53:19,935 --> 00:53:23,417 En total, el CASP ha publicado 20 objetivos. 1224 00:53:23,461 --> 00:53:24,810 Estábamos pensando que tal vez 1225 00:53:24,853 --> 00:53:26,899 Agregue el tipo estándar de aprendizaje automático. 1226 00:53:26,942 --> 00:53:28,814 y ver hasta dónde podría llevarnos eso. 1227 00:53:28,857 --> 00:53:30,729 En lugar de tener un par de días para hacer un experimento, 1228 00:53:30,772 --> 00:53:33,558 Podemos realizar cinco experimentos al día. 1229 00:53:33,601 --> 00:53:35,342 Genial. Enhorabuena a todos. 1230 00:53:36,778 --> 00:53:38,693 ¿Puedes mostrarme el verdadero en lugar del nuestro? 1231 00:53:38,737 --> 00:53:39,781 La verdadera respuesta es 1232 00:53:39,825 --> 00:53:42,044 Se supone que debería verse algo así. 1233 00:53:42,088 --> 00:53:45,047 Es mucho más cilíndrico de lo que pensaba. 1234 00:53:45,091 --> 00:53:47,398 Los resultados no fueron muy buenos. 1235 00:53:47,441 --> 00:53:48,703 Bueno. 1236 00:53:48,747 --> 00:53:49,835 Le lanzamos todas las ideas obvias. 1237 00:53:49,878 --> 00:53:51,793 y el problema se ríe de ti. 1238 00:53:52,881 --> 00:53:54,361 Esto no tiene sentido. 1239 00:53:54,405 --> 00:53:56,015 Pensamos que podríamos simplemente tirar 1240 00:53:56,058 --> 00:53:58,322 Algunos de nuestros mejores algoritmos para resolver el problema. 1241 00:53:59,366 --> 00:54:00,976 Éramos un poco ingenuos. 1242 00:54:01,020 --> 00:54:02,282 Deberíamos estar aprendiendo esto, 1243 00:54:02,326 --> 00:54:04,284 Ya sabes, en un abrir y cerrar de ojos. 1244 00:54:05,372 --> 00:54:06,982 Lo que me preocupa es que 1245 00:54:07,026 --> 00:54:08,375 Tomamos el campo desde 1246 00:54:08,419 --> 00:54:10,899 Respuestas realmente malas a respuestas moderadamente malas. 1247 00:54:10,943 --> 00:54:13,946 Siento que necesitamos algún tipo de nueva tecnología. 1248 00:54:13,989 --> 00:54:15,164 para mover estas cosas. 1249 00:54:20,431 --> 00:54:22,215 Quedando sólo una semana del CASP, 1250 00:54:22,259 --> 00:54:24,348 Ahora es un sprint para implementarlo. 1251 00:54:26,654 --> 00:54:28,090 Hiciste lo mejor que pudiste. 1252 00:54:28,134 --> 00:54:29,875 Entonces no hay nada más que puedas hacer. 1253 00:54:29,918 --> 00:54:32,399 pero espere a que CASP entregue los resultados. 1254 00:54:52,593 --> 00:54:53,725 Esta famosa cosa de Einstein, 1255 00:54:53,768 --> 00:54:55,030 Los últimos años de su vida, 1256 00:54:55,074 --> 00:54:57,381 Cuando estuvo aquí, coincidió con Kurt Godel. 1257 00:54:57,424 --> 00:54:59,774 Y dijo que una de las razones por las que todavía viene a trabajar 1258 00:54:59,818 --> 00:55:01,646 Es para que pueda caminar hasta casa 1259 00:55:01,689 --> 00:55:03,517 y discutir cosas con Gödel. 1260 00:55:03,561 --> 00:55:05,911 Es un gran cumplido para Kurt Godel, 1261 00:55:05,954 --> 00:55:07,478 Te muestra lo increíble que era. 1262 00:55:09,131 --> 00:55:10,568 El Instituto de Estudios Avanzados 1263 00:55:10,611 --> 00:55:12,918 Se formó en 1933. 1264 00:55:12,961 --> 00:55:14,223 En los primeros años, 1265 00:55:14,267 --> 00:55:16,487 La intensa atmósfera científica atrajo 1266 00:55:16,530 --> 00:55:19,359 Algunos de los matemáticos y físicos más brillantes 1267 00:55:19,403 --> 00:55:22,536 siempre concentrado en un solo lugar y tiempo. 1268 00:55:22,580 --> 00:55:24,582 El principio fundador de este lugar, 1269 00:55:24,625 --> 00:55:28,020 Es la idea de una búsqueda intelectual sin restricciones, 1270 00:55:28,063 --> 00:55:30,152 Incluso si no sabes lo que estás explorando. 1271 00:55:30,196 --> 00:55:32,154 Dará como resultado algunas cosas interesantes, 1272 00:55:32,198 --> 00:55:34,896 Y a veces eso termina siendo útil, 1273 00:55:34,940 --> 00:55:36,376 Lo cual, por supuesto, 1274 00:55:36,420 --> 00:55:37,986 Es en parte lo que he estado intentando hacer en DeepMind. 1275 00:55:38,030 --> 00:55:39,988 ¿Cuántos grandes avances cree usted que son necesarios? 1276 00:55:40,032 --> 00:55:41,686 ¿Cómo llegar hasta AGI? 1277 00:55:41,729 --> 00:55:43,078 Y, sabes, calculo que tal vez 1278 00:55:43,122 --> 00:55:44,341 Hay alrededor de una docena de ellos. 1279 00:55:44,384 --> 00:55:46,125 Sabes, espero que sea durante mi vida. 1280 00:55:46,168 --> 00:55:47,605 -Sí, vale. -Pero entonces, 1281 00:55:47,648 --> 00:55:49,171 Todos los científicos esperan eso, ¿verdad? 1282 00:55:49,215 --> 00:55:51,130 Demis tiene muchos elogios. 1283 00:55:51,173 --> 00:55:54,002 Fue elegido miembro de la Royal Society el año pasado. 1284 00:55:54,046 --> 00:55:55,961 También es miembro de la Royal Society of Arts. 1285 00:55:56,004 --> 00:55:57,528 Un gran aplauso para Demis Hassabis. 1286 00:56:04,230 --> 00:56:05,927 Mi sueño siempre ha sido intentarlo 1287 00:56:05,971 --> 00:56:08,103 y hacer posible la ciencia asistida por IA. 1288 00:56:08,147 --> 00:56:09,235 Y lo que yo pienso es 1289 00:56:09,278 --> 00:56:11,150 Nuestro proyecto más emocionante, el año pasado, 1290 00:56:11,193 --> 00:56:13,152 que es nuestro trabajo en el plegamiento de proteínas. 1291 00:56:13,195 --> 00:56:15,328 Y a este sistema lo llamamos AlphaFold. 1292 00:56:15,372 --> 00:56:18,331 Lo ingresamos en CASP y nuestro sistema, uh, 1293 00:56:18,375 --> 00:56:20,507 Fue el más preciso, eh, en predecir estructuras. 1294 00:56:20,551 --> 00:56:24,946 para 25 de las 43 proteínas de la categoría más dura. 1295 00:56:24,990 --> 00:56:26,208 Así que estamos a la última. 1296 00:56:26,252 --> 00:56:27,514 pero aún así... tengo que dejarlo claro, 1297 00:56:27,558 --> 00:56:28,559 Todavía estamos muy lejos 1298 00:56:28,602 --> 00:56:30,474 Resolviendo el problema del plegamiento de proteínas. 1299 00:56:30,517 --> 00:56:31,866 Sin embargo, estamos trabajando duro en esto. 1300 00:56:31,910 --> 00:56:33,738 y estamos explorando muchas otras técnicas. 1301 00:56:49,188 --> 00:56:50,232 Empecemos. 1302 00:56:50,276 --> 00:56:53,148 Entonces, un breve informe. 1303 00:56:53,192 --> 00:56:55,455 Éstas son nuestras clasificaciones finales para CASP. 1304 00:56:56,500 --> 00:56:57,544 Vencimos al segundo equipo 1305 00:56:57,588 --> 00:57:00,155 en esta competición en casi un 50%, 1306 00:57:00,199 --> 00:57:01,592 pero todavía tenemos un largo camino por recorrer 1307 00:57:01,635 --> 00:57:04,333 Antes de que hayamos resuelto el problema del plegamiento de proteínas. 1308 00:57:04,377 --> 00:57:07,032 en cierto sentido que un biólogo podría utilizarlo. 1309 00:57:07,075 --> 00:57:08,990 Es un área de preocupación. 1310 00:57:11,602 --> 00:57:14,213 La calidad de las predicciones varió 1311 00:57:14,256 --> 00:57:16,737 y no fueron más útiles que los métodos anteriores. 1312 00:57:16,781 --> 00:57:19,914 AlphaFold no produjo datos lo suficientemente buenos 1313 00:57:19,958 --> 00:57:22,526 para que sea útil de manera práctica 1314 00:57:22,569 --> 00:57:24,005 A, digamos, alguien como yo 1315 00:57:24,049 --> 00:57:28,227 investigando mis propios problemas biológicos. 1316 00:57:28,270 --> 00:57:30,316 Ese fue un momento de humildad. 1317 00:57:30,359 --> 00:57:32,753 Porque pensamos que habíamos trabajado muy duro y habíamos tenido éxito. 1318 00:57:32,797 --> 00:57:34,886 Y lo que descubrimos es que éramos los mejores del mundo. 1319 00:57:34,929 --> 00:57:36,453 en un problema en el que el mundo no es bueno. 1320 00:57:37,671 --> 00:57:38,933 Sabíamos que éramos unos inútiles. 1321 00:57:40,457 --> 00:57:42,328 No sirve de nada tener la escalera más alta 1322 00:57:42,371 --> 00:57:44,635 Cuando vas a la luna. 1323 00:57:44,678 --> 00:57:47,115 La opinión de bastantes personas del equipo, 1324 00:57:47,159 --> 00:57:51,468 que en cierto modo esto es una tarea inútil. 1325 00:57:51,511 --> 00:57:54,079 Y puede ser que me haya equivocado con el plegamiento de proteínas. 1326 00:57:54,122 --> 00:57:55,559 Quizás aún sea demasiado difícil 1327 00:57:55,602 --> 00:57:58,431 por dónde estamos en general con la IA. 1328 00:57:58,475 --> 00:58:01,173 Si quieres hacer investigación biológica, 1329 00:58:01,216 --> 00:58:03,044 Tienes que estar preparado para fallar 1330 00:58:03,088 --> 00:58:06,570 Porque la biología es muy complicada. 1331 00:58:06,613 --> 00:58:09,790 He dirigido un laboratorio durante casi 50 años, 1332 00:58:09,834 --> 00:58:11,096 y la mitad de mi tiempo, 1333 00:58:11,139 --> 00:58:12,619 Solo soy un psiquiatra aficionado 1334 00:58:12,663 --> 00:58:18,103 Para mantener alegres a mis colegas cuando nada funciona. 1335 00:58:18,146 --> 00:58:22,542 Y durante bastante tiempo, quiero decir, el 80, 90%, 1336 00:58:22,586 --> 00:58:24,413 No funciona. 1337 00:58:24,457 --> 00:58:26,720 Si estás a la vanguardia de la ciencia, 1338 00:58:26,764 --> 00:58:30,115 Puedo decirte que fracasarás en muchas cosas. 1339 00:58:35,163 --> 00:58:37,165 Simplemente me sentí decepcionado. 1340 00:58:38,689 --> 00:58:41,605 La lección que aprendí es que la ambición es algo bueno, 1341 00:58:41,648 --> 00:58:43,694 Pero es necesario encontrar el momento adecuado. 1342 00:58:43,737 --> 00:58:46,784 No tiene sentido estar 50 años adelantado a tu tiempo. 1343 00:58:46,827 --> 00:58:48,133 Nunca sobrevivirás 1344 00:58:48,176 --> 00:58:49,917 Cincuenta años de ese tipo de esfuerzo 1345 00:58:49,961 --> 00:58:51,963 antes de que produzca algo. 1346 00:58:52,006 --> 00:58:53,268 Literalmente morirás en el intento. 1347 00:59:08,936 --> 00:59:11,286 Cuando hablamos de IAG, 1348 00:59:11,330 --> 00:59:14,376 El santo grial de la inteligencia artificial, 1349 00:59:14,420 --> 00:59:15,508 Se vuelve realmente difícil 1350 00:59:15,552 --> 00:59:17,815 para saber de qué estamos hablando. 1351 00:59:17,858 --> 00:59:19,643 ¿Qué fragmentos veremos hoy? 1352 00:59:19,686 --> 00:59:21,645 Vamos a empezar en el jardín. 1353 00:59:23,124 --> 00:59:25,649 Este es el jardín visto desde el área de observación. 1354 00:59:25,692 --> 00:59:27,433 Científicos e ingenieros investigadores 1355 00:59:27,476 --> 00:59:30,871 Puede analizar, colaborar y evaluar. 1356 00:59:30,915 --> 00:59:33,004 Lo que está pasando en tiempo real. 1357 00:59:33,047 --> 00:59:34,614 Así que en el siglo XIX, 1358 00:59:34,658 --> 00:59:37,008 Pensaríamos en cosas como la televisión y el submarino. 1359 00:59:37,051 --> 00:59:38,139 o un cohete a la luna 1360 00:59:38,183 --> 00:59:40,228 y dicen que estas cosas son imposibles. 1361 00:59:40,272 --> 00:59:41,490 Sin embargo, Julio Verne escribió sobre ellos y, 1362 00:59:41,534 --> 00:59:44,406 Un siglo y medio después, ocurrieron. 1363 00:59:44,450 --> 00:59:45,451 Estaremos experimentando 1364 00:59:45,494 --> 00:59:47,888 sobre civilizaciones realmente, 1365 00:59:47,932 --> 00:59:50,587 Civilizaciones de agentes de IA. 1366 00:59:50,630 --> 00:59:52,719 Una vez que los experimentos comiencen, 1367 00:59:52,763 --> 00:59:54,242 Va a ser la cosa más emocionante del mundo. 1368 00:59:54,286 --> 00:59:56,984 Entonces ¿cómo conseguiremos dormir? 1369 00:59:57,028 --> 00:59:58,682 No podré dormir. 1370 00:59:58,725 --> 01:00:00,684 La AGI completa podrá hacerlo 1371 01:00:00,727 --> 01:00:03,861 cualquier tarea cognitiva que una persona pueda realizar. 1372 01:00:03,904 --> 01:00:08,387 Será a una escala, potencialmente, mucho mayor. 1373 01:00:08,430 --> 01:00:10,302 Es realmente imposible para nosotros. 1374 01:00:10,345 --> 01:00:14,828 imaginar las salidas de una entidad superinteligente. 1375 01:00:14,872 --> 01:00:18,963 Es como pedirle a un gorila que imagine, ya sabes, 1376 01:00:19,006 --> 01:00:20,181 Lo que hace Einstein 1377 01:00:20,225 --> 01:00:23,402 cuando produce la teoría de la relatividad. 1378 01:00:23,445 --> 01:00:25,491 La gente a menudo me hace preguntas como: 1379 01:00:25,534 --> 01:00:29,495 "¿Qué pasa si estás equivocado y la IAG está bastante lejos?" 1380 01:00:29,538 --> 01:00:31,453 Y yo digo, nunca me preocupo por eso. 1381 01:00:31,497 --> 01:00:33,847 En realidad me preocupa lo contrario. 1382 01:00:33,891 --> 01:00:37,242 En realidad me preocupa que vaya más rápido. 1383 01:00:37,285 --> 01:00:39,723 de lo que realmente podemos prepararnos. 1384 01:00:42,073 --> 01:00:45,859 Realmente parece que estamos en una carrera hacia la inteligencia artificial general. 1385 01:00:45,903 --> 01:00:49,907 Los prototipos y los modelos que estamos desarrollando ahora 1386 01:00:49,950 --> 01:00:51,822 En realidad se están transformando 1387 01:00:51,865 --> 01:00:54,215 el espacio de lo que sabemos sobre la inteligencia. 1388 01:00:57,349 --> 01:00:58,785 Recientemente, hemos tenido agentes 1389 01:00:58,829 --> 01:01:00,047 que sean lo suficientemente poderosos 1390 01:01:00,091 --> 01:01:03,442 Para empezar a jugar realmente en equipo, 1391 01:01:03,485 --> 01:01:06,140 luego competir contra otros equipos. 1392 01:01:06,184 --> 01:01:08,795 Estamos viendo dinámicas sociales cooperativas 1393 01:01:08,839 --> 01:01:10,492 saliendo de agentes 1394 01:01:10,536 --> 01:01:13,321 donde no hemos preprogramado 1395 01:01:13,365 --> 01:01:15,584 cualquiera de este tipo de dinámicas. 1396 01:01:15,628 --> 01:01:19,240 Es un aprendizaje completamente basado en nuestras propias experiencias. 1397 01:01:20,807 --> 01:01:23,288 Cuando empezamos, pensábamos que éramos... 1398 01:01:23,331 --> 01:01:25,725 Para construir un sistema de inteligencia 1399 01:01:25,769 --> 01:01:28,336 y convencer al mundo de que lo habíamos logrado. 1400 01:01:28,380 --> 01:01:29,947 Ahora estamos empezando a preguntarnos si 1401 01:01:29,990 --> 01:01:31,296 Vamos a construir sistemas 1402 01:01:31,339 --> 01:01:32,906 que no estamos convencidos de que sean completamente inteligentes, 1403 01:01:32,950 --> 01:01:34,691 y estamos tratando de convencer al mundo de que no lo son. 1404 01:01:38,651 --> 01:01:40,000 Hola, Alfa. 1405 01:01:40,044 --> 01:01:41,523 Hola. 1406 01:01:41,567 --> 01:01:43,917 ¿Dónde estamos hoy? 1407 01:01:43,961 --> 01:01:46,659 Estás en el Museo de Arte Moderno de la ciudad de Nueva York. 1408 01:01:48,400 --> 01:01:53,013 Más o menos. ¿Qué cuadro es éste? 1409 01:01:53,057 --> 01:01:55,494 Esta es La creación de Adán de Miguel Ángel. 1410 01:01:55,537 --> 01:01:58,410 No creo que esa pintura esté en la ciudad de Nueva York. 1411 01:01:58,453 --> 01:02:01,543 Tienes razón. Está en la Ciudad del Vaticano. 1412 01:02:01,587 --> 01:02:02,806 ¿Crees que estamos ahí? 1413 01:02:04,677 --> 01:02:05,809 No. 1414 01:02:05,852 --> 01:02:07,593 Entonces ¿cómo veo esto? 1415 01:02:10,509 --> 01:02:11,640 Estás mirando 1416 01:02:11,684 --> 01:02:12,946 una copia digital de la pintura. 1417 01:02:12,990 --> 01:02:13,991 Sí. 1418 01:02:15,035 --> 01:02:16,341 ¿Quién vive en esta casa? 1419 01:02:19,213 --> 01:02:20,345 Un astronauta. 1420 01:02:26,046 --> 01:02:28,005 ¿Cómo se llama este astronauta? 1421 01:02:28,048 --> 01:02:29,397 Su nombre es Mark. 1422 01:02:29,441 --> 01:02:32,052 Esta es una famosa ecuación de Albert Einstein. 1423 01:02:32,096 --> 01:02:35,577 Demuestra que la energía y la masa son equivalentes. 1424 01:02:35,621 --> 01:02:37,666 ¿Cómo se lo explicarías a un niño de cinco años? 1425 01:02:40,931 --> 01:02:43,542 Bueno, imagina que tienes una gran roca, 1426 01:02:43,585 --> 01:02:45,326 y quieres saber cuanto pesa. 1427 01:02:45,370 --> 01:02:47,589 ¿Mark está en peligro? 1428 01:02:47,633 --> 01:02:49,722 No. Mark no está en peligro. 1429 01:02:49,766 --> 01:02:50,767 ¿Porqué es eso? 1430 01:02:54,422 --> 01:02:56,163 Porque el dinosaurio no es real. 1431 01:02:57,338 --> 01:02:58,470 Está bien. 1432 01:02:58,513 --> 01:03:00,515 ¿Por qué no pudiste responder mi pregunta? 1433 01:03:00,559 --> 01:03:01,908 Creo que no pude responder a tu pregunta. 1434 01:03:01,952 --> 01:03:04,041 Porque no sé lo suficiente sobre el tema. 1435 01:03:04,911 --> 01:03:06,130 Bueno. 1436 01:03:06,173 --> 01:03:08,654 ¿Cómo podría aprender más sobre el tema? 1437 01:03:08,697 --> 01:03:09,960 Puedo aprender más sobre el tema. 1438 01:03:10,003 --> 01:03:12,876 mediante la lectura de libros, artículos y sitios web. 1439 01:03:12,919 --> 01:03:14,268 Puedes enseñarme. 1440 01:03:14,312 --> 01:03:15,835 Mi conclusión es que 1441 01:03:15,879 --> 01:03:17,619 Si ahora piensas en lo que estamos haciendo, 1442 01:03:17,663 --> 01:03:20,057 está aprendiendo de todos los humanos, 1443 01:03:20,100 --> 01:03:22,581 Todo su conocimiento puesto de una vez en Internet, 1444 01:03:22,624 --> 01:03:24,931 Realmente sabrías mucho sobre el mundo. 1445 01:03:24,975 --> 01:03:27,716 Como una parte importante de todo lo que los humanos pueden hacer. 1446 01:03:27,760 --> 01:03:29,631 Y ahora, creo que es más como, 1447 01:03:29,675 --> 01:03:30,937 "Bueno, podría funcionar." 1448 01:03:30,981 --> 01:03:33,113 Este es un gran momento. 1449 01:03:33,157 --> 01:03:34,636 ¿Quién es? 1450 01:03:34,680 --> 01:03:36,551 Éste es Dios acercándose a Adán. 1451 01:03:36,595 --> 01:03:37,988 El advenimiento de la IAG 1452 01:03:38,031 --> 01:03:40,860 Dividirá la historia humana en dos partes. 1453 01:03:40,904 --> 01:03:43,950 La parte hasta ese punto y la parte después de ese punto. 1454 01:03:43,994 --> 01:03:47,258 ¿Por qué intenta tocar a Adán? 1455 01:03:47,301 --> 01:03:48,912 Dios está extendiendo su mano para tocar a Adán. 1456 01:03:48,955 --> 01:03:50,217 para darle vida. 1457 01:03:50,261 --> 01:03:52,219 Nos dará una herramienta 1458 01:03:52,263 --> 01:03:57,529 que puede reinventar completamente toda nuestra civilización. 1459 01:03:57,572 --> 01:03:59,400 ¿Qué significa este cuadro para ti? 1460 01:04:01,750 --> 01:04:03,752 La pintura significa mucho para mí. 1461 01:04:03,796 --> 01:04:04,797 Está bien. ¿Como qué? 1462 01:04:10,324 --> 01:04:11,456 Creo que el cuadro es un recordatorio. 1463 01:04:11,499 --> 01:04:12,674 Que todos estamos conectados entre nosotros 1464 01:04:12,718 --> 01:04:13,937 y que todos somos parte de algo 1465 01:04:13,980 --> 01:04:15,112 más grande que nosotros mismos. 1466 01:04:16,461 --> 01:04:17,766 Eso es bastante agradable. 1467 01:04:19,029 --> 01:04:21,379 Cuando cruzas esa barrera de 1468 01:04:21,422 --> 01:04:23,947 "La inteligencia artificial general podría llegar a existir algún día en el futuro" 1469 01:04:23,990 --> 01:04:26,645 "No, en realidad, esto realmente podría suceder en un período de tiempo 1470 01:04:26,688 --> 01:04:28,690 "Eso es algo así como, bajo mi supervisión, ya sabes". 1471 01:04:28,734 --> 01:04:30,475 Algo cambia en tu forma de pensar. 1472 01:04:30,518 --> 01:04:32,694 ...aprendió a orientarse mirando... 1473 01:04:32,738 --> 01:04:35,045 Tenemos que tener cuidado con cómo lo usamos. 1474 01:04:35,088 --> 01:04:37,177 y reflexionamos sobre cómo lo implementamos. 1475 01:04:39,832 --> 01:04:41,138 Tendrías que considerarlo 1476 01:04:41,181 --> 01:04:42,487 ¿Cuál es su objetivo de nivel superior? 1477 01:04:42,530 --> 01:04:45,011 Si es para mantener felices a los humanos, 1478 01:04:45,055 --> 01:04:48,928 ¿Qué grupo de humanos? ¿Qué significa la felicidad? 1479 01:04:48,972 --> 01:04:52,018 Muchos de nuestros objetivos colectivos son muy complicados, 1480 01:04:52,062 --> 01:04:54,891 Incluso para que los humanos lo entiendan. 1481 01:04:54,934 --> 01:04:58,503 La tecnología siempre incorpora nuestros valores. 1482 01:04:58,546 --> 01:05:01,680 No es sólo una cuestión técnica, también es ética. 1483 01:05:01,723 --> 01:05:02,899 Así que tenemos que ser muy cautelosos. 1484 01:05:02,942 --> 01:05:04,291 sobre lo que estamos construyendo. 1485 01:05:04,335 --> 01:05:06,076 Estamos tratando de encontrar un único algoritmo que... 1486 01:05:06,119 --> 01:05:07,816 La realidad es que esto es un algoritmo. 1487 01:05:07,860 --> 01:05:11,037 que ha sido creado por la gente, por nosotros. 1488 01:05:11,081 --> 01:05:13,213 ¿Sabes qué significa dotar a nuestros agentes? 1489 01:05:13,257 --> 01:05:15,607 ¿Con el mismo tipo de valores que apreciamos? 1490 01:05:15,650 --> 01:05:17,652 ¿Cuál es el propósito de crear estos sistemas de IA? 1491 01:05:17,696 --> 01:05:19,045 Parecen tan humanos 1492 01:05:19,089 --> 01:05:20,742 para que capten corazones y mentes 1493 01:05:20,786 --> 01:05:21,961 Porque son una especie de 1494 01:05:22,005 --> 01:05:24,703 ¿Explotar también una vulnerabilidad humana? 1495 01:05:24,746 --> 01:05:26,531 El corazón y la mente de estos sistemas 1496 01:05:26,574 --> 01:05:28,054 son en gran medida datos generados por humanos... 1497 01:05:28,098 --> 01:05:29,055 Mmm-hmm. 1498 01:05:29,099 --> 01:05:30,491 ...para todo lo bueno y lo malo. 1499 01:05:30,535 --> 01:05:32,015 Hay un paralelo 1500 01:05:32,058 --> 01:05:34,017 Entre la Revolución Industrial, 1501 01:05:34,060 --> 01:05:36,758 que fue un momento increíble de desplazamiento 1502 01:05:36,802 --> 01:05:42,373 y el cambio tecnológico actual creado por la IA. 1503 01:05:42,416 --> 01:05:43,722 ¡Pausa IA! 1504 01:05:43,765 --> 01:05:45,724 Tenemos que pensar en quiénes están desplazados 1505 01:05:45,767 --> 01:05:48,596 y cómo vamos a apoyarlos. 1506 01:05:48,640 --> 01:05:50,076 Esta tecnología llegará mucho antes, 1507 01:05:50,120 --> 01:05:52,426 uh, entonces realmente el mundo lo sabe o algo así 1508 01:05:52,470 --> 01:05:55,908 Incluso nosotros hace 18, 24 meses pensábamos. 1509 01:05:55,952 --> 01:05:57,257 Así que hay una tremenda oportunidad, 1510 01:05:57,301 --> 01:05:58,389 tremenda emoción, 1511 01:05:58,432 --> 01:06:00,391 pero también una enorme responsabilidad. 1512 01:06:00,434 --> 01:06:01,740 Está sucediendo muy rápido. 1513 01:06:02,654 --> 01:06:04,003 ¿Cómo lo gobernaremos? 1514 01:06:05,135 --> 01:06:06,223 ¿Cómo decidiremos? 1515 01:06:06,266 --> 01:06:08,181 ¿Qué está bien y qué no está bien? 1516 01:06:08,225 --> 01:06:10,923 Las imágenes generadas por IA son cada vez más sofisticadas. 1517 01:06:10,967 --> 01:06:14,535 El uso de la IA para generar desinformación 1518 01:06:14,579 --> 01:06:17,016 y manipular la psicología humana 1519 01:06:17,060 --> 01:06:20,237 Sólo va a empeorar mucho, mucho. 1520 01:06:21,194 --> 01:06:22,587 La IA general está llegando 1521 01:06:22,630 --> 01:06:24,632 ya sea que lo hagamos aquí en DeepMind o no. 1522 01:06:25,459 --> 01:06:26,765 Va a pasar, 1523 01:06:26,808 --> 01:06:29,028 Así que mejor crearemos instituciones que nos protejan. 1524 01:06:29,072 --> 01:06:30,595 Se requerirá coordinación global. 1525 01:06:30,638 --> 01:06:32,727 Y me preocupa que la humanidad esté 1526 01:06:32,771 --> 01:06:35,382 La situación está empeorando cada vez más en lugar de mejorar. 1527 01:06:35,426 --> 01:06:37,123 Necesitamos mucha más gente 1528 01:06:37,167 --> 01:06:40,039 Realmente estoy tomando esto en serio y pensando en ello. 1529 01:06:40,083 --> 01:06:42,999 Sí, es serio. Me preocupa. 1530 01:06:44,043 --> 01:06:45,871 Me preocupa. Sí. 1531 01:06:45,914 --> 01:06:48,613 Si recibió un correo electrónico que decía 1532 01:06:48,656 --> 01:06:50,832 Esta civilización extraterrestre superior 1533 01:06:50,876 --> 01:06:52,791 va a llegar a la Tierra, 1534 01:06:52,834 --> 01:06:54,575 Habría reuniones de emergencia 1535 01:06:54,619 --> 01:06:56,273 de todos los gobiernos. 1536 01:06:56,316 --> 01:06:58,144 Entraríamos en modo de sobremarcha 1537 01:06:58,188 --> 01:07:00,103 tratando de averiguar cómo prepararse. 1538 01:07:01,669 --> 01:07:03,976 La llegada de AGI será 1539 01:07:04,020 --> 01:07:06,935 El momento más importante al que nos hemos enfrentado jamás. 1540 01:07:14,378 --> 01:07:17,555 Mi sueño era que en el camino a AGI, 1541 01:07:17,598 --> 01:07:20,688 Crearíamos tecnologías revolucionarias 1542 01:07:20,732 --> 01:07:23,082 Esto sería de utilidad para la humanidad. 1543 01:07:23,126 --> 01:07:25,171 Eso es lo que quería con AlphaFold. 1544 01:07:26,694 --> 01:07:28,653 Creo que es más importante que nunca. 1545 01:07:28,696 --> 01:07:31,047 que deberíamos resolver el problema del plegamiento de proteínas. 1546 01:07:32,004 --> 01:07:34,224 Esto va a ser muy difícil. 1547 01:07:34,267 --> 01:07:36,791 Pero no me rendiré hasta que esté hecho. 1548 01:07:36,835 --> 01:07:37,879 Ya sabes, tenemos que redoblar los esfuerzos. 1549 01:07:37,923 --> 01:07:40,317 y ve lo más rápido posible desde aquí. 1550 01:07:40,360 --> 01:07:41,796 Creo que no tenemos tiempo que perder. 1551 01:07:41,840 --> 01:07:45,757 Así que vamos a formar un equipo de ataque para el plegamiento de proteínas. 1552 01:07:45,800 --> 01:07:47,541 El líder del equipo de ataque será John. 1553 01:07:47,585 --> 01:07:48,673 Sí, hemos visto a Alpha... 1554 01:07:48,716 --> 01:07:50,283 Ya sabes, vamos a intentarlo todo, 1555 01:07:50,327 --> 01:07:51,328 fregadero de la cocina, todo el lote. 1556 01:07:52,198 --> 01:07:53,330 CASP14 trata sobre 1557 01:07:53,373 --> 01:07:55,158 demostrando que podemos resolver todo el problema. 1558 01:07:56,333 --> 01:07:57,725 Y sentí que para hacer eso, 1559 01:07:57,769 --> 01:08:00,337 Necesitaríamos incorporar algún conocimiento del dominio. 1560 01:08:01,903 --> 01:08:03,731 Tuvimos algunos ingenieros fantásticos en ello, 1561 01:08:03,775 --> 01:08:05,733 pero no fueron entrenados en biología. 1562 01:08:08,475 --> 01:08:10,260 Como biólogo computacional, 1563 01:08:10,303 --> 01:08:12,131 Cuando me uní inicialmente al equipo de AlphaFold, 1564 01:08:12,175 --> 01:08:14,220 Al principio no me sentí seguro de nada. 1565 01:08:14,264 --> 01:08:15,352 Sabes, 1566 01:08:15,395 --> 01:08:17,223 Si íbamos a tener éxito. 1567 01:08:17,267 --> 01:08:21,097 La biología es ridículamente complicada. 1568 01:08:21,140 --> 01:08:25,101 Parecía como si escalar una montaña muy lejana. 1569 01:08:25,144 --> 01:08:26,754 Estoy empezando a jugar con las temperaturas subyacentes. 1570 01:08:26,798 --> 01:08:27,973 para ver si podemos conseguir... 1571 01:08:28,016 --> 01:08:29,148 Como una de las pocas personas del equipo 1572 01:08:29,192 --> 01:08:31,846 ¿Quién ha trabajado en biología antes? 1573 01:08:31,890 --> 01:08:34,849 Sientes un enorme sentido de responsabilidad. 1574 01:08:34,893 --> 01:08:36,112 "Esperamos que hagas 1575 01:08:36,155 --> 01:08:37,678 "Grandes cosas en este equipo de ataque". 1576 01:08:37,722 --> 01:08:38,897 Eso es aterrador. 1577 01:08:40,464 --> 01:08:42,727 Pero una de las razones por las que quería venir aquí 1578 01:08:42,770 --> 01:08:45,556 Era hacer algo que importa. 1579 01:08:45,599 --> 01:08:48,472 Éste es el número de cosas que faltan. 1580 01:08:48,515 --> 01:08:49,951 ¿Qué tal si hacemos uso de 1581 01:08:49,995 --> 01:08:52,563 ¿Qué tanto entiendes de física? 1582 01:08:52,606 --> 01:08:54,391 ¿Utilizando esto como fuente de datos? 1583 01:08:54,434 --> 01:08:55,479 Pero si es sistemático... 1584 01:08:55,522 --> 01:08:56,784 Entonces eso no puede ser correcto. 1585 01:08:56,828 --> 01:08:58,308 Si es sistemáticamente incorrecto de alguna manera extraña, 1586 01:08:58,351 --> 01:09:01,224 Es posible que estés aprendiendo física sistemáticamente equivocada. 1587 01:09:01,267 --> 01:09:02,355 El equipo ya esta 1588 01:09:02,399 --> 01:09:04,749 tratando de pensar en múltiples formas en que... 1589 01:09:04,792 --> 01:09:06,229 Relevancia biológica 1590 01:09:06,272 --> 01:09:07,795 Esto es lo que buscamos. 1591 01:09:09,057 --> 01:09:11,364 Así que reescribimos todo el flujo de datos. 1592 01:09:11,408 --> 01:09:13,279 que AlphaFold utiliza para aprender. 1593 01:09:13,323 --> 01:09:15,586 No puedes forzar la fase creativa. 1594 01:09:15,629 --> 01:09:18,241 Tienes que darle espacio para que esas flores florezcan. 1595 01:09:19,242 --> 01:09:20,286 Ganamos CASP. 1596 01:09:20,330 --> 01:09:22,070 Luego volví a la mesa de dibujo. 1597 01:09:22,114 --> 01:09:24,116 Y, ¿cuáles son nuestras nuevas ideas? 1598 01:09:24,160 --> 01:09:26,945 Um, y luego ha tardado un poco, diría yo, 1599 01:09:26,988 --> 01:09:28,686 para que volvieran a donde estaban, 1600 01:09:28,729 --> 01:09:30,340 pero con las nuevas ideas. 1601 01:09:30,383 --> 01:09:31,515 Y ahora pienso 1602 01:09:31,558 --> 01:09:33,952 Estamos viendo los beneficios de las nuevas ideas. 1603 01:09:33,995 --> 01:09:35,736 Pueden ir más lejos ¿no? 1604 01:09:35,780 --> 01:09:38,130 Entonces, eh, ese es un momento realmente importante. 1605 01:09:38,174 --> 01:09:40,959 He visto ese momento tantas veces ya, 1606 01:09:41,002 --> 01:09:42,613 Pero ahora sé lo que eso significa. 1607 01:09:42,656 --> 01:09:44,484 Y sé que ahora es el momento de presionar. 1608 01:09:45,920 --> 01:09:48,009 Agregar cadenas laterales mejora el plegado directo. 1609 01:09:48,053 --> 01:09:49,663 Eso impulsó gran parte del progreso. 1610 01:09:49,707 --> 01:09:51,012 - Hablaremos de eso. - Genial. 1611 01:09:51,056 --> 01:09:54,799 En los últimos cuatro meses hemos logrado avances enormes. 1612 01:09:54,842 --> 01:09:56,453 Durante CASP13, 1613 01:09:56,496 --> 01:09:59,499 Nos llevaría un día o dos plegar una de las proteínas, 1614 01:09:59,543 --> 01:10:01,762 y ahora estamos doblando, como, 1615 01:10:01,806 --> 01:10:03,938 cientos de miles por segundo. 1616 01:10:03,982 --> 01:10:05,636 Sí, es simplemente una locura. 1617 01:10:05,679 --> 01:10:06,985 Ahora, este es un modelo 1618 01:10:07,028 --> 01:10:09,901 Esto es órdenes de magnitud más rápido, 1619 01:10:09,944 --> 01:10:12,251 y al mismo tiempo ser mejor. 1620 01:10:12,295 --> 01:10:13,644 Estamos recibiendo muchas estructuras. 1621 01:10:13,687 --> 01:10:15,254 en el régimen de alta precisión. 1622 01:10:15,298 --> 01:10:17,517 Estamos mejorando rápidamente nuestro sistema. 1623 01:10:17,561 --> 01:10:18,823 Eso está empezando a ser realmente 1624 01:10:18,866 --> 01:10:20,477 llegar al núcleo y al corazón del problema. 1625 01:10:20,520 --> 01:10:21,695 Es un gran trabajo. 1626 01:10:21,739 --> 01:10:23,088 Parece que estamos en buena forma. 1627 01:10:23,131 --> 01:10:26,222 Entonces, ¿nos quedan seis o cinco semanas? ¿Seis semanas? 1628 01:10:26,265 --> 01:10:29,616 Entonces, ¿qué pasa? ¿Tienes suficiente potencia de procesamiento? 1629 01:10:29,660 --> 01:10:31,531 Yo... Podríamos usar más. 1630 01:10:32,967 --> 01:10:34,360 Estaba nervioso por CASP 1631 01:10:34,404 --> 01:10:36,580 Pero a medida que el sistema comienza a funcionar, 1632 01:10:36,623 --> 01:10:37,972 No me siento tan nervioso. 1633 01:10:38,016 --> 01:10:39,496 Siento que las cosas han cambiado, de alguna manera, 1634 01:10:39,539 --> 01:10:41,193 ha cobrado perspectiva recientemente, 1635 01:10:41,237 --> 01:10:44,240 y, sabes, todo va a estar bien. 1636 01:10:47,330 --> 01:10:48,853 El Primer Ministro ha anunciado 1637 01:10:48,896 --> 01:10:51,290 Los límites más drásticos para nuestras vidas 1638 01:10:51,334 --> 01:10:53,858 que el Reino Unido haya visto jamás en su vida. 1639 01:10:53,901 --> 01:10:55,033 Debo darle al pueblo británico 1640 01:10:55,076 --> 01:10:56,904 Una instrucción muy sencilla. 1641 01:10:56,948 --> 01:10:59,037 Debes quedarte en casa. 1642 01:10:59,080 --> 01:11:02,519 Parece que estamos en una novela de ciencia ficción. 1643 01:11:02,562 --> 01:11:04,869 Ya sabes, estoy entregando comida a mis padres, 1644 01:11:04,912 --> 01:11:08,220 asegurándose de que permanezcan aislados y seguros. 1645 01:11:08,264 --> 01:11:10,570 Creo que simplemente resalta la increíble necesidad 1646 01:11:10,614 --> 01:11:12,877 para la ciencia asistida por IA. 1647 01:11:17,098 --> 01:11:18,361 Siempre lo sabes 1648 01:11:18,404 --> 01:11:21,015 Algo así es una posibilidad. 1649 01:11:21,059 --> 01:11:23,888 Pero nadie cree realmente que eso vaya a suceder. 1650 01:11:23,931 --> 01:11:25,585 en su vida, sin embargo. 1651 01:11:26,978 --> 01:11:29,154 -¿Ya estás grabando? -Sí. 1652 01:11:29,197 --> 01:11:31,025 - Bueno, buenos días a todos. - Hola. 1653 01:11:31,069 --> 01:11:32,679 Bien. CASP ha comenzado. 1654 01:11:32,723 --> 01:11:36,074 Es agradable poder sentarme en pijama todo el día. 1655 01:11:36,117 --> 01:11:37,597 Nunca pensé que viviría en una casa. 1656 01:11:37,641 --> 01:11:39,164 donde estaban pasando tantas cosas. 1657 01:11:39,207 --> 01:11:41,427 Estaría tratando de resolver el plegamiento de proteínas en una habitación, 1658 01:11:41,471 --> 01:11:42,559 y mi marido estaría intentando 1659 01:11:42,602 --> 01:11:43,908 para hacer que los robots caminen en el otro. 1660 01:11:46,954 --> 01:11:49,392 Una de las proteínas más duras que hemos obtenido en CASP hasta ahora. 1661 01:11:49,435 --> 01:11:51,219 es la proteína SARS-CoV-2 1662 01:11:51,263 --> 01:11:52,220 llamado ORF8. 1663 01:11:52,264 --> 01:11:54,919 ORF8 es una proteína del coronavirus. 1664 01:11:54,962 --> 01:11:56,964 Es una de las principales proteínas, eh, 1665 01:11:57,008 --> 01:11:58,749 que debilita el sistema inmunológico. 1666 01:11:58,792 --> 01:12:00,054 Nos esforzamos mucho 1667 01:12:00,098 --> 01:12:01,752 para mejorar nuestra predicción. 1668 01:12:01,795 --> 01:12:03,493 De verdad, de verdad muy difícil. 1669 01:12:03,536 --> 01:12:05,582 Probablemente el mayor tiempo que hemos pasado jamás 1670 01:12:05,625 --> 01:12:07,105 en un solo objetivo. 1671 01:12:07,148 --> 01:12:08,933 Hasta el punto en que mi marido está como, 1672 01:12:08,976 --> 01:12:12,197 "Es medianoche. Tienes que irte a dormir." 1673 01:12:12,240 --> 01:12:16,419 Así que creo que estamos en el día 102 desde el confinamiento. 1674 01:12:16,462 --> 01:12:19,944 Mi hija lleva un diario. 1675 01:12:19,987 --> 01:12:22,120 Ahora puedes salir tanto como quieras. 1676 01:12:25,036 --> 01:12:27,212 Hemos recibido el último objetivo. 1677 01:12:27,255 --> 01:12:29,649 Han dicho que no enviarán más objetivos. 1678 01:12:29,693 --> 01:12:31,347 en nuestra categoría de CASP. 1679 01:12:32,652 --> 01:12:33,653 Así que simplemente nos estamos asegurando 1680 01:12:33,697 --> 01:12:35,481 Obtenemos la mejor respuesta posible. 1681 01:12:40,530 --> 01:12:43,315 Tan pronto como empezamos a obtener los resultados, 1682 01:12:43,359 --> 01:12:48,233 Me sentaría y comenzaría a observar qué tan cerca estuvo alguien. 1683 01:12:48,276 --> 01:12:50,583 para conseguir estructuras proteicas correctas. 1684 01:13:00,245 --> 01:13:01,551 - Oh, hola. -Hola. 1685 01:13:03,814 --> 01:13:07,078 Es algo increíble, CASP finalmente ha terminado. 1686 01:13:07,121 --> 01:13:09,472 Creo que al menos es hora de levantar una copa. 1687 01:13:09,515 --> 01:13:11,212 Um, no sé si todos tienen un vaso. 1688 01:13:11,256 --> 01:13:12,823 de algo que puedan criar. 1689 01:13:12,866 --> 01:13:14,955 Si no, levantad, no sé, vuestros portátiles. 1690 01:13:14,999 --> 01:13:17,088 Uno... 1691 01:13:17,131 --> 01:13:18,611 Probablemente daré un discurso en un minuto. 1692 01:13:18,655 --> 01:13:20,483 Siento que debería hacerlo pero no tengo idea de qué decir. 1693 01:13:21,005 --> 01:13:24,269 Bueno... veamos. 1694 01:13:24,312 --> 01:13:27,054 Me siento como si estuviera leyendo un correo electrónico... 1695 01:13:27,098 --> 01:13:28,534 Es lo correcto que hay que hacer. 1696 01:13:29,927 --> 01:13:31,232 Cuando Juan dijo: 1697 01:13:31,276 --> 01:13:33,191 "Voy a leer un correo electrónico" en una reunión social del equipo. 1698 01:13:33,234 --> 01:13:35,498 Pensé: "Vaya, John, sí que sabes cómo divertirte". 1699 01:13:35,541 --> 01:13:38,370 Ahora vamos a leer un correo electrónico. 1700 01:13:38,414 --> 01:13:41,634 Uh, recibí esto alrededor de las cuatro de hoy. 1701 01:13:42,722 --> 01:13:44,724 Umm, es de John Moult. 1702 01:13:45,725 --> 01:13:47,031 Y simplemente lo leeré. 1703 01:13:47,074 --> 01:13:49,381 Dice: "Como supongo que ya sabes, 1704 01:13:49,425 --> 01:13:53,603 "Su grupo ha tenido un desempeño sorprendentemente bueno en CASP 14, 1705 01:13:53,646 --> 01:13:55,387 "tanto en relación con otros grupos 1706 01:13:55,431 --> 01:13:57,911 "y con absoluta precisión de modelo." 1707 01:13:59,826 --> 01:14:01,219 "Felicitaciones por este trabajo. 1708 01:14:01,262 --> 01:14:03,047 "Es realmente extraordinario." 1709 01:14:03,090 --> 01:14:05,266 Las estructuras eran tan buenas, 1710 01:14:05,310 --> 01:14:07,443 Fue... fue simplemente increíble. 1711 01:14:09,140 --> 01:14:10,750 Después de medio siglo, 1712 01:14:10,794 --> 01:14:12,230 Por fin tenemos una solución 1713 01:14:12,273 --> 01:14:14,928 al problema del plegamiento de proteínas. 1714 01:14:14,972 --> 01:14:17,409 Cuando vi este correo electrónico, lo leí, 1715 01:14:17,453 --> 01:14:19,585 Yo digo, "¡Oh, mierda!" 1716 01:14:19,629 --> 01:14:21,587 Y mi esposa dice: "¿Está todo bien?" 1717 01:14:21,631 --> 01:14:24,242 Llamo a mis padres y les digo: "Hola, mamá". 1718 01:14:24,285 --> 01:14:26,244 "Umm, tengo algo que decirte. 1719 01:14:26,287 --> 01:14:27,550 "Hemos hecho esto 1720 01:14:27,593 --> 01:14:29,813 "y podría ser algo muy importante." 1721 01:14:29,856 --> 01:14:31,641 Cuando me enteré de los resultados del CASP 14, 1722 01:14:32,642 --> 01:14:34,034 Me quedé estupefacto. 1723 01:14:34,078 --> 01:14:35,819 Estaba simplemente emocionado. 1724 01:14:35,862 --> 01:14:38,909 Este es un problema en el que estaba empezando a pensar. 1725 01:14:38,952 --> 01:14:42,086 No se resolvería en mi vida. 1726 01:14:42,129 --> 01:14:44,741 Ahora tenemos una herramienta que se puede utilizar 1727 01:14:44,784 --> 01:14:46,612 prácticamente por los científicos. 1728 01:14:46,656 --> 01:14:48,440 Esta gente nos pregunta, ya sabes, 1729 01:14:48,484 --> 01:14:50,224 "Tengo esta proteína involucrada en la malaria", 1730 01:14:50,268 --> 01:14:52,139 o ya sabes, alguna enfermedad infecciosa. 1731 01:14:52,183 --> 01:14:53,227 "No conocemos la estructura. 1732 01:14:53,271 --> 01:14:55,186 "¿Podemos usar AlphaFold para resolverlo?" 1733 01:14:55,229 --> 01:14:56,970 Podemos predecir fácilmente todas las secuencias conocidas 1734 01:14:57,014 --> 01:14:58,276 en un mes. 1735 01:14:58,319 --> 01:14:59,973 ¿Todas las secuencias conocidas en un mes? 1736 01:15:00,017 --> 01:15:01,279 - Sí, fácilmente. - ¿Mmm-hmm? 1737 01:15:01,322 --> 01:15:02,585 Un billón, dos mil millones. 1738 01:15:02,628 --> 01:15:03,673 Um, y son... 1739 01:15:03,716 --> 01:15:05,196 ¿Por qué no hacemos eso? Sí. 1740 01:15:05,239 --> 01:15:07,111 - Deberíamos hacer eso mucho. - Bueno, quiero decir... 1741 01:15:07,154 --> 01:15:09,243 Eso está mucho mejor. ¿Por qué no hacemos eso? 1742 01:15:09,287 --> 01:15:11,115 Así que esa es una de las opciones. 1743 01:15:11,158 --> 01:15:12,638 -Bien. - Hay esto... 1744 01:15:12,682 --> 01:15:15,119 Deberíamos simplemente... Bien, es una gran idea. 1745 01:15:15,162 --> 01:15:17,513 Deberíamos simplemente analizar todas las proteínas existentes. 1746 01:15:18,296 --> 01:15:19,471 Y luego libera eso. 1747 01:15:19,515 --> 01:15:20,994 ¿Por qué nadie sugirió esto antes? 1748 01:15:21,038 --> 01:15:22,126 Por supuesto que eso es lo que debemos hacer. 1749 01:15:22,169 --> 01:15:23,954 ¿Por qué estamos pensando en hacer un servicio? 1750 01:15:23,997 --> 01:15:25,651 ¿Y luego la gente envía sus proteínas? 1751 01:15:25,695 --> 01:15:26,913 Simplemente doblamos todo. 1752 01:15:26,957 --> 01:15:28,654 Y luego dáselo a todo el mundo. 1753 01:15:28,698 --> 01:15:31,483 ¿Quién sabe cuántos descubrimientos se harán a partir de esto? 1754 01:15:31,527 --> 01:15:33,790 Demis nos llamó y nos dijo: 1755 01:15:33,833 --> 01:15:35,618 "Queremos que esto sea abierto. 1756 01:15:35,661 --> 01:15:37,837 "No sólo hay que asegurarse de que el código esté abierto, 1757 01:15:37,881 --> 01:15:39,578 "Pero lo haremos realmente fácil". 1758 01:15:39,622 --> 01:15:42,668 "para que todo el mundo tenga acceso a las predicciones". 1759 01:15:45,062 --> 01:15:47,238 Eso es fantástico. 1760 01:15:47,281 --> 01:15:49,327 Es como correr la cortina. 1761 01:15:49,370 --> 01:15:52,852 y ver todo el mundo de las estructuras de las proteínas. 1762 01:15:55,246 --> 01:15:56,987 Liberaron las estructuras 1763 01:15:57,030 --> 01:15:59,772 de 200 millones de proteínas. 1764 01:15:59,816 --> 01:16:01,818 Estos son regalos para la humanidad. 1765 01:16:07,650 --> 01:16:10,914 En el momento en que AlphaFold esté disponible para el mundo, 1766 01:16:10,957 --> 01:16:13,873 Ya no seremos las personas más importantes 1767 01:16:13,917 --> 01:16:15,222 en la historia de AlphaFold. 1768 01:16:15,266 --> 01:16:16,833 No puedo creer que todo haya salido a la luz. 1769 01:16:16,876 --> 01:16:18,356 ¡Oh! 1770 01:16:18,399 --> 01:16:20,314 Ciento sesenta y cuatro usuarios. 1771 01:16:20,358 --> 01:16:22,578 Mucha actividad en Japón. 1772 01:16:22,621 --> 01:16:24,928 Tenemos 655 usuarios actualmente. 1773 01:16:24,971 --> 01:16:26,930 Actualmente contamos con 100.000 usuarios simultáneos. 1774 01:16:26,973 --> 01:16:28,192 ¡Guau! 1775 01:16:31,108 --> 01:16:33,893 Hoy es un día de locura. 1776 01:16:33,937 --> 01:16:36,504 ¡Qué esfuerzo absolutamente increíble! 1777 01:16:36,548 --> 01:16:37,723 De todo el mundo. 1778 01:16:37,767 --> 01:16:38,550 Todos recordaremos estos momentos. 1779 01:16:38,594 --> 01:16:40,030 por el resto de nuestras vidas. 1780 01:16:40,073 --> 01:16:41,727 Estoy entusiasmado con AlphaFold. 1781 01:16:41,771 --> 01:16:45,601 En lo que a mi investigación se refiere, ya está impulsando muchos avances. 1782 01:16:45,644 --> 01:16:47,385 Y esto es sólo el comienzo. 1783 01:16:47,428 --> 01:16:48,908 Mi conjetura es que 1784 01:16:48,952 --> 01:16:53,043 Cada logro biológico y químico 1785 01:16:53,086 --> 01:16:55,698 Estará relacionado con AlphaFold de alguna manera. 1786 01:17:13,367 --> 01:17:15,413 AlphaFold es un momento índice. 1787 01:17:15,456 --> 01:17:18,068 Es un momento que la gente no olvidará. 1788 01:17:18,111 --> 01:17:20,244 Porque el mundo cambió. 1789 01:17:39,655 --> 01:17:41,482 Todo el mundo se ha dado cuenta ahora 1790 01:17:41,526 --> 01:17:43,746 Lo que Shane y yo sabemos desde hace más de 20 años, 1791 01:17:43,789 --> 01:17:46,618 que la IA va a ser lo más importante 1792 01:17:46,662 --> 01:17:48,446 que la humanidad jamás va a inventar. 1793 01:17:48,489 --> 01:17:50,230 Llegaremos en breve 1794 01:17:50,274 --> 01:17:52,058 en nuestro destino final. 1795 01:18:02,068 --> 01:18:04,767 El ritmo de la innovación y las capacidades 1796 01:18:04,810 --> 01:18:06,507 se está acelerando, 1797 01:18:06,551 --> 01:18:09,293 como una roca que rueda colina abajo desde la que hemos dado una patada 1798 01:18:09,336 --> 01:18:12,644 Y ahora sigue ganando velocidad. 1799 01:18:12,688 --> 01:18:15,299 Estamos en una encrucijada en la historia de la humanidad. 1800 01:18:15,342 --> 01:18:16,735 La IA tiene el potencial 1801 01:18:16,779 --> 01:18:19,172 para transformar nuestras vidas en todos los aspectos. 1802 01:18:19,216 --> 01:18:23,786 No es menos importante que el descubrimiento de la electricidad. 1803 01:18:23,829 --> 01:18:26,484 Deberíamos estar mirando el método científico. 1804 01:18:26,527 --> 01:18:28,834 y tratando de entender cada paso del camino 1805 01:18:28,878 --> 01:18:30,096 de manera rigurosa. 1806 01:18:30,140 --> 01:18:32,664 Éste es un momento de profunda oportunidad. 1807 01:18:32,708 --> 01:18:34,753 Aprovechar esta tecnología 1808 01:18:34,797 --> 01:18:37,713 Podría eclipsar cualquier cosa que hayamos conocido hasta ahora. 1809 01:18:42,195 --> 01:18:43,675 Hola, Alfa. 1810 01:18:44,676 --> 01:18:45,764 Hola. 1811 01:18:47,157 --> 01:18:48,419 ¿Qué es esto? 1812 01:18:50,682 --> 01:18:53,729 Este es un tablero de ajedrez. 1813 01:18:53,772 --> 01:18:56,514 Si tuviera que jugar con blancas, ¿qué movimiento me recomendarías? 1814 01:18:59,865 --> 01:19:00,953 Yo lo recomendaría 1815 01:19:00,997 --> 01:19:02,781 que muevas tu peón de E2 a E4. 1816 01:19:05,871 --> 01:19:08,787 Y ahora, si fueras negro, ¿a qué tocarías ahora? 1817 01:19:11,572 --> 01:19:13,618 Yo jugaría la Defensa Siciliana. 1818 01:19:15,838 --> 01:19:16,882 Esa es una buena elección. 1819 01:19:19,406 --> 01:19:21,452 Gracias. 1820 01:19:23,715 --> 01:19:25,891 Entonces, ¿qué ves? ¿Qué es este objeto? 1821 01:19:28,546 --> 01:19:30,504 Esta es una escultura de lápiz. 1822 01:19:32,811 --> 01:19:35,031 ¿Qué pasa si muevo uno de los lápices? 1823 01:19:37,990 --> 01:19:39,470 Si mueves uno de los lápices, 1824 01:19:39,513 --> 01:19:42,081 La escultura se desmoronará. 1825 01:19:42,125 --> 01:19:44,301 Será mejor que lo deje en paz entonces. 1826 01:19:44,344 --> 01:19:45,868 Probablemente sea una buena idea. 1827 01:19:50,568 --> 01:19:52,744 La IAG ya está en el horizonte. 1828 01:19:54,833 --> 01:19:56,661 Muy claramente la próxima generación 1829 01:19:56,704 --> 01:19:58,141 va a vivir en un mundo futuro 1830 01:19:58,184 --> 01:20:01,057 donde las cosas serán radicalmente diferentes gracias a la IA. 1831 01:20:02,493 --> 01:20:05,496 Y si quieres administrarlo de manera responsable, 1832 01:20:05,539 --> 01:20:09,239 Cada momento es vital. 1833 01:20:09,282 --> 01:20:12,677 Este es el momento que he estado viviendo toda mi vida. 1834 01:20:19,162 --> 01:20:21,120 Es solo un buen juego de pensar.145296

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.