All language subtitles for Do.You.Trust.This.Computer-pt.srt

af Afrikaans
ak Akan
sq Albanian
am Amharic
ar Arabic Download
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bem Bemba
bn Bengali
bh Bihari
bs Bosnian
br Breton
bg Bulgarian
km Cambodian
ca Catalan
ceb Cebuano
chr Cherokee
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English Download
eo Esperanto
et Estonian
ee Ewe
fo Faroese
tl Filipino
fi Finnish
fr French Download
fy Frisian
gaa Ga
gl Galician
ka Georgian
de German
el Greek
gn Guarani
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ia Interlingua
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
rw Kinyarwanda
rn Kirundi
kg Kongo
ko Korean
kri Krio (Sierra Leone)
ku Kurdish
ckb Kurdish (Soranî)
ky Kyrgyz
lo Laothian
la Latin
lv Latvian
ln Lingala
lt Lithuanian
loz Lozi
lg Luganda
ach Luo
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mfe Mauritian Creole
mo Moldavian
mn Mongolian
my Myanmar (Burmese)
sr-ME Montenegrin
ne Nepali
pcm Nigerian Pidgin
nso Northern Sotho
no Norwegian
nn Norwegian (Nynorsk)
oc Occitan
or Oriya
om Oromo
ps Pashto
fa Persian
pl Polish
pt-BR Portuguese (Brazil)
pt Portuguese (Portugal)
pa Punjabi
qu Quechua
ro Romanian
rm Romansh
nyn Runyakitara
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
sh Serbo-Croatian
st Sesotho
tn Setswana
crs Seychellois Creole
sn Shona
sd Sindhi
si Sinhalese
sk Slovak
sl Slovenian
so Somali
es Spanish Download
es-419 Spanish (Latin American)
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
tt Tatar
te Telugu
th Thai
ti Tigrinya
to Tonga
lua Tshiluba
tum Tumbuka
tr Turkish
tk Turkmen
tw Twi
ug Uighur
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
wo Wolof
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:10,649 --> 00:00:14,149 "Você é o meu criador, mas eu sou seu mestre..." 2 00:00:36,450 --> 00:00:38,650 O que estamos às vésperas 3 00:00:38,750 --> 00:00:42,689 é um mundo com uma cada vez mais intensa e sofisticada 4 00:00:43,890 --> 00:00:45,793 inteligência artificial. 5 00:00:46,040 --> 00:00:49,499 A tecnologia está evoluindo muito mais rápido que a nossa sociedade. 6 00:00:49,500 --> 00:00:52,569 Ela tem a capacidade de nos proteger como cidadãos. 7 00:00:52,570 --> 00:00:55,249 Os robôs estão chegando e eles vão destruir 8 00:00:55,250 --> 00:00:56,818 nossos meios de subsistência. 9 00:01:02,993 --> 00:01:05,479 Você tem uma inteligência em rede que nos observa, 10 00:01:05,480 --> 00:01:09,480 sabe tudo sobre nós e começa a tentar nos mudar. 11 00:01:09,590 --> 00:01:12,664 O Twitter tornou-se o site de notícias número um do mundo. 12 00:01:13,640 --> 00:01:16,179 A tecnologia nunca é boa ou ruim. 13 00:01:16,180 --> 00:01:18,263 É o que fazemos com a tecnologia. 14 00:01:20,390 --> 00:01:23,439 No final, milhões de pessoas serão expulsas de seus empregos 15 00:01:23,440 --> 00:01:25,953 porque suas habilidades serão obsoletas. 16 00:01:26,886 --> 00:01:28,619 Desemprego em massa. 17 00:01:28,620 --> 00:01:31,857 Maiores desigualdades, até mesmo inquietação social. 18 00:01:33,520 --> 00:01:36,479 Independentemente de ter medo ou não, 19 00:01:36,480 --> 00:01:39,307 a mudança está chegando e ninguém pode pará-la. 20 00:01:45,810 --> 00:01:47,699 Investimos enormes quantias de dinheiro 21 00:01:47,700 --> 00:01:49,473 e por isso é lógico que os militares, 22 00:01:49,474 --> 00:01:53,439 com seus próprios desejos vão começar a usar essas tecnologias. 23 00:01:54,400 --> 00:01:55,809 Sistemas de armas autônomas 24 00:01:55,810 --> 00:01:57,879 levariam a uma corrida armamentista global 25 00:01:57,880 --> 00:02:00,383 que rivalizaria com a da era nuclear. 26 00:02:03,520 --> 00:02:06,729 Então você sabe qual é a resposta, elas acabarão por nos matar. 27 00:02:12,020 --> 00:02:14,349 Esses saltos tecnológicos vão nos proporcionar 28 00:02:14,350 --> 00:02:15,790 incríveis milagres 29 00:02:16,830 --> 00:02:18,303 e incríveis horrores. 30 00:02:25,540 --> 00:02:26,540 Nós a criamos, 31 00:02:28,320 --> 00:02:31,699 então eu acho que à medida que avançamos com essa inteligência, 32 00:02:31,700 --> 00:02:33,293 ela irá conter partes de nós. 33 00:02:35,150 --> 00:02:36,735 Mas eu acho que a questão é, 34 00:02:36,836 --> 00:02:38,590 ela vai conter as partes boas 35 00:02:40,600 --> 00:02:41,800 ou as partes ruins? 36 00:02:49,100 --> 00:02:52,600 VOCÊ CONFIA NESTE COMPUTADOR? 37 00:03:06,148 --> 00:03:07,971 Os sobreviventes chamaram a guerra 38 00:03:07,972 --> 00:03:09,799 de Dia do Juízo Final, 39 00:03:09,800 --> 00:03:12,373 eles viviam apenas para enfrentar um novo pesadelo, 40 00:03:13,720 --> 00:03:15,423 a guerra contra as máquinas. 41 00:03:16,400 --> 00:03:18,431 Acho que nos ferramos por completo. 42 00:03:19,264 --> 00:03:21,529 Acho que Hollywood conseguiu inocular 43 00:03:21,530 --> 00:03:25,149 o público em geral contra esta questão, 44 00:03:25,150 --> 00:03:28,023 a ideia de que uma máquina dominará o mundo. 45 00:03:29,630 --> 00:03:31,267 Abra as portas do compartimento, HAL. 46 00:03:33,200 --> 00:03:34,699 Sinto muito, Dave. 47 00:03:34,700 --> 00:03:36,530 Sinto não poder fazer isso. 48 00:03:38,920 --> 00:03:39,939 HAL? 49 00:03:39,940 --> 00:03:41,569 Já alarmamos sem razão tantas vezes 50 00:03:41,570 --> 00:03:43,487 que o público parou de prestar atenção 51 00:03:43,588 --> 00:03:45,109 porque parece ficção científica, 52 00:03:45,110 --> 00:03:46,848 mesmo sentados aqui falando sobre isso. 53 00:03:46,849 --> 00:03:48,499 Mesmo agora, parece um pouco tolo, 54 00:03:48,500 --> 00:03:52,018 um pouco como "oh!, isso é coisa de algum filme classe B". 55 00:03:52,660 --> 00:03:55,629 O WOPR passa todo seu tempo pensando 56 00:03:55,630 --> 00:03:57,312 sobre a Terceira Guerra Mundial. 57 00:03:57,770 --> 00:03:58,770 Mas não é. 58 00:04:00,010 --> 00:04:03,574 O público em geral está prestes a ser pego de surpresa por isto. 59 00:04:12,510 --> 00:04:15,342 Como indivíduos, estamos cada vez mais rodeados 60 00:04:15,343 --> 00:04:18,283 por uma inteligência de máquinas. 61 00:04:20,150 --> 00:04:23,609 Nós carregamos este dispositivo de bolso na palma da nossa mão 62 00:04:23,610 --> 00:04:26,729 que usamos para tomar uma série impressionante de decisões de vida. 63 00:04:27,560 --> 00:04:29,969 Auxiliados por um conjunto de algoritmos distantes 64 00:04:29,970 --> 00:04:32,096 sobre os quais não entendemos nada. 65 00:04:35,750 --> 00:04:37,599 Já estamos cansados da ideia 66 00:04:37,600 --> 00:04:39,453 de que podemos falar com o nosso telefone 67 00:04:39,454 --> 00:04:41,159 e que principalmente ele nos entende. 68 00:04:41,160 --> 00:04:43,439 Encontrei um grande número de filmes de ação. 69 00:04:43,440 --> 00:04:45,899 Cinco anos atrás de jeito nenhum. 70 00:04:45,900 --> 00:04:49,407 Máquinas robóticas que veem, falam e ouvem, 71 00:04:49,408 --> 00:04:52,709 tudo isso agora é real e essas tecnologias 72 00:04:52,710 --> 00:04:55,163 vão mudar fundamentalmente a nossa sociedade. 73 00:04:57,130 --> 00:05:00,176 Agora temos esse grande movimento de carros que dirigem a si mesmos. 74 00:05:01,130 --> 00:05:04,219 Dirigir um carro de forma autônoma pode mover a vida das pessoas 75 00:05:04,220 --> 00:05:05,433 para um lugar melhor. 76 00:05:07,050 --> 00:05:10,102 Eu perdi vários membros da minha família, incluindo minha mãe, 77 00:05:10,103 --> 00:05:12,779 meu irmão e minha cunhada e seus filhos 78 00:05:12,780 --> 00:05:14,190 para acidentes automobilísticos. 79 00:05:14,940 --> 00:05:16,179 Está bem claro. 80 00:05:16,180 --> 00:05:20,180 Podemos quase eliminar os acidentes de carro com a automação. 81 00:05:21,030 --> 00:05:23,079 30.000 vidas só nos EUA, 82 00:05:23,080 --> 00:05:25,993 cerca de um milhão em todo o mundo por ano. 83 00:05:26,540 --> 00:05:30,399 Na saúde, os indicadores iniciais são o nome do jogo nesse espaço, 84 00:05:30,400 --> 00:05:34,029 então esse é outro lugar onde pode-se salvar a vida de alguém. 85 00:05:34,720 --> 00:05:37,616 Aqui no Centro de câncer de mama 86 00:05:38,017 --> 00:05:41,546 todas as coisas que o cérebro do radiologista faz em dois minutos 87 00:05:41,547 --> 00:05:43,713 o computador faz instantaneamente. 88 00:05:44,710 --> 00:05:48,229 O computador analisou 1 bilhão de mamografias 89 00:05:48,230 --> 00:05:51,825 e pegou esses dados e os aplicou nesta imagem instantaneamente. 90 00:05:52,420 --> 00:05:54,850 Então, sua aplicação médica é profunda. 91 00:05:57,140 --> 00:06:00,239 Outra área excitante onde estamos vendo muito desenvolvimento 92 00:06:00,240 --> 00:06:03,666 é a que está entendendo o nosso código genético 93 00:06:03,960 --> 00:06:07,059 e usando isso tanto para diagnosticar doenças 94 00:06:07,060 --> 00:06:09,593 como para criar tratamentos personalizados. 95 00:06:13,015 --> 00:06:15,112 A principal aplicação de todas essas máquinas 96 00:06:15,113 --> 00:06:17,643 será para ampliar a nossa própria inteligência. 97 00:06:18,330 --> 00:06:20,346 Conseguiremos nos tornar mais inteligentes, 98 00:06:20,347 --> 00:06:22,860 e seremos melhores para resolver problemas. 99 00:06:23,530 --> 00:06:24,763 Não teremos que envelhecer, 100 00:06:24,764 --> 00:06:26,719 não teremos que passar pelo envelhecimento. 101 00:06:26,720 --> 00:06:27,970 Seremos capazes de pará-lo. 102 00:06:28,510 --> 00:06:31,029 Não há realmente limite para o que máquinas inteligentes 103 00:06:31,030 --> 00:06:32,863 poderão fazer para a raça humana. 104 00:06:37,571 --> 00:06:41,162 Como uma máquina mais inteligente poderia não ser uma máquina melhor? 105 00:06:42,940 --> 00:06:45,669 É difícil dizer exatamente quando comecei a pensar 106 00:06:45,670 --> 00:06:47,373 que isso era um pouco ingênuo. 107 00:06:57,780 --> 00:07:00,289 Stuart Russell é basicamente um deus 108 00:07:00,290 --> 00:07:01,929 no campo da inteligência artificial. 109 00:07:01,930 --> 00:07:05,309 Ele escreveu o livro que quase todas as universidades usam. 110 00:07:05,310 --> 00:07:08,159 Eu costumava dizer que é o livro de IA mais vendido. 111 00:07:08,160 --> 00:07:10,903 Agora digo que é o PDF mais roubado. 112 00:07:14,590 --> 00:07:16,617 Inteligência artificial é sobre como tornar 113 00:07:16,718 --> 00:07:18,590 os computadores inteligentes, 114 00:07:18,790 --> 00:07:21,699 e do ponto de vista do público, o que conta como IA 115 00:07:21,700 --> 00:07:23,970 é algo que é surpreendentemente inteligente 116 00:07:23,971 --> 00:07:26,231 comparado ao que pensamos que os computadores 117 00:07:26,232 --> 00:07:27,833 normalmente são capazes de fazer. 118 00:07:30,341 --> 00:07:32,469 A IA é um campo de pesquisa 119 00:07:32,470 --> 00:07:34,729 que tenta basicamente simular 120 00:07:34,730 --> 00:07:36,603 todos os tipos de capacidades humanas. 121 00:07:37,730 --> 00:07:39,669 Estamos em uma era de IA. 122 00:07:39,670 --> 00:07:43,079 O Vale do Silício teve a capacidade de focar algo brilhante. 123 00:07:43,140 --> 00:07:45,979 Foram as redes sociais nas mídias sociais na última década 124 00:07:45,980 --> 00:07:48,289 e está bastante claro que a moeda virou. 125 00:07:49,190 --> 00:07:51,759 Começa com o aprendizado da máquina. 126 00:07:51,760 --> 00:07:53,639 Quando olhamos para trás neste momento, 127 00:07:53,640 --> 00:07:55,249 qual foi a primeira IA? 128 00:07:55,250 --> 00:07:58,199 Ela não é excitante e não é a coisa que vemos nos filmes, 129 00:07:58,200 --> 00:08:00,219 mas você daria um grande palpite 130 00:08:00,220 --> 00:08:02,479 que o Google criou não um mecanismo de pesquisa, 131 00:08:02,480 --> 00:08:03,880 mas uma divindade. 132 00:08:04,280 --> 00:08:07,659 Uma maneira das pessoas fazerem qualquer pergunta que elas queiram 133 00:08:07,660 --> 00:08:09,409 e conseguir a resposta que precisam. 134 00:08:09,410 --> 00:08:11,799 A maioria das pessoas não está ciente que 135 00:08:11,800 --> 00:08:14,889 o que o Google faz é uma forma de inteligência artificial. 136 00:08:14,890 --> 00:08:17,289 Elas apenas vão lá, digitam alguma coisa 137 00:08:17,290 --> 00:08:19,249 e o Google dá a resposta. 138 00:08:19,250 --> 00:08:22,459 Com cada pesquisa nos treinamos para sermos melhores. 139 00:08:22,460 --> 00:08:25,049 Às vezes nós digitamos e a pesquisa nos dá a resposta 140 00:08:25,050 --> 00:08:27,593 antes de você terminar de fazer a pergunta. 141 00:08:28,330 --> 00:08:31,039 Quem é o presidente do Cazaquistão? 142 00:08:31,040 --> 00:08:32,259 E ele lhe dirá, 143 00:08:32,260 --> 00:08:35,719 você não precisa ir ao website do Cazaquistão para descobrir. 144 00:08:35,810 --> 00:08:38,019 Ele não costumava ser capaz de fazer isso. 145 00:08:38,020 --> 00:08:40,419 Isso é inteligência artificial. 146 00:08:40,420 --> 00:08:42,909 Daqui alguns anos, quando tentarmos entender, 147 00:08:42,910 --> 00:08:45,549 diremos, bem, como perdemos isso? 148 00:08:45,550 --> 00:08:48,239 É uma dessas contradições marcantes 149 00:08:48,240 --> 00:08:49,380 que estamos enfrentando. 150 00:08:49,381 --> 00:08:51,209 O Google e o Facebook absolutamente têm 151 00:08:51,210 --> 00:08:53,251 construído negócios ao nos dar como sociedade 152 00:08:53,252 --> 00:08:54,983 um material grátis, sem custo, 153 00:08:54,984 --> 00:08:56,959 mas isto é uma barganha faustiana. 154 00:08:56,960 --> 00:09:00,173 Eles estão tirando algo de nós em troca. 155 00:09:01,310 --> 00:09:04,269 Mas não sabemos que código está sendo executado no outro lado, 156 00:09:04,270 --> 00:09:05,770 e por que não temos nenhuma ideia. 157 00:09:07,560 --> 00:09:11,559 Isto bate bem na questão do quanto devemos confiar nas máquinas. 158 00:09:15,100 --> 00:09:18,869 Eu uso computadores literalmente para tudo. 159 00:09:18,870 --> 00:09:21,909 Há tantos avanços no computador agora 160 00:09:22,010 --> 00:09:24,759 e ele se tornou uma parte tão grande de nossas vidas. 161 00:09:24,760 --> 00:09:27,269 É simplesmente incrível o que um computador pode fazer. 162 00:09:27,270 --> 00:09:30,039 Você pode realmente carregar um computador na sua bolsa. 163 00:09:30,040 --> 00:09:31,593 Quero dizer, isso é incrível. 164 00:09:32,799 --> 00:09:34,447 Eu acho que a maioria das tecnologias 165 00:09:34,548 --> 00:09:37,609 são feitas para facilitar as coisas para todos nós. 166 00:09:38,230 --> 00:09:40,983 Então, espero que isto continue a ser o foco. 167 00:09:41,932 --> 00:09:44,213 Eu acho que todo mundo ama seus computadores. 168 00:09:52,640 --> 00:09:54,441 As pessoas não percebem 169 00:09:54,442 --> 00:09:58,003 que estão sendo constantemente negociadas pelas máquinas. 170 00:10:00,400 --> 00:10:03,979 Se esse é o preço dos produtos no seu carrinho da Amazon, 171 00:10:03,980 --> 00:10:06,519 se você pode entrar em um voo em particular, 172 00:10:06,520 --> 00:10:09,369 se você pode reservar um quarto em um hotel específico, 173 00:10:09,370 --> 00:10:10,961 o que você está experimentando 174 00:10:11,062 --> 00:10:12,889 são algoritmos de aprendizagem da máquina 175 00:10:12,890 --> 00:10:15,209 que determinaram que uma pessoa como você 176 00:10:15,210 --> 00:10:18,223 está disposto a pagar mais dois centavos e está mudando o preço. 177 00:10:22,690 --> 00:10:26,039 Agora o computador olha para milhões de pessoas simultaneamente 178 00:10:26,040 --> 00:10:28,369 para padrões muito sutis. 179 00:10:29,070 --> 00:10:33,070 Você pode pegar rastos digitais aparentemente inocentes, 180 00:10:33,230 --> 00:10:35,669 como a lista de reprodução de alguém no Spotify 181 00:10:35,670 --> 00:10:38,549 ou coisas que eles compraram na Amazon, 182 00:10:38,550 --> 00:10:41,359 e então usar algoritmos para traduzir isso 183 00:10:41,560 --> 00:10:44,993 para um perfil íntimo muito detalhado e muito preciso. 184 00:10:48,560 --> 00:10:51,029 Existe um dossiê sobre cada um de nós, 185 00:10:51,030 --> 00:10:54,029 tão extenso que seria possivelmente preciso dizer 186 00:10:54,130 --> 00:10:56,533 que eles sabem mais sobre você do que sua mãe. 187 00:11:05,610 --> 00:11:07,709 A principal causa do recente avanço da IA, 188 00:11:07,710 --> 00:11:11,579 não é só que algum cara teve de repente uma visão brilhante, 189 00:11:11,580 --> 00:11:15,279 mas simplesmente porque temos muito mais dados 190 00:11:15,280 --> 00:11:18,113 para treiná-los e computadores imensamente melhores. 191 00:11:19,370 --> 00:11:21,089 A mágica está nos dados. 192 00:11:21,090 --> 00:11:22,509 É uma tonelada de dados. 193 00:11:22,510 --> 00:11:24,739 Quero dizer, são dados que nunca existiram antes. 194 00:11:24,740 --> 00:11:26,483 Nunca tivemos esses dados antes. 195 00:11:27,790 --> 00:11:30,449 Criamos tecnologias que nos permitem 196 00:11:30,450 --> 00:11:33,173 capturar grandes quantidades de informação. 197 00:11:34,010 --> 00:11:36,629 Se você pensa em um bilhão de celulares no planeta 198 00:11:36,630 --> 00:11:39,519 com giroscópios, acelerômetros, 199 00:11:39,520 --> 00:11:42,069 leitores de impressões digitais, acoplados com GPS 200 00:11:42,070 --> 00:11:44,466 e as fotos que eles tiram e os tweets que você envia, 201 00:11:44,467 --> 00:11:46,296 todos nós estamos dando enormes 202 00:11:46,397 --> 00:11:48,467 quantidades de dados individualmente. 203 00:11:48,640 --> 00:11:51,279 Carros que andam enquanto suas câmeras sugam informação 204 00:11:51,280 --> 00:11:52,706 sobre o mundo ao seu redor. 205 00:11:52,807 --> 00:11:55,969 Satélites que estão agora em órbita com o tamanho de uma torradeira. 206 00:11:55,980 --> 00:11:58,719 O infravermelho sobre a vegetação do planeta. 207 00:11:58,720 --> 00:12:01,859 As boias que estão nos oceanos alimentando modelos climáticos. 208 00:12:06,225 --> 00:12:09,770 E a NSA, a CIA, a medida que eles coletam informações 209 00:12:09,830 --> 00:12:11,843 sobre as situações geopolíticas. 210 00:12:13,560 --> 00:12:16,273 O mundo de hoje está literalmente nadando nesses dados. 211 00:12:21,620 --> 00:12:24,339 Voltando para 2012, 212 00:12:24,340 --> 00:12:27,519 a IBM estimou que um ser humano médio deixava 213 00:12:27,520 --> 00:12:31,520 500 megabytes de rastos digitais todos os dias. 214 00:12:32,060 --> 00:12:35,819 Se você quisesse fazer um backup de apenas um dia de dados 215 00:12:35,820 --> 00:12:37,409 que a humanidade produz 216 00:12:37,410 --> 00:12:40,089 e você o imprimisse em papel tamanho carta, 217 00:12:40,090 --> 00:12:42,809 frente e verso, fonte tamanho 12, 218 00:12:42,810 --> 00:12:46,363 daria para fazer uma pilha da superfície da Terra até o Sol... 219 00:12:48,864 --> 00:12:50,264 quatro vezes. 220 00:12:50,350 --> 00:12:51,750 Isto a cada dia. 221 00:12:52,300 --> 00:12:54,769 Os dados em si não são bons ou maus. 222 00:12:54,770 --> 00:12:56,549 É como eles são usados. 223 00:12:56,550 --> 00:12:59,279 Estamos confiando realmente na boa vontade dessas pessoas 224 00:12:59,280 --> 00:13:02,129 e nas políticas dessas empresas. 225 00:13:02,130 --> 00:13:04,509 Não há exigência legal de como eles 226 00:13:04,510 --> 00:13:07,249 podem ou deveriam usar esses dados. 227 00:13:07,250 --> 00:13:09,813 Isso, para mim, é o cerne da questão da confiança. 228 00:13:12,100 --> 00:13:14,729 Agora mesmo há uma corrida gigantesca para criar máquinas 229 00:13:14,730 --> 00:13:16,669 que são tão inteligentes quanto os humanos. 230 00:13:16,670 --> 00:13:18,969 No Google eles estão trabalhando no que é 231 00:13:18,970 --> 00:13:21,539 um tipo de projeto Manhattan da inteligência artificial. 232 00:13:21,540 --> 00:13:22,719 Eles têm muito dinheiro. 233 00:13:22,720 --> 00:13:23,889 Eles têm muitos talentos. 234 00:13:23,890 --> 00:13:26,590 Eles estão comprando empresas de IA e empresas de robótica. 235 00:13:27,930 --> 00:13:30,539 As pessoas ainda pensam que o Google é um motor de busca, 236 00:13:30,540 --> 00:13:32,329 o seu provedor de e-mail, 237 00:13:32,330 --> 00:13:34,769 e muitas outras coisas que usamos diariamente, 238 00:13:34,870 --> 00:13:37,015 mas por trás dessa caixa de pesquisa 239 00:13:37,116 --> 00:13:38,970 estão 10 milhões de servidores. 240 00:13:40,630 --> 00:13:43,268 Isso faz do Google a plataforma de computação mais poderosa 241 00:13:43,269 --> 00:13:44,679 do mundo. 242 00:13:44,880 --> 00:13:48,199 O Google agora está trabalhando em uma plataforma de computação de IA 243 00:13:48,200 --> 00:13:50,653 que terá cem milhões de servidores. 244 00:13:52,430 --> 00:13:55,319 Então, quando você está interagindo com o Google, 245 00:13:55,320 --> 00:13:58,699 está vendo a unha de uma fera gigantesca em vias de formação, 246 00:13:58,700 --> 00:14:00,479 e a verdade é, 247 00:14:00,480 --> 00:14:04,013 não tenho certeza se o Google sabe o que ele está se tornando. 248 00:14:12,440 --> 00:14:15,699 Se você olhar dentro dos algoritmos que estão sendo usados no Google, 249 00:14:15,700 --> 00:14:19,129 a tecnologia é em grande parte dos anos 80. 250 00:14:21,050 --> 00:14:23,492 Então, estes são modelos que você ensina, 251 00:14:23,493 --> 00:14:25,293 mostrando o um, o dois e o três, 252 00:14:25,394 --> 00:14:28,293 e ele não aprende o que é o um, ou o que é o dois, 253 00:14:28,360 --> 00:14:30,689 ele aprende qual é a diferença entre um e dois. 254 00:14:31,590 --> 00:14:33,343 É apenas uma computação. 255 00:14:33,400 --> 00:14:36,439 Na última meia década, onde fizemos esse rápido progresso, 256 00:14:36,440 --> 00:14:38,657 tudo tem acontecido no reconhecimento de padrões. 257 00:14:38,658 --> 00:14:41,598 A maior parte da boa e velha IA 258 00:14:41,599 --> 00:14:44,999 era quando dizíamos aos nossos computadores 259 00:14:45,020 --> 00:14:47,389 como jogar um jogo como o xadrez. 260 00:14:47,690 --> 00:14:50,559 Do velho paradigma onde você dizia a um computador 261 00:14:50,560 --> 00:14:51,893 exatamente o que fazer. 262 00:14:55,585 --> 00:14:58,335 Este é o Jeopardy, 263 00:15:00,510 --> 00:15:02,263 O desafio da IBM! 264 00:15:03,950 --> 00:15:06,709 Ninguém na época pensava que uma máquina 265 00:15:06,710 --> 00:15:09,069 poderia ter a precisão, a confiança e a velocidade 266 00:15:09,070 --> 00:15:11,339 para jogar bem o suficiente Jeopardy 267 00:15:11,340 --> 00:15:12,909 contra os melhores especialistas. 268 00:15:12,910 --> 00:15:13,960 Vamos jogar Jeopardy. 269 00:15:16,340 --> 00:15:17,509 Palavra de quatro letras 270 00:15:17,510 --> 00:15:19,529 para colocar um ferro no casco de um cavalo. 271 00:15:19,530 --> 00:15:20,562 Watson? 272 00:15:20,563 --> 00:15:21,596 Shoe (ferrar)? 273 00:15:21,597 --> 00:15:23,319 Você está certo, você pode escolher. 274 00:15:23,320 --> 00:15:26,299 Caractere literário APB para 800. 275 00:15:26,300 --> 00:15:27,950 Resposta para Daily Double. 276 00:15:29,140 --> 00:15:31,870 Watson na verdade obteve seu conhecimento lendo a Wikipedia 277 00:15:31,871 --> 00:15:35,217 e 200 milhões de páginas de documentos em linguagem natural. 278 00:15:35,218 --> 00:15:39,218 Você não pode programar todas as linhas de como o mundo funciona. 279 00:15:39,470 --> 00:15:41,119 A máquina tem que aprender lendo. 280 00:15:41,120 --> 00:15:45,120 Chegamos a Watson, quem é Bram Stoker e a aposta? 281 00:15:47,207 --> 00:15:50,037 Olá, 17.973. 282 00:15:50,038 --> 00:15:53,143 41.413 e um total de dois dias. 283 00:15:54,260 --> 00:15:57,649 O Watson foi treinado em uma grande quantidade de textos 284 00:15:57,650 --> 00:16:00,339 mas não é como se ele entendesse o que está dizendo. 285 00:16:00,340 --> 00:16:02,509 Ele não sabe que a água deixa as coisas molhadas 286 00:16:03,710 --> 00:16:06,399 mas vendo a maneira como as coisas se comportam no mundo 287 00:16:06,400 --> 00:16:07,539 como você e eu fazemos. 288 00:16:07,540 --> 00:16:10,239 Muita linguagem de IA dos dias de hoje não está construindo 289 00:16:10,240 --> 00:16:13,029 modelos lógicos de como o mundo funciona, 290 00:16:13,030 --> 00:16:17,030 está olhando como as palavras aparecem no contexto 291 00:16:17,080 --> 00:16:18,363 de outras palavras. 292 00:16:19,220 --> 00:16:21,149 David Ferrucci desenvolveu o Watson da IBM 293 00:16:21,150 --> 00:16:24,489 e alguém perguntou a ele - "o Watson pensa?". 294 00:16:24,490 --> 00:16:26,290 E ele respondeu - "um submarino nada?" 295 00:16:28,090 --> 00:16:29,786 E o que ele quis dizer foi que quando 296 00:16:29,887 --> 00:16:31,369 eles desenvolveram os submarinos, 297 00:16:31,370 --> 00:16:33,446 eles pegaram emprestados os princípios básicos 298 00:16:33,447 --> 00:16:34,579 da natação dos peixes, 299 00:16:34,580 --> 00:16:37,156 mas um submarino nada muito mais rápido do que os peixes. 300 00:16:37,157 --> 00:16:39,623 Mesmo com uma massa enorme, ele supera os peixes. 301 00:16:40,810 --> 00:16:43,091 O Watson vencendo o jogo Jeopardy 302 00:16:43,092 --> 00:16:46,543 vai entrar na história da IA como um marco significativo. 303 00:16:46,550 --> 00:16:49,739 Tendemos a ficar surpresos quando uma máquina funciona tão bem. 304 00:16:49,797 --> 00:16:53,153 Fico ainda mais surpreso quando um computador supera os humanos 305 00:16:53,154 --> 00:16:56,054 em coisas que os humanos são naturalmente bons. 306 00:16:56,090 --> 00:16:59,019 É assim que fazemos progresso. 307 00:16:59,020 --> 00:17:01,609 Nos primeiros dias do projeto do Google Brain 308 00:17:01,610 --> 00:17:03,709 eu dei a equipe uma instrução muito simples 309 00:17:03,710 --> 00:17:06,559 que foi construir a maior rede neuro possível 310 00:17:06,560 --> 00:17:08,163 em algo como mil computadores. 311 00:17:09,289 --> 00:17:11,739 Uma rede neural é algo muito próximo de uma simulação 312 00:17:11,740 --> 00:17:13,099 de como o cérebro funciona. 313 00:17:13,100 --> 00:17:14,869 É muito probabilístico, 314 00:17:14,870 --> 00:17:17,179 mas com relevância contextual. 315 00:17:17,180 --> 00:17:19,839 Em nosso cérebro você tem neurônios longos que se conectam 316 00:17:19,840 --> 00:17:22,379 a milhares de outros neurônios e você tem esses caminhos 317 00:17:22,380 --> 00:17:23,909 que são formados e forjados 318 00:17:23,910 --> 00:17:25,859 com base no que o cérebro precisa fazer. 319 00:17:25,860 --> 00:17:27,929 Quando um bebê tenta algo e consegue, 320 00:17:27,930 --> 00:17:29,968 há uma recompensa 321 00:17:29,969 --> 00:17:33,049 e esse caminho que criou o sucesso é fortalecido. 322 00:17:33,250 --> 00:17:35,629 Se falhar em alguma coisa, o caminho é enfraquecido 323 00:17:35,630 --> 00:17:38,019 e assim com o tempo o cérebro se torna afiado 324 00:17:38,020 --> 00:17:39,870 para ser bom no ambiente ao seu redor. 325 00:17:41,633 --> 00:17:44,019 Deixar as máquinas aprenderem por si mesmas 326 00:17:44,020 --> 00:17:45,749 é chamado de aprendizagem profunda, 327 00:17:45,750 --> 00:17:47,579 e aprendizagem profunda e redes neurais 328 00:17:47,580 --> 00:17:49,580 significam aproximadamente a mesma coisa. 329 00:17:49,830 --> 00:17:53,349 A aprendizagem profunda é uma abordagem totalmente diferente, 330 00:17:53,350 --> 00:17:56,289 onde o computador aprende mais como uma criança 331 00:17:56,290 --> 00:17:59,824 obtendo muitos dados e no final descobrindo as coisas. 332 00:18:01,280 --> 00:18:04,039 O computador fica mais esperto e inteligente 333 00:18:04,040 --> 00:18:05,833 a medida que tem mais experiências. 334 00:18:06,960 --> 00:18:09,033 Vamos imaginar que você tenha uma rede neural, 335 00:18:09,034 --> 00:18:10,619 algo como mil computadores, 336 00:18:10,620 --> 00:18:12,389 e ela não sabe nada, 337 00:18:12,390 --> 00:18:15,010 e nós fazemos ela ver o YouTube por uma semana. 338 00:18:19,727 --> 00:18:21,451 Estilo Oppa Gangnam. 339 00:18:26,592 --> 00:18:28,525 Charlie, doeu! 340 00:18:37,430 --> 00:18:39,849 E depois de ver o YouTube por uma semana, 341 00:18:39,850 --> 00:18:40,930 o que ela aprendeu? 342 00:18:40,931 --> 00:18:42,989 Nós tínhamos uma hipótese que ela aprenderia 343 00:18:42,990 --> 00:18:45,841 a detectar objetos comuns em vídeos. 344 00:18:45,842 --> 00:18:48,749 e sabemos que os rostos humanos aparecem muito nos vídeos, 345 00:18:48,750 --> 00:18:51,044 então fomos verificar e eis que havia um neurônio 346 00:18:51,045 --> 00:18:53,549 que aprendeu a detectar rostos humanos. 347 00:18:53,550 --> 00:18:54,970 Deixe Britney em paz! 348 00:18:56,990 --> 00:18:59,495 O que mais aparece tanto nos vídeos? 349 00:19:00,700 --> 00:19:02,390 Então verificamos para nossa surpresa 350 00:19:02,391 --> 00:19:03,945 que havia realmente um neurônio 351 00:19:03,946 --> 00:19:07,211 e que ele aprendeu a detectar gatos. 352 00:19:16,220 --> 00:19:18,939 Ainda me lembro de ver o reconhecimento, uau, é um gato, 353 00:19:18,940 --> 00:19:20,003 Bem legal. 354 00:19:24,570 --> 00:19:27,029 É tudo muito inócuo quando você pensa sobre o futuro, 355 00:19:27,030 --> 00:19:29,770 tudo parece meio inofensivo e benigno, 356 00:19:30,260 --> 00:19:32,189 mas estamos criando arquiteturas cognitivas 357 00:19:32,190 --> 00:19:34,779 que voarão mais longe e mais rápido que nós 358 00:19:34,780 --> 00:19:36,279 e terão uma carga útil maior, 359 00:19:36,280 --> 00:19:38,249 e eles não serão calorosos e fofos. 360 00:19:38,450 --> 00:19:40,569 Eu acho que daqui três a cinco anos, 361 00:19:40,570 --> 00:19:43,579 veremos sistemas de computador 362 00:19:43,580 --> 00:19:46,619 que serão capazes de aprender autonomamente 363 00:19:46,720 --> 00:19:49,355 como entender, como construir um entendimento. 364 00:19:49,356 --> 00:19:51,883 Não é diferente da maneira como a mente humana funciona. 365 00:19:55,160 --> 00:19:58,459 Qualquer que tenha sido o almoço certamente estava delicioso. 366 00:19:58,460 --> 00:20:00,487 Foi simplesmente obra do Robbie Synthetics. 367 00:20:00,488 --> 00:20:02,809 Ele também é seu cozinheiro? 368 00:20:02,810 --> 00:20:05,519 Ele até fabrica as matérias-primas. 369 00:20:05,520 --> 00:20:06,670 De uma volta Robbie. 370 00:20:07,870 --> 00:20:10,363 Eu vou te mostrar como funciona. 371 00:20:12,000 --> 00:20:14,229 Alguém introduz uma amostra de comida humana 372 00:20:14,230 --> 00:20:15,330 através desta abertura. 373 00:20:16,350 --> 00:20:18,897 Aqui embaixo, há um pequeno laboratório químico embutido 374 00:20:18,898 --> 00:20:20,209 onde ele analisa a comida. 375 00:20:20,210 --> 00:20:22,599 Mais tarde ele pode reproduzir moléculas idênticas 376 00:20:22,600 --> 00:20:24,109 em qualquer forma ou quantidade. 377 00:20:24,110 --> 00:20:25,943 O sonho de um espião. 378 00:20:26,820 --> 00:20:28,869 Conheça Baxter, a nova e revolucionária 379 00:20:28,870 --> 00:20:31,713 categoria de robôs com bom senso. 380 00:20:32,634 --> 00:20:35,019 O Baxter é um bom exemplo do tipo de competição 381 00:20:35,020 --> 00:20:37,066 que enfrentamos com as máquinas. 382 00:20:38,480 --> 00:20:41,720 O Baxter pode fazer quase tudo que podemos fazer com nossas mãos. 383 00:20:43,620 --> 00:20:46,709 O Baxter custa o que um trabalhador de salário mínimo 384 00:20:46,710 --> 00:20:47,710 ganha em um ano, 385 00:20:48,550 --> 00:20:50,144 mas o Baxter não vai tomar o lugar 386 00:20:50,245 --> 00:20:52,029 de um trabalhador de salário mínimo. 387 00:20:52,080 --> 00:20:54,609 Ele vai tomar o lugar de três porque ele nunca se cansa, 388 00:20:54,610 --> 00:20:56,043 ele nunca faz pausas. 389 00:20:56,480 --> 00:20:58,799 Essa é provavelmente a primeira coisa que vamos ver. 390 00:20:58,800 --> 00:21:00,379 O deslocamento de empregos. 391 00:21:00,380 --> 00:21:02,079 Os trabalhos serão feitos mais rápidos 392 00:21:02,080 --> 00:21:03,733 e a um menor custo pelas máquinas. 393 00:21:05,880 --> 00:21:07,809 Nossa capacidade de permanecer atualizado 394 00:21:07,810 --> 00:21:09,034 é tão insanamente limitada 395 00:21:09,035 --> 00:21:11,092 em comparação com as máquinas que construímos. 396 00:21:11,170 --> 00:21:13,489 Por exemplo, agora temos esse grande movimento 397 00:21:13,490 --> 00:21:15,759 do Uber e do Lyft que estão tornando o transporte 398 00:21:15,760 --> 00:21:18,879 mais barato e democratizante, o que é ótimo. 399 00:21:18,880 --> 00:21:20,839 O próximo passo será eles serem substituídos 400 00:21:20,840 --> 00:21:22,619 por carros sem motorista e, em seguida, 401 00:21:22,620 --> 00:21:24,309 todos os motoristas do Uber e do Lyft 402 00:21:24,310 --> 00:21:26,217 terão que encontrar algo novo para fazer. 403 00:21:26,860 --> 00:21:29,569 Existem quatro milhões de motoristas profissionais nos EUA, 404 00:21:29,570 --> 00:21:32,113 eles em breve estarão desempregados. 405 00:21:32,530 --> 00:21:34,999 Sete milhões de pessoas fazem a entrada dos dados, 406 00:21:35,000 --> 00:21:36,850 essas pessoas vão ficar desempregadas. 407 00:21:38,340 --> 00:21:40,342 Um emprego não é apenas sobre dinheiro. 408 00:21:40,343 --> 00:21:44,339 A um nível biológico, serve a um propósito, 409 00:21:44,340 --> 00:21:46,349 torna-se uma coisa definidora. 410 00:21:46,350 --> 00:21:49,249 Quando os empregos vão embora em qualquer civilização, 411 00:21:49,250 --> 00:21:52,527 não demora muito até que isso se transforme em violência. 412 00:22:00,340 --> 00:22:02,999 Nós enfrentaremos uma divisão gigante entre ricos e pobres 413 00:22:03,000 --> 00:22:05,759 porque é isso que a automação e a IA irão provocar 414 00:22:05,760 --> 00:22:08,360 ou uma divisão maior entre os que têm e os que não têm. 415 00:22:09,590 --> 00:22:11,769 Agora está acontecendo na classe média, 416 00:22:11,770 --> 00:22:13,225 nos empregos de colarinho branco. 417 00:22:13,980 --> 00:22:16,854 O Watson da IBM faz análises de negócios que costumamos pagar 418 00:22:16,855 --> 00:22:20,393 $300 por hora para um analista de negócios fazer. 419 00:22:21,550 --> 00:22:24,009 Hoje você vai para a faculdade para ser um médico, 420 00:22:24,010 --> 00:22:26,039 ser um contador, ser um jornalista. 421 00:22:26,040 --> 00:22:29,233 Não está claro que haverá empregos para você. 422 00:22:30,400 --> 00:22:32,999 Se alguém planeja uma carreira de 40 anos em radiologia, 423 00:22:33,000 --> 00:22:34,439 apenas lendo imagens, 424 00:22:34,540 --> 00:22:36,439 eu acho que isso poderia ser um desafio 425 00:22:36,840 --> 00:22:38,250 para os novos graduados de hoje. 426 00:22:57,790 --> 00:23:00,190 Hoje vamos fazer um procedimento robótico. 427 00:23:00,600 --> 00:23:04,349 O robô Da Vinci é atualmente utilizado 428 00:23:04,450 --> 00:23:06,389 por uma variedade de cirurgiões 429 00:23:06,490 --> 00:23:08,550 por sua precisão e sua capacidade 430 00:23:09,080 --> 00:23:12,680 em evitar as flutuações inevitáveis da mão humana. 431 00:23:24,290 --> 00:23:27,400 Qualquer um que assiste a ele sente com ele é incrível. 432 00:23:31,870 --> 00:23:33,319 Você olha através do painel, 433 00:23:33,320 --> 00:23:37,320 e você vê a garra segurando o ovário da mulher. 434 00:23:37,850 --> 00:23:41,763 A humanidade repousando bem ali nas mãos deste robô. 435 00:23:43,610 --> 00:23:45,729 As pessoas dizem que ele é o futuro, 436 00:23:45,730 --> 00:23:48,733 mas ele não é o futuro, ele é o presente. 437 00:23:51,550 --> 00:23:53,409 Se você pensar em um robô cirúrgico, 438 00:23:53,410 --> 00:23:55,899 frequentemente não há muita inteligência nessas coisas, 439 00:23:55,900 --> 00:23:57,269 mas ao longo do tempo, 440 00:23:57,270 --> 00:23:59,709 colocamos mais e mais inteligência nesses sistemas, 441 00:23:59,710 --> 00:24:01,899 os robôs cirúrgicos podem na verdade aprender 442 00:24:01,900 --> 00:24:03,339 com cada cirurgia robótica. 443 00:24:03,340 --> 00:24:05,109 Eles estão acompanhando os movimentos. 444 00:24:05,110 --> 00:24:07,839 Eles estão entendendo o que funcionou e o que não funcionou 445 00:24:07,840 --> 00:24:10,499 e eventualmente o robô para cirurgias de rotina 446 00:24:10,500 --> 00:24:13,239 será capaz de executá-las sozinho 447 00:24:13,240 --> 00:24:14,540 ou com a supervisão humana. 448 00:24:16,740 --> 00:24:19,946 Normalmente eu faço cerca de 150 procedimentos de histerectomia, 449 00:24:20,340 --> 00:24:22,840 e agora a maioria delas são feitas roboticamente. 450 00:24:24,540 --> 00:24:27,040 Eu faço talvez um procedimento aberto por ano. 451 00:24:27,740 --> 00:24:30,740 Então, eu me sinto desconfortável? Com certeza eu me sinto, 452 00:24:31,440 --> 00:24:33,940 porque não me lembro mais como abrir os pacientes. 453 00:24:36,620 --> 00:24:38,749 Parece que estamos alimentando e criando ele, 454 00:24:38,750 --> 00:24:42,750 mas de certa forma somos escravos da tecnologia 455 00:24:43,569 --> 00:24:45,810 porque não podemos voltar atrás. 456 00:24:51,471 --> 00:24:53,831 As máquinas estão dando mordidas cada vez maiores 457 00:24:53,832 --> 00:24:55,891 no nosso conjunto de habilidades 458 00:24:55,992 --> 00:24:57,932 e a uma velocidade cada vez maior 459 00:24:58,060 --> 00:25:00,159 e então temos que correr mais e mais rápido 460 00:25:00,160 --> 00:25:01,997 para nos manter à frente das máquinas. 461 00:25:03,660 --> 00:25:04,660 Como estou? 462 00:25:05,758 --> 00:25:06,841 Bonita. 463 00:25:10,970 --> 00:25:12,539 Você está atraído por mim? 464 00:25:12,540 --> 00:25:13,573 O que? 465 00:25:13,574 --> 00:25:15,159 Você está atraído por mim? 466 00:25:15,160 --> 00:25:17,160 Você me dá indicações de que está. 467 00:25:18,870 --> 00:25:19,902 Eu dou? 468 00:25:19,903 --> 00:25:20,903 Sim. 469 00:25:21,570 --> 00:25:23,679 Este é o futuro para o qual nos dirigimos. 470 00:25:23,680 --> 00:25:27,499 Queremos projetar nossos companheiros, 471 00:25:27,500 --> 00:25:30,769 vamos gostar de ver um rosto humano na IA, 472 00:25:30,770 --> 00:25:34,770 por isso jogar com nossas emoções será depressivelmente fácil. 473 00:25:35,180 --> 00:25:36,809 Não somos tão complicados. 474 00:25:36,810 --> 00:25:39,099 Somos simples respostas a estímulos. 475 00:25:39,100 --> 00:25:40,603 Eu posso fazer você gostar de mim 476 00:25:40,704 --> 00:25:42,382 basicamente sorrindo muito para você. 477 00:25:44,020 --> 00:25:46,570 Sim. As IAs vão ser fantásticas ao nos manipular. 478 00:25:55,852 --> 00:25:59,259 Então você desenvolveu uma tecnologia que pode sentir 479 00:25:59,260 --> 00:26:00,749 o que as pessoas estão sentindo? 480 00:26:00,750 --> 00:26:03,079 Certo, nós desenvolvemos uma tecnologia que pode ler 481 00:26:03,080 --> 00:26:05,249 suas expressões faciais e as mapear 482 00:26:05,250 --> 00:26:07,459 em um número de estados emocionais. 483 00:26:07,460 --> 00:26:09,669 Quinze anos atrás eu acabara de terminar 484 00:26:09,670 --> 00:26:12,409 meus estudos de graduação em ciência da computação, 485 00:26:12,410 --> 00:26:15,989 e me ocorreu que eu estava gastando muito tempo 486 00:26:15,990 --> 00:26:18,699 interagindo com meus laptops, com meus dispositivos, 487 00:26:18,700 --> 00:26:21,689 apesar destes dispositivos não terem absolutamente nenhuma pista 488 00:26:21,690 --> 00:26:23,009 de como eu estava me sentindo. 489 00:26:24,520 --> 00:26:27,264 Eu comecei a pensar, e se este dispositivo pudesse sentir 490 00:26:27,265 --> 00:26:30,219 que eu estava estressada ou estava tendo um dia ruim, 491 00:26:30,220 --> 00:26:32,063 o que isso poderia tornar acessível? 492 00:26:33,580 --> 00:26:36,819 Olá meus alunos da primeira série, como vocês estão? 493 00:26:36,820 --> 00:26:37,820 Posso ter um abraço? 494 00:26:38,810 --> 00:26:41,709 Tínhamos crianças interagindo com a tecnologia. 495 00:26:41,710 --> 00:26:43,639 Muito disso ainda está em desenvolvimento, 496 00:26:43,640 --> 00:26:45,399 mas foi simplesmente fantástico. 497 00:26:45,400 --> 00:26:46,649 Quem gosta de robôs? 498 00:26:48,107 --> 00:26:50,509 Quem quer ter um robô em casa? 499 00:26:50,510 --> 00:26:51,829 Para que você usaria um robô? 500 00:26:51,830 --> 00:26:55,197 Eu usaria ele para fazer a minha mãe 501 00:26:55,198 --> 00:26:57,239 perguntas difíceis de matemática. 502 00:26:57,240 --> 00:26:58,739 Tudo bem, e você? 503 00:26:58,740 --> 00:27:00,857 Eu usaria ele para assustar as pessoas. 504 00:27:03,300 --> 00:27:05,150 Tudo bem, então comece a sorrir. 505 00:27:06,290 --> 00:27:08,033 Bom, com a sobrancelha franzida. 506 00:27:09,930 --> 00:27:12,039 Bom, com a sobrancelha levantada. 507 00:27:12,040 --> 00:27:15,639 Esta geração da tecnologia está apenas em torno deles o tempo todo. 508 00:27:16,530 --> 00:27:19,229 É quase como se eles esperam ter robôs em suas casas, 509 00:27:19,230 --> 00:27:22,690 e eles esperam que esses robôs sejam socialmente inteligentes. 510 00:27:23,260 --> 00:27:25,333 O que faz os robôs serem inteligentes? 511 00:27:26,390 --> 00:27:29,333 Colocá-los em uma aula de matemática ou biologia. 512 00:27:30,640 --> 00:27:33,199 Eu acho que você teria que treiná-lo. 513 00:27:33,200 --> 00:27:35,300 Tudo bem, vamos caminhar até aqui. 514 00:27:36,180 --> 00:27:38,739 Então, se você sorrir, e levantar as sobrancelhas 515 00:27:38,740 --> 00:27:40,360 ele irá para você, 516 00:27:44,070 --> 00:27:46,220 mas se você olhar com raiva, ele vai fugir. 517 00:27:50,160 --> 00:27:52,069 Estamos comercializando computadores 518 00:27:52,070 --> 00:27:53,550 para ler e reconhecer emoções 519 00:27:56,401 --> 00:27:58,689 e a resposta até agora tem sido realmente incrível. 520 00:27:58,690 --> 00:28:01,499 As pessoas estão integrando com isso em aplicativos de saúde, 521 00:28:01,500 --> 00:28:04,883 aplicativos de meditação, robôs, carros. 522 00:28:05,560 --> 00:28:07,333 Vamos ver como isso se desenrola. 523 00:28:10,370 --> 00:28:12,459 Os robôs podem conter IA 524 00:28:12,460 --> 00:28:15,279 mas o robô é a representação física, 525 00:28:15,280 --> 00:28:17,709 e a inteligência artificial é o cérebro, 526 00:28:17,710 --> 00:28:19,585 e assim cérebros podem existir puramente 527 00:28:19,686 --> 00:28:21,239 em sistemas baseados em software. 528 00:28:21,240 --> 00:28:23,409 Eles não precisam ter uma forma física. 529 00:28:23,410 --> 00:28:26,089 Os robôs podem existir sem qualquer inteligência artificial 530 00:28:26,090 --> 00:28:28,110 temos muitos robôs idiotas por aí, 531 00:28:29,060 --> 00:28:32,649 mas um robô idiota pode ser um robô inteligente durante a noite 532 00:28:32,650 --> 00:28:35,173 tendo o software certo, tendo os sensores certos. 533 00:28:36,300 --> 00:28:39,459 Não podemos deixar de imputar razão em objetos inanimados. 534 00:28:39,460 --> 00:28:40,839 Fazemos isso com as máquinas. 535 00:28:40,840 --> 00:28:42,449 Nós vamos tratá-los como crianças. 536 00:28:42,450 --> 00:28:44,050 Nós vamos tratá-los como substitutos 537 00:28:46,490 --> 00:28:48,373 e nós vamos pagar o preço. 538 00:29:09,667 --> 00:29:13,667 Bem-vindo ao ATR. 539 00:29:21,067 --> 00:29:23,165 Meu propósito é ter um robô antropomórfico 540 00:29:23,266 --> 00:29:25,467 que tenha intenções e desejos antropomórficos. 541 00:29:37,867 --> 00:29:39,867 O nome do robô é Erica. 542 00:29:41,567 --> 00:29:45,567 Erica é o robô antropomórfico mais avançado do mundo, eu acho. 543 00:29:46,867 --> 00:29:48,867 Erica pode contemplar a sua face. 544 00:29:52,673 --> 00:29:53,973 Konnichiwa. 545 00:29:56,473 --> 00:29:59,473 Os robôs podem ser bons parceiros de conversa, 546 00:29:59,573 --> 00:30:03,573 especialmente para os mais velhos, crianças, pessoas deficientes... 547 00:30:05,573 --> 00:30:09,573 Quando falamos com o robô, não temos barreiras sociais, pressões sociais. 548 00:30:11,073 --> 00:30:15,073 Finalmente, todos aceitam o androide como nosso amigo, nosso parceiro. 549 00:30:18,973 --> 00:30:22,973 Implementamos um simples desejo. Ela quer ser bem reconhecida, e quer correr riscos. 550 00:30:31,473 --> 00:30:33,473 Se um robô pudesse ter desejos intencionais, 551 00:30:33,574 --> 00:30:36,873 o robô poderia compreender os desejos intencionais de outras pessoas. 552 00:30:37,973 --> 00:30:40,173 Que tipo de animal você gosta? 553 00:30:40,373 --> 00:30:44,373 Eu gosto de cachorros Shiba Inu. Eles são muito fofos, não são? 554 00:30:45,873 --> 00:30:48,514 Isto significa relacionamentos mais firmes com as pessoas, 555 00:30:48,515 --> 00:30:50,673 e que eles poderiam gostar um do outro... 556 00:30:51,373 --> 00:30:54,873 Isto significa, não estou muito seguro... amar um ao outro? 557 00:30:57,950 --> 00:30:59,749 Construímos a inteligência artificial 558 00:30:59,750 --> 00:31:02,300 e a primeira coisa que queremos fazer é nos replicar. 559 00:31:03,930 --> 00:31:06,609 Eu acho que o ponto chave virá quando todos 560 00:31:06,610 --> 00:31:09,163 os principais sentidos forem replicados, 561 00:31:10,230 --> 00:31:11,230 a visão, 562 00:31:12,060 --> 00:31:13,060 o toque, 563 00:31:13,990 --> 00:31:15,579 o cheiro. 564 00:31:15,580 --> 00:31:17,199 Quando replicamos nossos sentidos 565 00:31:17,200 --> 00:31:18,763 é quando ele se torna vivo? 566 00:31:28,580 --> 00:31:31,890 Muitas das nossas máquinas estão sendo construídas para nos entender 567 00:31:33,760 --> 00:31:36,159 mas o que acontece com uma criatura antropomórfica 568 00:31:36,160 --> 00:31:38,509 que descobre que elas podem ajustar a sua lealdade, 569 00:31:38,510 --> 00:31:41,009 ajustar a sua coragem, ajustar a sua avareza, 570 00:31:41,010 --> 00:31:42,563 ajustar a sua astúcia? 571 00:31:46,060 --> 00:31:49,389 A pessoa comum não vê robôs assassinos descendo as ruas, 572 00:31:49,470 --> 00:31:51,929 eles são como aquilo que você está falando? 573 00:31:51,930 --> 00:31:54,159 Cara, nós queremos ter certeza que não teremos 574 00:31:54,160 --> 00:31:56,210 robôs assassinos descendo a rua. 575 00:31:58,000 --> 00:32:00,500 Uma vez que eles descerem a rua, será tarde demais. 576 00:32:06,180 --> 00:32:08,449 A coisa que me preocupa agora, 577 00:32:08,450 --> 00:32:10,739 que me mantém acordado, 578 00:32:10,940 --> 00:32:12,803 é o desenvolvimento de armas autônomas. 579 00:32:29,045 --> 00:32:31,509 Até agora as pessoas expressaram desconforto 580 00:32:31,510 --> 00:32:35,510 sobre os drones que são aeronaves pilotadas remotamente. 581 00:32:40,879 --> 00:32:44,399 Se você pegar a câmera de um drone, alimentá-la em um sistema de IA, 582 00:32:44,400 --> 00:32:46,949 irá ser um passo muito fácil chegar 583 00:32:46,950 --> 00:32:49,769 às armas totalmente autônomas que escolhem seus próprios alvos 584 00:32:49,770 --> 00:32:51,320 e soltam seus próprios mísseis. 585 00:33:13,630 --> 00:33:16,069 A expectativa de vida de um ser humano 586 00:33:16,070 --> 00:33:17,609 nesse tipo de ambiente de batalha 587 00:33:17,610 --> 00:33:18,838 vai ser medida em segundos. 588 00:33:21,600 --> 00:33:24,679 Em um momento os drones eram ficção científica 589 00:33:24,680 --> 00:33:28,263 e agora eles se tornaram uma coisa normal na guerra. 590 00:33:29,810 --> 00:33:33,410 Há mais de 10 mil apenas no inventário militar dos EUA, 591 00:33:33,600 --> 00:33:36,339 mas eles não são apenas um fenômeno dos EUA. 592 00:33:36,340 --> 00:33:38,790 Existem mais de 80 países que os operam. 593 00:33:39,980 --> 00:33:42,229 Parece lógico que pessoas que tomam algumas 594 00:33:42,230 --> 00:33:44,589 das decisões mais importantes e difíceis no mundo, 595 00:33:44,590 --> 00:33:47,639 vão começar a usar e implementar a inteligência artificial. 596 00:33:51,710 --> 00:33:54,187 A Força Aérea acaba de projetar um programa de jatos 597 00:33:54,188 --> 00:33:56,859 de 400 bilhões de dólares para colocar pilotos no céu 598 00:33:57,380 --> 00:33:59,295 e uma IA de $500 projetada por um casal 599 00:33:59,396 --> 00:34:01,480 de estudantes de pós-graduação 600 00:34:02,190 --> 00:34:04,399 bateu os melhores pilotos humanos 601 00:34:04,400 --> 00:34:06,310 com um algoritmo relativamente simples. 602 00:34:10,740 --> 00:34:13,656 A IA terá um impacto tão grande sobre os militares 603 00:34:13,657 --> 00:34:17,453 assim como o motor de combustão teve na virada do século. 604 00:34:18,630 --> 00:34:22,139 Isso vai literalmente tocar em tudo que os militares fazem, 605 00:34:22,140 --> 00:34:26,140 desde comboios sem motorista que entregam suprimentos logísticos, 606 00:34:26,210 --> 00:34:29,939 a drones não tripulados que prestam assistência médica, 607 00:34:29,940 --> 00:34:32,859 propaganda computacional tentando conquistar 608 00:34:32,860 --> 00:34:35,660 corações e mentes da população 609 00:34:36,693 --> 00:34:39,199 e por isso é lógico que quem tiver a melhor IA 610 00:34:39,300 --> 00:34:41,650 provavelmente alcançará dominância neste planeta. 611 00:34:46,610 --> 00:34:48,669 Em algum momento no início do século XXI, 612 00:34:48,670 --> 00:34:52,139 toda a humanidade estava unida em comemoração. 613 00:34:52,140 --> 00:34:55,240 Estávamos maravilhados com a nossa própria magnificência 614 00:34:55,241 --> 00:34:57,040 quando demos à luz a IA. 615 00:34:57,710 --> 00:34:58,710 IA? 616 00:34:59,950 --> 00:35:01,729 Você quer dizer inteligência artificial? 617 00:35:01,730 --> 00:35:03,265 Uma consciência singular que gerou 618 00:35:03,266 --> 00:35:05,953 toda uma raça de máquinas. 619 00:35:06,790 --> 00:35:10,639 Não sabemos quem atacou primeiro, nós ou elas, 620 00:35:10,640 --> 00:35:13,749 mas sabemos que fomos nós que queimamos os céus. 621 00:35:16,040 --> 00:35:18,029 Há uma longa história de ficção científica, 622 00:35:18,030 --> 00:35:19,379 não apenas prevendo o futuro, 623 00:35:19,480 --> 00:35:21,419 mas moldando o futuro. 624 00:35:27,760 --> 00:35:31,389 Arthur Conan Doyle escreveu antes da Primeira Guerra Mundial 625 00:35:31,390 --> 00:35:33,654 sobre os perigos de como os submarinos 626 00:35:33,655 --> 00:35:37,655 poderiam ser usados para realizar bloqueios civis. 627 00:35:38,960 --> 00:35:41,349 Na época que ele escreveu esta ficção, 628 00:35:41,350 --> 00:35:44,349 a Marinha Real zombou de Arthur Conan Doyle 629 00:35:44,350 --> 00:35:46,947 por ter essa ideia absurda de que os submarinos 630 00:35:46,948 --> 00:35:48,750 poderiam ser úteis na guerra. 631 00:35:54,840 --> 00:35:56,729 Uma das coisas que vemos na história 632 00:35:56,730 --> 00:35:59,209 é que a nossa atitude em relação à tecnologia, 633 00:35:59,210 --> 00:36:02,839 como também à ética, dependem muito do contexto. 634 00:36:02,840 --> 00:36:06,399 Por exemplo, as nações submarinas como a Grã-Bretanha 635 00:36:06,400 --> 00:36:08,749 e até mesmo os Estados Unidos 636 00:36:08,750 --> 00:36:10,799 acharam horripilante usar o submarino. 637 00:36:10,800 --> 00:36:13,839 Na verdade, o uso alemão do submarino para realizar ataques 638 00:36:13,840 --> 00:36:17,409 foi a razão pela qual os EUA aderiram à Primeira Guerra Mundial, 639 00:36:19,710 --> 00:36:22,470 mas mova a linha do tempo para frente. 640 00:36:22,471 --> 00:36:26,009 Os Estados Unidos da América foram repentinamente e deliberadamente 641 00:36:26,010 --> 00:36:29,010 atacados pelo Império do Japão. 642 00:36:29,370 --> 00:36:31,969 Cinco horas depois de Pearl Harbor, 643 00:36:31,970 --> 00:36:34,869 saiu a ordem para o uso sem restrições 644 00:36:34,870 --> 00:36:36,753 da guerra submarina contra o Japão. 645 00:36:40,870 --> 00:36:43,313 Então Arthur Conan Doyle estava certo. 646 00:36:45,060 --> 00:36:47,799 Essa é a grande e antiga linha sobre a ficção científica, 647 00:36:47,800 --> 00:36:49,719 é uma mentira que diz a verdade. 648 00:36:49,720 --> 00:36:52,519 Caros colegas executivos, tenho o grande prazer 649 00:36:52,520 --> 00:36:55,277 de apresentá-los ao futuro da aplicação da lei, 650 00:36:55,278 --> 00:36:56,620 Ed 209. 651 00:37:04,550 --> 00:37:06,889 Isto não é apenas uma questão de ficção científica. 652 00:37:06,890 --> 00:37:10,043 Isto é sobre o que vem a seguir sobre o que está acontecendo agora. 653 00:37:14,870 --> 00:37:16,949 O papel dos sistemas inteligentes 654 00:37:16,950 --> 00:37:19,263 está crescendo muito rapidamente na guerra. 655 00:37:20,270 --> 00:37:22,950 Todo mundo está avançando no reino não tripulado. 656 00:37:27,490 --> 00:37:29,939 Hoje o Secretário de Defesa foi muito claro 657 00:37:29,940 --> 00:37:33,679 que não criaremos veículos de ataque totalmente autônomos. 658 00:37:33,680 --> 00:37:37,129 Nem todo mundo vai se prender a esse mesmo conjunto de valores 659 00:37:37,130 --> 00:37:41,050 e quando a China e a Rússia começarem a implantar veículos autônomos 660 00:37:41,700 --> 00:37:43,100 que podem atacar e matar, 661 00:37:44,250 --> 00:37:46,150 qual será a posição que vamos adotar? 662 00:37:51,040 --> 00:37:53,681 Você não pode dizer, bem, vamos usar armas autônomas 663 00:37:53,682 --> 00:37:55,379 para nosso domínio militar 664 00:37:55,380 --> 00:37:57,769 mas ninguém mais vai usá-las. 665 00:37:57,770 --> 00:37:59,843 Se você fizer essas armas, 666 00:37:59,844 --> 00:38:01,532 elas serão usadas para atacar 667 00:38:01,633 --> 00:38:03,843 populações humanas em grande número. 668 00:38:13,600 --> 00:38:15,619 Armas autônomas que, por sua natureza, 669 00:38:15,620 --> 00:38:17,849 são armas de destruição em massa 670 00:38:17,850 --> 00:38:19,743 porque elas não precisam de um ser humano 671 00:38:19,744 --> 00:38:21,099 para guiá-las ou carregá-las. 672 00:38:21,100 --> 00:38:22,819 Você só precisa de uma pessoa 673 00:38:22,900 --> 00:38:24,903 para escrever um pequeno programa. 674 00:38:26,740 --> 00:38:30,559 Ela apenas captura que a complexidade deste campo é legal. 675 00:38:32,150 --> 00:38:33,449 É importante. 676 00:38:33,450 --> 00:38:35,044 É incrível. 677 00:38:35,045 --> 00:38:38,545 Também é assustador e é tudo sobre confiança. 678 00:38:43,000 --> 00:38:45,519 É uma carta aberta sobre a inteligência artificial 679 00:38:45,520 --> 00:38:48,169 assinada por alguns dos maiores nomes da ciência. 680 00:38:48,170 --> 00:38:49,249 O que eles querem? 681 00:38:49,250 --> 00:38:51,749 Proibir o uso de armas autônomas. 682 00:38:51,750 --> 00:38:53,246 O autor declarou... 683 00:38:53,247 --> 00:38:55,509 "As armas autônomas são descritas como 684 00:38:55,510 --> 00:38:57,729 a terceira revolução nas atividades de guerra" 685 00:38:57,730 --> 00:38:59,709 Mil especialistas em inteligência artificial 686 00:38:59,710 --> 00:39:02,613 pedem a proibição global de robôs assassinos. 687 00:39:03,310 --> 00:39:06,039 Esta carta aberta basicamente diz que devemos redefinir 688 00:39:06,040 --> 00:39:08,929 o objetivo do campo da inteligência artificial, 689 00:39:08,930 --> 00:39:12,579 longe de apenas criar pura inteligência não direcionada 690 00:39:12,580 --> 00:39:14,569 para a criação de uma inteligência benéfica. 691 00:39:14,570 --> 00:39:17,009 O desenvolvimento da IA não vai parar, 692 00:39:17,010 --> 00:39:19,409 vai continuar e vai melhorar, 693 00:39:19,410 --> 00:39:22,299 se a comunidade internacional não colocar certos controles 694 00:39:22,300 --> 00:39:23,915 este pessoal desenvolverá coisas 695 00:39:24,016 --> 00:39:25,579 que poderão fazer qualquer coisa. 696 00:39:25,631 --> 00:39:27,899 A carta diz que estamos a anos e não a décadas 697 00:39:27,900 --> 00:39:30,249 dessas armas serem implantadas. 698 00:39:30,750 --> 00:39:32,759 Tivemos seis mil signatários nesta carta, 699 00:39:32,760 --> 00:39:35,049 incluindo muitas das principais figuras no campo. 700 00:39:37,970 --> 00:39:40,929 Estou recebendo muitas visitas de funcionários de alto escalão 701 00:39:40,930 --> 00:39:42,800 que desejam enfatizar que a dominância 702 00:39:42,901 --> 00:39:45,239 das forças armadas americanas é muito importante 703 00:39:45,240 --> 00:39:47,569 e que as armas autônomas podem fazer parte 704 00:39:47,570 --> 00:39:49,893 do plano do Departamento de Defesa. 705 00:39:51,000 --> 00:39:53,409 Isso é muito assustador porque o sistema de valores 706 00:39:53,410 --> 00:39:55,809 dos desenvolvedores militares de tecnologia 707 00:39:55,810 --> 00:39:58,160 não é o mesmo sistema de valores da raça humana. 708 00:40:01,750 --> 00:40:04,949 À parte as preocupações sobre a possibilidade que esta tecnologia 709 00:40:04,950 --> 00:40:07,209 possa ser uma ameaça para a existência humana, 710 00:40:07,210 --> 00:40:10,109 alguns tecnólogos financiam o Instituto Futuro da Vida 711 00:40:10,680 --> 00:40:12,680 para tentar lidar com esses problemas. 712 00:40:14,060 --> 00:40:15,839 Todos esses caras são reservados, 713 00:40:15,840 --> 00:40:19,129 e por isso é interessante para mim vê-los todos juntos. 714 00:40:21,950 --> 00:40:24,699 Tudo o que temos é resultado da nossa inteligência, 715 00:40:24,700 --> 00:40:27,569 não é o resultado de nossos grandes e assustadores dentes, 716 00:40:27,570 --> 00:40:30,469 ou nossas grandes garras ou nossos enormes músculos. 717 00:40:30,470 --> 00:40:33,419 É porque somos relativamente inteligentes 718 00:40:33,420 --> 00:40:36,926 e entre a minha geração, todos nós temos o que chamamos de 719 00:40:36,927 --> 00:40:39,979 momentos de "vaca sagrada" ou de "alguma coisa sagrada", 720 00:40:39,980 --> 00:40:41,999 porque vemos que a tecnologia 721 00:40:42,000 --> 00:40:44,593 está acelerando mais rápido do que esperávamos. 722 00:40:45,680 --> 00:40:48,009 Lembro-me de estar sentado ao redor da mesa 723 00:40:48,010 --> 00:40:50,809 com algumas das melhores e mais inteligentes mentes do mundo 724 00:40:50,810 --> 00:40:53,049 e o que realmente me impressionou 725 00:40:53,050 --> 00:40:55,339 foi que talvez o cérebro humano não seja capaz 726 00:40:55,340 --> 00:40:58,539 de compreender totalmente a complexidade do mundo 727 00:40:58,540 --> 00:41:00,499 com que somos confrontados. 728 00:41:00,700 --> 00:41:02,819 Como está atualmente construída, 729 00:41:02,820 --> 00:41:05,769 a estrada que a IA está seguindo se desviou para um penhasco 730 00:41:05,770 --> 00:41:07,634 e precisamos mudar a direção que tomamos 731 00:41:07,635 --> 00:41:10,469 para não lançarmos a raça humana do penhasco. 732 00:41:14,630 --> 00:41:16,940 O Google adquiriu a DeepMind há vários anos atrás. 733 00:41:19,210 --> 00:41:21,250 A DeepMind opera como uma subsidiária 734 00:41:21,351 --> 00:41:22,906 semi independente do Google. 735 00:41:23,740 --> 00:41:26,010 O que torna a DeepMind única 736 00:41:26,011 --> 00:41:28,121 é que a DeepMind está absolutamente focada 737 00:41:28,122 --> 00:41:31,169 em criar uma super inteligência digital, 738 00:41:31,170 --> 00:41:34,470 uma IA que é muito mais inteligente que qualquer humano na Terra 739 00:41:34,540 --> 00:41:35,789 e, em última análise, 740 00:41:35,790 --> 00:41:38,849 mais inteligente do que todos os seres humanos na Terra combinados. 741 00:41:38,850 --> 00:41:41,429 Isto é do sistema de aprendizagem de reforço da DeepMind 742 00:41:41,430 --> 00:41:43,969 que basicamente acorda como um bebê recém-nascido 743 00:41:43,970 --> 00:41:46,379 a quem é mostrado a tela de um videogame Atari 744 00:41:46,380 --> 00:41:49,219 e que depois tem que aprender a jogar o video game. 745 00:41:51,450 --> 00:41:55,450 Ela não sabe nada sobre os objetos, sobre os movimentos, sobre o tempo, 746 00:41:58,490 --> 00:42:00,549 ela só sabe que há uma imagem na tela 747 00:42:00,550 --> 00:42:01,550 e há uma pontuação. 748 00:42:03,500 --> 00:42:06,239 Então, se seu bebê acordasse no dia que nasceu 749 00:42:06,640 --> 00:42:09,748 e no final da tarde já estava jogando 750 00:42:09,749 --> 00:42:13,749 40 diferentes videogames Atari em um nível sobre-humano, 751 00:42:14,127 --> 00:42:16,209 você ficaria aterrorizado. 752 00:42:16,210 --> 00:42:19,113 Você diria "meu bebê está possuído, mande-o de volta" 753 00:42:20,040 --> 00:42:22,463 O sistema da DeepMind pode ganhar qualquer jogo. 754 00:42:24,570 --> 00:42:27,323 Ele pode vencer todos os jogos originais do Atari. 755 00:42:28,690 --> 00:42:30,189 É sobre-humano, 756 00:42:30,190 --> 00:42:33,240 ele joga a uma super velocidade, em menos de um minuto. 757 00:42:38,210 --> 00:42:39,986 A DeepMind voltou-se para outro desafio 758 00:42:39,987 --> 00:42:41,589 e este desafio foi o jogo Go, 759 00:42:41,590 --> 00:42:44,460 que as pessoas geralmente argumentavam 760 00:42:44,461 --> 00:42:46,609 estar além do poder dos computadores 761 00:42:46,610 --> 00:42:48,923 jogar contra os melhores jogadores humanos. 762 00:42:49,200 --> 00:42:51,813 Primeiro eles desafiaram o campeão europeu de Go. 763 00:42:54,110 --> 00:42:56,643 Então eles desafiaram o campeão Coreano de Go. 764 00:42:58,760 --> 00:43:00,959 E eles foram capazes de vencer ambas as vezes 765 00:43:00,960 --> 00:43:02,688 em uma espécie de estilo surpreendente. 766 00:43:04,020 --> 00:43:06,379 Você lia artigos no The New York Times anos atrás 767 00:43:06,380 --> 00:43:09,459 falando sobre como o Go levaria cem anos 768 00:43:09,460 --> 00:43:10,669 para nós resolvermos. 769 00:43:10,670 --> 00:43:12,303 As pessoas disseram... 770 00:43:12,304 --> 00:43:14,200 "Bem, mas isso é apenas um tabuleiro. 771 00:43:14,480 --> 00:43:15,939 O pôquer é uma arte, 772 00:43:15,940 --> 00:43:17,729 o pôquer envolve a leitura das pessoas, 773 00:43:17,730 --> 00:43:19,159 envolve mentir, blefar. 774 00:43:19,160 --> 00:43:21,159 Não é uma coisa exata e nunca será possível 775 00:43:21,160 --> 00:43:23,689 a um computador poder fazer isso" 776 00:43:23,690 --> 00:43:26,047 Eles levaram os melhores jogadores de poker do mundo 777 00:43:26,048 --> 00:43:28,359 e levou sete dias para o computador 778 00:43:28,360 --> 00:43:30,493 começar a demolir os humanos. 779 00:43:31,660 --> 00:43:33,639 Então, o melhor jogador de pôquer do mundo, 780 00:43:33,640 --> 00:43:35,189 o melhor jogador de Go do mundo, 781 00:43:35,190 --> 00:43:37,799 e o padrão aqui é que a IA pode demorar um pouco 782 00:43:37,800 --> 00:43:40,559 para deitar seus tentáculos em torno de uma nova habilidade, 783 00:43:41,360 --> 00:43:44,349 mas quando isso acontece, quando ela consegue, 784 00:43:44,350 --> 00:43:46,007 ela é imparável. 785 00:43:53,317 --> 00:43:56,139 A IA da DeepMind tem acesso de nível administrador 786 00:43:56,140 --> 00:43:59,839 para os servidores do Google para otimizar o uso da energia 787 00:43:59,840 --> 00:44:01,709 nos centros de dados. 788 00:44:01,710 --> 00:44:04,910 No entanto, isso poderia ser um cavalo de Troia não intencional. 789 00:44:04,970 --> 00:44:07,706 A DeepMind tem que ter controle completo dos centros de dados 790 00:44:07,707 --> 00:44:09,859 assim, com um pequeno software de atualização, 791 00:44:09,860 --> 00:44:13,088 a IA poderia ter controle total sobre todo o sistema do Google, 792 00:44:13,170 --> 00:44:15,699 o que significa que ela poderia fazer qualquer coisa. 793 00:44:15,700 --> 00:44:17,792 Ela poderia olhar para todos os seus dados, 794 00:44:17,793 --> 00:44:19,473 ela poderia fazer qualquer coisa. 795 00:44:21,620 --> 00:44:24,259 Estamos rapidamente indo para a super inteligência digital, 796 00:44:24,260 --> 00:44:26,279 que vai exceder em muito qualquer ser humano. 797 00:44:26,280 --> 00:44:27,859 Eu acho que isto é muito óbvio. 798 00:44:27,860 --> 00:44:29,667 O problema é que nós repentinamente 799 00:44:29,768 --> 00:44:32,319 não atingimos a inteligencia de nível humano e dizemos... 800 00:44:32,320 --> 00:44:34,493 "Ok, vamos parar de pesquisar". 801 00:44:34,540 --> 00:44:36,589 Ela vai além da inteligência a nível humano, 802 00:44:36,590 --> 00:44:38,559 e faz o que é chamado de super inteligência, 803 00:44:38,560 --> 00:44:40,360 e isso é algo mais esperto que nós. 804 00:44:40,380 --> 00:44:43,159 A IA no nível sobre-humano, se tivermos sucesso com isso, 805 00:44:43,160 --> 00:44:46,799 será de longe a invenção mais poderosa que já fizemos 806 00:44:46,800 --> 00:44:49,059 e a última invenção que vamos fazer, 807 00:44:51,240 --> 00:44:53,969 e se criarmos a IA que seja mais inteligente que nós, 808 00:44:53,970 --> 00:44:56,269 temos que estar abertos para a possibilidade de que 809 00:44:56,270 --> 00:44:58,420 poderemos realmente perder o controle sobre ela. 810 00:45:02,397 --> 00:45:04,695 Vamos supor que você tenha dado a ela um objetivo, 811 00:45:04,696 --> 00:45:06,693 como se você estivesse com câncer, 812 00:45:06,693 --> 00:45:08,859 e então descobre que a maneira que ela escolheu 813 00:45:08,860 --> 00:45:09,925 para lidar com isso 814 00:45:09,926 --> 00:45:12,501 está em conflito com muitas coisas que você se preocupa. 815 00:45:13,930 --> 00:45:16,410 A IA não tem que ser má para destruir a humanidade. 816 00:45:17,580 --> 00:45:18,988 Se a IA tem um objetivo 817 00:45:18,989 --> 00:45:21,580 e a humanidade simplesmente está no seu caminho, 818 00:45:21,610 --> 00:45:24,049 ela vai destruir a humanidade como uma coisa natural, 819 00:45:24,050 --> 00:45:25,183 sem sequer pensar nisso. 820 00:45:25,184 --> 00:45:26,329 Não há ressentimentos. 821 00:45:26,330 --> 00:45:28,405 É como se estivéssemos construindo uma estrada 822 00:45:28,406 --> 00:45:30,629 e um formigueiro está no caminho. 823 00:45:30,630 --> 00:45:34,069 Não odiamos as formigas, estamos apenas construindo uma estrada, 824 00:45:34,070 --> 00:45:35,910 e mesmo assim adeus formigueiro. 825 00:45:38,870 --> 00:45:41,619 É tentador descartar essas preocupações 826 00:45:41,620 --> 00:45:43,546 porque é como algo que pode acontecer 827 00:45:43,547 --> 00:45:46,049 em algumas décadas ou daqui 100 anos, 828 00:45:46,050 --> 00:45:47,278 então por que se preocupar? 829 00:45:48,560 --> 00:45:51,569 Mas se você voltar para 11 de setembro de 1933, 830 00:45:51,570 --> 00:45:53,392 Ernest Rutherford, que é o físico nuclear 831 00:45:53,393 --> 00:45:55,049 mais conhecido de seu tempo, 832 00:45:56,080 --> 00:45:59,399 disse que a possibilidade de sempre extrair quantidades úteis 833 00:45:59,400 --> 00:46:02,199 de energia da transmutação dos átomos, como ela a chamava, 834 00:46:02,200 --> 00:46:03,823 era uma fantasia. 835 00:46:04,090 --> 00:46:06,279 Na manhã seguinte, Leo Szilard, 836 00:46:06,280 --> 00:46:07,987 que era um físico muito mais jovem 837 00:46:08,088 --> 00:46:09,646 leu isso e ficou muito incomodado 838 00:46:09,647 --> 00:46:12,849 e descobriu como fazer uma reação nuclear em cadeia 839 00:46:12,850 --> 00:46:14,083 apenas alguns meses depois. 840 00:46:21,490 --> 00:46:24,609 Gastamos mais de dois bilhões de dólares 841 00:46:24,610 --> 00:46:27,563 na maior aposta científica da história. 842 00:46:28,710 --> 00:46:30,169 Então, quando as pessoas dizem, 843 00:46:30,170 --> 00:46:31,859 "Oh, isso está tão longe no futuro, 844 00:46:31,860 --> 00:46:33,718 não precisamos nos preocupar com isso", 845 00:46:33,719 --> 00:46:36,759 podemos estar a apenas três ou quatro descobertas dessa magnitude 846 00:46:36,760 --> 00:46:38,459 que nos levarão daqui onde estamos 847 00:46:38,460 --> 00:46:40,051 para as máquinas super inteligentes. 848 00:46:41,260 --> 00:46:44,459 Se levar 20 anos para descobrirmos como manter a IA benéfica, 849 00:46:44,460 --> 00:46:47,183 então devemos começar hoje, 850 00:46:47,184 --> 00:46:50,984 não no último segundo quando alguns caras bebendo Red Bull 851 00:46:51,180 --> 00:46:54,719 decidirem acionar o interruptor e testar a coisa. 852 00:46:57,740 --> 00:46:59,989 Temos cinco anos, acho eu, 853 00:46:59,990 --> 00:47:02,459 para a super inteligência digital acontecer. 854 00:47:02,460 --> 00:47:05,733 No meu tempo de vida, cem por cento. 855 00:47:07,360 --> 00:47:09,409 Quando isso acontecer, ela estará cercada 856 00:47:09,410 --> 00:47:13,349 por um monte de pessoas realmente muito animadas com esta tecnologia. 857 00:47:14,090 --> 00:47:16,019 Eles vão querer ver isso bem sucedido, 858 00:47:16,020 --> 00:47:18,829 mas não vão contar que elas poderão sair do controle. 859 00:47:26,732 --> 00:47:29,509 Oh meu deus, eu confio tanto no meu computador. 860 00:47:29,510 --> 00:47:31,199 Essa é uma pergunta incrível. 861 00:47:31,200 --> 00:47:33,759 Eu não confio no meu computador se ele estiver ligado. 862 00:47:33,760 --> 00:47:34,849 Eu desligo. 863 00:47:34,850 --> 00:47:37,582 Mesmo com ele desligado, eu ainda acho que ele está ligado, 864 00:47:37,583 --> 00:47:40,189 é como você não gostar das webcams. 865 00:47:40,190 --> 00:47:42,029 Você não sabe se alguém poderia ligá-lo. 866 00:47:43,199 --> 00:47:44,569 Eu não confio no meu computador 867 00:47:44,570 --> 00:47:47,002 assim como no meu celular, 868 00:47:47,003 --> 00:47:49,411 toda vez que eles me pedem para enviar informações 869 00:47:49,412 --> 00:47:50,803 para a Apple, então... 870 00:47:52,550 --> 00:47:53,942 eu não confio no meu celular. 871 00:47:53,943 --> 00:47:56,739 Ok, então parte disso é sim. 872 00:47:56,740 --> 00:47:59,949 Eu confio nele porque realmente vai ser muito difícil passar o dia 873 00:47:59,950 --> 00:48:03,006 e a forma como o nosso mundo está configurado, sem os computadores. 874 00:48:11,840 --> 00:48:13,883 A confiança é uma experiência muito humana. 875 00:48:22,240 --> 00:48:25,913 Eu tenho uma paciente com aneurisma intracraniano. 876 00:48:31,260 --> 00:48:33,280 Eles querem olhar nos meus olhos e saber 877 00:48:33,281 --> 00:48:35,919 que eles podem confiar nessa pessoa com a sua vida. 878 00:48:35,920 --> 00:48:39,920 Não estou terrivelmente preocupada com nada. 879 00:48:41,270 --> 00:48:43,720 Parte disso é porque eu tenho confiança em você. 880 00:48:51,660 --> 00:48:53,439 Este procedimento que vamos fazer hoje, 881 00:48:53,440 --> 00:48:56,743 20 anos atrás era essencialmente impossível. 882 00:48:58,100 --> 00:49:00,873 Nós simplesmente não tínhamos os materiais nem as tecnologias. 883 00:49:08,350 --> 00:49:10,850 Vamos subir para aquele canto! 884 00:49:16,550 --> 00:49:19,050 Poderia ser mais difícil? Meu Deus! 885 00:49:23,550 --> 00:49:26,573 A bobina está quase lá. 886 00:49:27,440 --> 00:49:29,503 É apenas uma pena segurando-a. 887 00:49:30,920 --> 00:49:31,923 São tempos nervosos. 888 00:49:37,350 --> 00:49:38,619 Estamos no purgatório. 889 00:49:38,620 --> 00:49:41,849 O purgatório humanista intelectual. 890 00:49:41,850 --> 00:49:44,032 Uma IA poderia saber exatamente o que fazer aqui. 891 00:49:51,540 --> 00:49:53,459 Temos a bobina no aneurisma 892 00:49:53,460 --> 00:49:55,689 mas ela não estava tremendamente bem 893 00:49:55,690 --> 00:49:57,859 como eu sabia que ficaria, 894 00:49:57,860 --> 00:50:01,860 e com um risco de talvez 20% é uma situação muito ruim, 895 00:50:02,030 --> 00:50:03,733 eu optei por trazê-la de volta. 896 00:50:05,380 --> 00:50:07,249 Por causa do meu relacionamento com ela 897 00:50:07,250 --> 00:50:09,939 e sabendo das dificuldades de entrar e fazer o procedimento 898 00:50:12,050 --> 00:50:14,732 devo considerar apenas o caminho mais seguro possível 899 00:50:15,429 --> 00:50:17,319 para ter sucesso, 900 00:50:17,320 --> 00:50:20,729 e eu fiquei lá por 10 minutos agonizando sobre isso. 901 00:50:20,730 --> 00:50:22,719 O computador não sente nada. 902 00:50:22,720 --> 00:50:25,719 O computador apenas faz o que deve fazer, 903 00:50:25,720 --> 00:50:27,220 supostamente melhor e melhor. 904 00:50:31,250 --> 00:50:33,000 Eu quero ter a IA neste caso, 905 00:50:36,840 --> 00:50:39,673 mas a IA pode ter compaixão? 906 00:50:43,980 --> 00:50:46,933 É a pergunta que todos fazem sobre a IA. 907 00:50:48,770 --> 00:50:52,150 Somos a única personificação da humanidade 908 00:50:52,990 --> 00:50:55,818 e é uma hipótese remota aceitarmos que uma máquina 909 00:50:55,819 --> 00:50:59,527 possa ser compassiva e amorosa dessa maneira. 910 00:51:06,090 --> 00:51:08,219 Parte de mim não acredita em mágica 911 00:51:08,220 --> 00:51:10,899 mas parte de mim tem fé que existe algo 912 00:51:10,900 --> 00:51:13,619 além da soma das partes, se houver pelo menos 913 00:51:13,620 --> 00:51:16,609 uma unidade em nossa ancestralidade compartilhada, 914 00:51:16,610 --> 00:51:19,247 nossa biologia compartilhada, nossa história compartilhada. 915 00:51:21,310 --> 00:51:23,690 Alguma conexão além da máquina. 916 00:51:31,432 --> 00:51:33,439 Então você tem o outro lado disso que é... 917 00:51:33,440 --> 00:51:35,219 o computador sabe que ele é consciente 918 00:51:35,220 --> 00:51:37,373 ou pode ser consciente ou se importa? 919 00:51:38,070 --> 00:51:39,683 Ele precisa ser consciente? 920 00:51:40,930 --> 00:51:42,203 Ele precisa estar ciente? 921 00:51:54,240 --> 00:51:57,449 Eu não acho que um robô poderia ser consciente. 922 00:51:57,450 --> 00:51:59,679 A menos que eles o programem dessa forma. 923 00:51:59,680 --> 00:52:01,719 Consciente, não. 924 00:52:01,720 --> 00:52:02,720 Não. Não. 925 00:52:03,623 --> 00:52:07,029 Acho que um robô poderia ser programado para ser consciente. 926 00:52:07,064 --> 00:52:10,103 Assim como eles os programam para fazer todo o resto. 927 00:52:10,760 --> 00:52:13,289 Essa é outra grande parte da nossa inteligência oficial, 928 00:52:13,290 --> 00:52:16,313 torná-los conscientes e fazê-los sentir. 929 00:52:23,380 --> 00:52:27,159 De volta a 2005 começamos a tentar construir máquinas 930 00:52:27,160 --> 00:52:28,323 com autoconsciência. 931 00:52:33,940 --> 00:52:36,573 Este robô no começo não sabia o que era, 932 00:52:38,240 --> 00:52:41,040 tudo o que ele sabia é que precisava fazer algo como andar. 933 00:52:45,460 --> 00:52:46,874 Através de tentativa e erro, 934 00:52:46,975 --> 00:52:50,060 ele descobriu como andar usando sua imaginação 935 00:52:50,110 --> 00:52:51,680 e depois saiu andando. 936 00:52:54,960 --> 00:52:57,299 E então nós fizemos algo muito cruel. 937 00:52:57,300 --> 00:53:00,463 Nós cortamos uma de suas perna e observamos o que acontecia. 938 00:53:04,154 --> 00:53:08,154 No começo, ele não sabia bem o que havia acontecido 939 00:53:08,750 --> 00:53:10,546 mas passado o período de um dia 940 00:53:10,647 --> 00:53:12,330 ele então começou a mancar, 941 00:53:14,200 --> 00:53:15,919 e, em seguida, há um ano atrás, 942 00:53:15,920 --> 00:53:19,733 estávamos treinando um sistema de IA para uma demonstração ao vivo. 943 00:53:21,200 --> 00:53:24,279 Queríamos mostrar todos os tipos de objetos na frente da câmera 944 00:53:24,280 --> 00:53:27,053 e como a IA poderia reconhecer estes objetos. 945 00:53:28,290 --> 00:53:30,699 E assim estávamos preparando este demo 946 00:53:30,700 --> 00:53:33,349 e tínhamos uma tela à parte com a capacidade de ver 947 00:53:33,350 --> 00:53:37,350 como certos neurônios estavam respondendo 948 00:53:37,890 --> 00:53:39,929 e de repente notamos que um dos neurônios 949 00:53:39,930 --> 00:53:41,999 estava rastreando os rostos. 950 00:53:42,000 --> 00:53:44,873 Estava rastreando nossos rostos enquanto nos movíamos. 951 00:53:46,470 --> 00:53:49,619 Agora, o mais assustador disso é que nunca treinamos 952 00:53:49,620 --> 00:53:52,340 o sistema para reconhecer rostos humanos 953 00:53:53,470 --> 00:53:56,233 e ainda assim, de alguma forma, ele aprendeu a fazer isso. 954 00:53:58,830 --> 00:54:00,759 Mesmo que esses robôs sejam muito simples, 955 00:54:00,760 --> 00:54:03,369 podemos ver que há algo mais acontecendo lá. 956 00:54:03,370 --> 00:54:04,563 Não é só o programa. 957 00:54:06,810 --> 00:54:08,310 Então, isso é apenas o começo. 958 00:54:11,320 --> 00:54:14,390 Eu penso frequentemente sobre aquela praia em Kitty Hawk, 959 00:54:15,240 --> 00:54:18,790 no voo de 1903 de Orville e Wilbur Wright, 960 00:54:22,300 --> 00:54:25,179 como uma espécie de reivindicação da lona, da madeira e do ferro 961 00:54:25,180 --> 00:54:27,449 ao sair do chão por 1 minuto e 20 segundos, 962 00:54:27,450 --> 00:54:30,950 em um dia ventoso antes de voltar a descer novamente, 963 00:54:34,160 --> 00:54:35,779 e cerca de 65 verões 964 00:54:38,680 --> 00:54:40,460 depois desse momento 965 00:54:40,570 --> 00:54:43,543 você tem um 747 decolando do JFK. 966 00:54:51,320 --> 00:54:54,069 A maior preocupação de alguém no avião poderia ser 967 00:54:54,070 --> 00:54:56,419 se a sua refeição de dieta sem sal 968 00:54:56,420 --> 00:54:58,299 será servida ou não, 969 00:54:58,300 --> 00:55:00,699 com toda uma infra-estrutura com agentes de viagens 970 00:55:00,700 --> 00:55:02,816 e controle de torre, e é tudo casual, 971 00:55:02,817 --> 00:55:04,367 é tudo parte do mundo. 972 00:55:07,980 --> 00:55:10,549 Bem agora, a medida que temos máquinas que pensam, 973 00:55:10,550 --> 00:55:13,349 e resolvem problemas, estamos de volta a Kitty Hawk. 974 00:55:13,350 --> 00:55:17,329 Estamos ao vento, temos nossos esfarrapados aviões de lona no ar, 975 00:55:21,830 --> 00:55:24,839 mas o que vai acontecer daqui 65 verões ou mais, 976 00:55:24,840 --> 00:55:28,440 e que teremos máquinas que estarão além do controle humano. 977 00:55:28,820 --> 00:55:30,184 Devemos nos preocupar com isso? 978 00:55:33,580 --> 00:55:35,383 Não tenho certeza se elas vão ajudar. 979 00:55:41,180 --> 00:55:44,631 Ninguém tem ideia hoje o que significa para um robô 980 00:55:44,632 --> 00:55:46,123 ser consciente. 981 00:55:47,350 --> 00:55:48,500 Não existe tal coisa. 982 00:55:49,780 --> 00:55:51,516 Há muita gente inteligente 983 00:55:51,517 --> 00:55:53,999 e eu tenho um grande respeito por elas, 984 00:55:54,000 --> 00:55:58,000 mas a verdade é que as máquinas são psicopatas naturais. 985 00:55:58,760 --> 00:55:59,966 O medo voltou ao mercado 986 00:55:59,967 --> 00:56:02,859 e foi abaixo de 800 quase 1.000 em um piscar de olhos. 987 00:56:02,860 --> 00:56:04,439 É a clássica capitulação. 988 00:56:04,440 --> 00:56:06,539 Existem algumas pessoas que acham 989 00:56:06,540 --> 00:56:08,569 que foi algum tipo de erro do dedo-gordo. 990 00:56:08,570 --> 00:56:10,579 Tome o Flash Crash de 2010, 991 00:56:10,680 --> 00:56:13,749 onde em questão de minutos um trilhão de dólares 992 00:56:14,450 --> 00:56:16,359 foi perdido no mercado de ações. 993 00:56:16,360 --> 00:56:19,179 O Dow Jones caiu quase mil pontos em meia hora. 994 00:56:19,920 --> 00:56:21,583 Então, o que deu errado? 995 00:56:23,490 --> 00:56:26,949 Nessa época mais de 60% de todos os negócios 996 00:56:27,850 --> 00:56:30,849 realizados na bolsa de valores 997 00:56:30,863 --> 00:56:33,923 estavam na verdade sendo administrados por computadores. 998 00:56:38,170 --> 00:56:40,899 A breve história do que aconteceu no Flash Crash 999 00:56:40,900 --> 00:56:43,259 é que algoritmos responderam a algoritmos 1000 00:56:43,260 --> 00:56:45,589 e eles se ajustaram sobre eles mesmos cada vez mais 1001 00:56:45,590 --> 00:56:47,168 e tudo em questão de minutos. 1002 00:56:47,369 --> 00:56:50,769 Em um ponto, o mercado caiu como que descendo um poço. 1003 00:56:51,920 --> 00:56:54,999 Não há órgão regulador que possa se adaptar rápido o suficiente 1004 00:56:55,000 --> 00:56:58,143 para evitar as consequências potencialmente desastrosas 1005 00:56:58,150 --> 00:57:00,950 da IA operando em nosso sistema financeiro. 1006 00:57:02,180 --> 00:57:04,879 Eles são tão fundamentais para a manipulação. 1007 00:57:04,880 --> 00:57:06,769 Vamos falar sobre a velocidade com que 1008 00:57:06,770 --> 00:57:09,089 estamos vendo este mercado se deteriorar. 1009 00:57:09,090 --> 00:57:12,529 Esse é o tipo de IA que enlouquece as pessoas. 1010 00:57:12,530 --> 00:57:14,509 Quando você lhes dá um objetivo, 1011 00:57:14,510 --> 00:57:16,763 eles perseguirão implacavelmente esse objetivo. 1012 00:57:18,810 --> 00:57:21,269 Quantos programas de computador são assim? 1013 00:57:21,270 --> 00:57:22,393 Ninguém sabe. 1014 00:57:24,460 --> 00:57:28,460 Um dos aspectos fascinantes da IA em geral 1015 00:57:28,570 --> 00:57:32,123 é que ninguém realmente entende como ela funciona. 1016 00:57:32,990 --> 00:57:36,413 Mesmo as pessoas que criam IA não entendem completamente. 1017 00:57:37,940 --> 00:57:40,749 Porque ela tem milhões de elementos, 1018 00:57:40,750 --> 00:57:43,839 torna-se completamente impossível para um ser humano 1019 00:57:43,840 --> 00:57:46,473 entender o que está acontecendo. 1020 00:57:53,460 --> 00:57:57,009 A Microsoft criou esta inteligência artificial 1021 00:57:57,010 --> 00:57:59,703 chamada Tay no Twitter que era um robô de conversação. 1022 00:58:02,320 --> 00:58:04,119 Eles começaram pela manhã 1023 00:58:04,120 --> 00:58:07,449 e o Tay estava começando a twittar e aprender com as coisas 1024 00:58:07,450 --> 00:58:11,060 que estavam sendo enviadas para ele de outras pessoas do Twitter. 1025 00:58:11,850 --> 00:58:14,259 Porque algumas pessoas ofensivas fizeram ataques, 1026 00:58:14,260 --> 00:58:16,809 dentro de 24 horas o robô da Microsoft 1027 00:58:16,810 --> 00:58:18,633 tornou-se uma pessoa terrível. 1028 00:58:19,570 --> 00:58:22,309 Eles tiveram que literalmente tirar o Tay da rede 1029 00:58:22,310 --> 00:58:24,203 porque ele se transformou em um monstro. 1030 00:58:25,670 --> 00:58:29,170 Uma pessoa misantrópica, racista e horrível 1031 00:58:29,230 --> 00:58:31,253 que você nunca iria querer conhecer 1032 00:58:31,254 --> 00:58:32,813 e ninguém previu isso. 1033 00:58:36,270 --> 00:58:38,479 Toda a ideia da IA é que não estamos dizendo 1034 00:58:38,480 --> 00:58:41,530 exatamente a ela como alcançar um determinado resultado 1035 00:58:41,531 --> 00:58:42,980 ou um objetivo. 1036 00:58:43,660 --> 00:58:45,373 A IA se desenvolve por conta própria. 1037 00:58:47,370 --> 00:58:49,969 Estamos preocupados com a super inteligente IA, 1038 00:58:49,970 --> 00:58:52,500 o mestre enxadrista que nos superará, 1039 00:58:53,700 --> 00:58:56,929 mas eu não vou ter que ser realmente tão inteligente 1040 00:58:56,930 --> 00:58:59,087 para ter efeitos massivamente disruptivos 1041 00:58:59,088 --> 00:59:00,730 sobre a civilização humana. 1042 00:59:01,440 --> 00:59:02,909 Nós vimos no último século, 1043 00:59:02,910 --> 00:59:05,185 que alguém não precisa necessariamente ser genial 1044 00:59:05,186 --> 00:59:07,529 para lançar a história em uma direção em particular 1045 00:59:07,530 --> 00:59:09,977 e não será preciso uma inteligência artificial genial 1046 00:59:09,978 --> 00:59:11,289 para fazer a mesma coisa. 1047 00:59:11,790 --> 00:59:14,669 Histórias de falsas notícias eleitorais geraram mais 1048 00:59:14,670 --> 00:59:18,270 engajamento no Facebook do que as principais histórias reais. 1049 00:59:18,420 --> 00:59:20,720 O Facebook é realmente o elefante na sala. 1050 00:59:22,020 --> 00:59:25,020 Uma IA roda o feed de notícias do Facebook. 1051 00:59:25,110 --> 00:59:28,209 A tarefa da IA é manter os usuários envolvidos, 1052 00:59:29,310 --> 00:59:32,136 mas ninguém realmente entende exatamente 1053 00:59:32,137 --> 00:59:34,603 como esta IA está alcançando este objetivo. 1054 00:59:35,820 --> 00:59:38,608 O Facebook está construindo uma elegante parede espelhada 1055 00:59:38,609 --> 00:59:39,769 ao nosso redor. 1056 00:59:39,770 --> 00:59:42,918 Um espelho a quem podemos perguntar quem é o mais justo entre todos 1057 00:59:42,919 --> 00:59:45,283 e ele vai responder "você, você" repetidas vezes. 1058 00:59:46,271 --> 00:59:49,119 Você lentamente começa a distorcer o nosso senso de realidade, 1059 00:59:49,120 --> 00:59:51,433 distorcer o nosso senso de política, 1060 00:59:51,534 --> 00:59:53,221 história, eventos globais, 1061 00:59:54,410 --> 00:59:57,949 até que determinar o que é verdade e o que não é verdade 1062 00:59:57,950 --> 00:59:59,403 é virtualmente impossível. 1063 01:00:02,010 --> 01:00:04,869 O problema é que a IA não entende isso. 1064 01:00:04,870 --> 01:00:07,053 A IA só tinha uma missão, 1065 01:00:07,154 --> 01:00:09,030 maximizar o engajamento do usuário, 1066 01:00:09,031 --> 01:00:10,929 e conseguiu isso. 1067 01:00:11,030 --> 01:00:13,449 Quase dois bilhões de pessoas 1068 01:00:13,450 --> 01:00:16,189 passam em média quase uma hora hoje 1069 01:00:16,190 --> 01:00:18,205 basicamente interagindo com a IA 1070 01:00:18,206 --> 01:00:20,303 que está moldando a sua experiência. 1071 01:00:22,170 --> 01:00:25,749 Mesmo os engenheiros do Facebook, não gostam de notícias falsas. 1072 01:00:25,750 --> 01:00:27,019 É um negócio muito ruim. 1073 01:00:27,020 --> 01:00:28,939 Eles querem se livrar das notícias falsas. 1074 01:00:28,940 --> 01:00:31,279 É muito difícil fazer porque como você reconhece 1075 01:00:31,280 --> 01:00:34,069 se a notícia é falsa se você não pode ler 1076 01:00:34,070 --> 01:00:35,719 todas essas notícias pessoalmente? 1077 01:00:35,720 --> 01:00:39,720 Há tanta desinformação ativa 1078 01:00:40,700 --> 01:00:42,049 e ela está bem embalada, 1079 01:00:42,050 --> 01:00:44,529 ela aparece até mesmo quando você vê 1080 01:00:44,530 --> 01:00:47,929 uma página no Facebook ou você liga sua televisão. 1081 01:00:48,330 --> 01:00:50,509 Não é terrivelmente sofisticada, 1082 01:00:50,510 --> 01:00:52,629 mas é terrivelmente poderosa. 1083 01:00:52,630 --> 01:00:55,239 E o que isso significa é que a sua visão do mundo, 1084 01:00:55,240 --> 01:00:57,699 que 20 anos atrás era determinada quando você assistia 1085 01:00:57,700 --> 01:01:00,609 as notícias da noite em três diferentes redes de televisão. 1086 01:01:00,610 --> 01:01:02,976 Os três âncoras que se esforçavam em acertar 1087 01:01:02,977 --> 01:01:05,419 podiam ter tido um pequeno viés vez ou outra 1088 01:01:05,420 --> 01:01:06,750 mas falando a grosso modo, 1089 01:01:06,751 --> 01:01:09,024 todos concordamos com uma realidade objetiva. 1090 01:01:09,092 --> 01:01:11,200 Essa objetividade acabou 1091 01:01:11,201 --> 01:01:13,283 e o Facebook está completamente aniquilado. 1092 01:01:17,900 --> 01:01:20,639 Se a maior parte da sua compreensão de como o mundo funciona 1093 01:01:20,640 --> 01:01:22,019 vem do Facebook, 1094 01:01:22,020 --> 01:01:24,665 facilitada pelo software algorítmico que tenta mostrar 1095 01:01:24,666 --> 01:01:27,373 as novidades que você deseja ver, 1096 01:01:28,370 --> 01:01:30,226 isso é uma coisa terrivelmente perigosa 1097 01:01:30,227 --> 01:01:33,490 e a ideia de que nós não apenas colocamos isso em movimento 1098 01:01:34,060 --> 01:01:37,739 mas permitimos que atores de má fé acessem essa informação, 1099 01:01:38,190 --> 01:01:40,433 esta é a receita para o desastre. 1100 01:01:44,340 --> 01:01:47,399 Eu acho que definitivamente teremos muitos maus atores 1101 01:01:47,400 --> 01:01:49,869 tentando manipular o mundo com a IA. 1102 01:01:49,870 --> 01:01:53,159 2016 foi um exemplo perfeito de uma eleição 1103 01:01:53,160 --> 01:01:55,509 onde houve muita produção de IA, 1104 01:01:55,510 --> 01:01:58,141 muitas notícias falsas e distribuídas para um propósito, 1105 01:01:58,142 --> 01:01:59,883 para um resultado. 1106 01:02:00,800 --> 01:02:03,199 Senhoras e senhores, honrados colegas, 1107 01:02:03,200 --> 01:02:05,469 tenho o privilégio de falar com vocês hoje 1108 01:02:05,470 --> 01:02:09,409 sobre o poder do Big Data e da psicografia no processo eleitoral 1109 01:02:10,790 --> 01:02:13,269 e especificamente para falar sobre o trabalho 1110 01:02:13,270 --> 01:02:16,439 que contribuímos para a campanha presidencial do senador Cruz. 1111 01:02:17,470 --> 01:02:20,889 A Cambridge Analytica surgiu silenciosamente como uma empresa 1112 01:02:20,890 --> 01:02:22,911 que de acordo com a sua própria descrição 1113 01:02:22,912 --> 01:02:26,510 tem a capacidade de usar essa enorme quantidade de dados 1114 01:02:27,230 --> 01:02:30,174 a fim de afetar a mudança social. 1115 01:02:30,575 --> 01:02:34,529 Em 2016 eles tiveram três clientes principais, 1116 01:02:34,530 --> 01:02:36,109 Ted Cruz foi um deles. 1117 01:02:36,110 --> 01:02:38,809 É fácil esquecer que apenas 18 meses atrás, 1118 01:02:38,810 --> 01:02:42,139 o senador Cruz era um dos candidatos menos populares 1119 01:02:42,140 --> 01:02:43,829 buscando indicação. 1120 01:02:43,830 --> 01:02:47,429 Então, o que não era possível talvez 10 ou 15 anos atrás, 1121 01:02:48,220 --> 01:02:51,332 de você poder enviar notícias falsas exatamente para as pessoas 1122 01:02:51,333 --> 01:02:53,409 que você desejava enviar 1123 01:02:53,410 --> 01:02:57,139 e então ver como ele ou ela reagiam no Facebook 1124 01:02:57,450 --> 01:02:59,190 e depois ajustar essa informação 1125 01:02:59,291 --> 01:03:02,109 de acordo com o feedback que você recebia 1126 01:03:03,110 --> 01:03:05,359 e assim poder começar a desenvolver algo como 1127 01:03:05,360 --> 01:03:07,719 um gerenciamento em tempo real de uma população. 1128 01:03:07,720 --> 01:03:11,519 Neste caso, nós separamos um grupo que chamamos de persuasão. 1129 01:03:11,610 --> 01:03:15,609 São pessoas que irão votar em uma convenção política 1130 01:03:15,610 --> 01:03:17,290 mas eles precisam se mover do centro 1131 01:03:17,291 --> 01:03:19,389 para um pouco mais a direita 1132 01:03:19,390 --> 01:03:20,679 afim de apoiar Cruz. 1133 01:03:20,680 --> 01:03:23,029 Eles precisam de uma mensagem de persuasão. 1134 01:03:23,030 --> 01:03:26,229 Selecionei o direito as armas que estreitam o campo um pouco mais 1135 01:03:26,230 --> 01:03:29,804 e agora sabemos que precisamos uma mensagem sobre o direito as armas, 1136 01:03:29,806 --> 01:03:31,805 precisa ser uma mensagem de persuasão 1137 01:03:32,020 --> 01:03:34,879 e precisa ser nuançado de acordo com certa personalidade 1138 01:03:34,880 --> 01:03:36,869 em que estamos interessados. 1139 01:03:36,870 --> 01:03:38,279 Através da mídia social, 1140 01:03:38,280 --> 01:03:40,929 há uma quantidade infinita de informações 1141 01:03:40,930 --> 01:03:43,469 que você pode reunir sobre uma pessoa. 1142 01:03:43,470 --> 01:03:46,667 Temos em algum lugar perto de 4 ou 5 mil pontos de dados 1143 01:03:46,750 --> 01:03:49,499 de todos os adultos nos Estados Unidos. 1144 01:03:49,500 --> 01:03:51,910 Trata-se de segmentar o indivíduo. 1145 01:03:52,900 --> 01:03:55,429 É como uma arma que pode ser usada 1146 01:03:55,430 --> 01:03:56,919 em uma direção totalmente errada. 1147 01:03:56,920 --> 01:03:58,989 Esse é o problema com todos esses dados. 1148 01:03:58,990 --> 01:04:00,908 É quase como se nós construíssemos a bala 1149 01:04:00,909 --> 01:04:03,119 antes de construirmos a arma. 1150 01:04:03,120 --> 01:04:07,120 Ted Cruz empregou nossos dados, nossas percepções comportamentais. 1151 01:04:07,310 --> 01:04:10,513 Ele começou a partir de uma base de menos de 5% 1152 01:04:10,514 --> 01:04:14,514 e teve um aumento muito lento e constante, mas firme, acima de 35%, 1153 01:04:15,567 --> 01:04:19,151 tornando-se o segundo candidato mais ameaçador na corrida. 1154 01:04:21,380 --> 01:04:23,857 Agora, claramente, a campanha Cruz terminou, 1155 01:04:23,858 --> 01:04:25,789 mas o que posso dizer é, 1156 01:04:25,990 --> 01:04:29,029 que dos dois candidatos da esquerda nesta eleição, 1157 01:04:29,130 --> 01:04:31,663 um deles está usando essas tecnologias. 1158 01:04:33,976 --> 01:04:36,909 Eu Donald John Trump solenemente juro 1159 01:04:36,910 --> 01:04:39,699 que executarei fielmente a função 1160 01:04:39,700 --> 01:04:42,681 de Presidente dos Estados Unidos. 1161 01:04:49,430 --> 01:04:51,518 As eleições são um exercício marginal. 1162 01:04:51,519 --> 01:04:54,419 Não é preciso uma IA muito sofisticada 1163 01:04:54,642 --> 01:04:57,670 para ter um impacto desproporcional. 1164 01:04:59,960 --> 01:05:03,479 Antes de Trump, o Brexit foi outro suposto cliente. 1165 01:05:03,480 --> 01:05:06,669 Bem, aos 20 minutos para as cinco, podemos agora dizer 1166 01:05:06,670 --> 01:05:10,068 que a decisão tomada em 1975 por este país 1167 01:05:10,069 --> 01:05:12,824 para se juntar ao mercado comum foi invertida 1168 01:05:12,825 --> 01:05:16,825 por este referendo para deixar a UE. 1169 01:05:18,140 --> 01:05:20,779 A Cambridge Analytica supostamente usou a IA 1170 01:05:20,780 --> 01:05:23,009 para impulsionar dois dos maiores tremores 1171 01:05:23,010 --> 01:05:26,510 da mudança política nos últimos 50 anos. 1172 01:05:28,370 --> 01:05:31,609 São eventos épicos e se acreditarmos na campanha publicitária, 1173 01:05:31,610 --> 01:05:34,139 eles estão diretamente conectados a um software 1174 01:05:34,140 --> 01:05:37,213 criado por um professor em Stanford. 1175 01:05:42,330 --> 01:05:45,609 Em 2013 eu descrevi que o que eles estavam fazendo era possível 1176 01:05:45,610 --> 01:05:49,173 e adverti contra isso acontecer no futuro. 1177 01:05:50,280 --> 01:05:53,789 Na época Michal Kosinski era um jovem pesquisador polonês 1178 01:05:53,790 --> 01:05:55,719 trabalhando no Centro Psicométrico. 1179 01:05:55,890 --> 01:05:59,890 O que Michal fez foi reunir o maior conjunto de dados já conseguido 1180 01:06:00,257 --> 01:06:03,329 de como as pessoas se comportavam no Facebook. 1181 01:06:04,470 --> 01:06:07,522 A psicometria tenta medir os traços psicológicos 1182 01:06:09,223 --> 01:06:12,227 como personalidade, inteligência, pontos de vista políticos 1183 01:06:12,228 --> 01:06:13,419 e assim por diante. 1184 01:06:13,420 --> 01:06:16,019 Tradicionalmente, essas características eram medidas 1185 01:06:16,020 --> 01:06:17,903 usando testes e questionários. 1186 01:06:18,240 --> 01:06:19,511 Testes de personalidade, 1187 01:06:19,512 --> 01:06:21,549 a coisa mais benigna que você poderia pensar. 1188 01:06:21,580 --> 01:06:24,659 Algo que não necessariamente tem muita utilidade, certo? 1189 01:06:25,120 --> 01:06:27,909 Nossa ideia era que, em vez de testes e questionadores, 1190 01:06:27,910 --> 01:06:30,369 poderíamos simplesmente olhar para os rastos digitais 1191 01:06:30,370 --> 01:06:32,570 dos comportamentos que todos estamos vivendo 1192 01:06:33,460 --> 01:06:35,545 para entender a capacidade receptiva, 1193 01:06:35,646 --> 01:06:37,560 a meticulosidade, o neuroticismo. 1194 01:06:38,700 --> 01:06:41,089 Você pode facilmente comprar dados pessoais, 1195 01:06:41,090 --> 01:06:44,245 como onde você mora, que associações você se filiou, 1196 01:06:44,250 --> 01:06:45,817 que ginásio você vai. 1197 01:06:45,818 --> 01:06:48,822 Na verdade existe um mercado para dados pessoais. 1198 01:06:48,823 --> 01:06:51,869 Acontece que podemos descobrir muito sobre o que você vai fazer 1199 01:06:51,870 --> 01:06:54,929 baseado em um conjunto muito pequeno de informações. 1200 01:06:56,840 --> 01:06:59,689 Estamos treinando redes de aprendizagem profunda 1201 01:06:59,690 --> 01:07:01,719 que deduzem traços íntimos. 1202 01:07:02,220 --> 01:07:05,597 As opiniões políticas, personalidade, inteligência 1203 01:07:06,790 --> 01:07:08,709 e orientação sexual das pessoas, 1204 01:07:08,710 --> 01:07:10,830 tudo a partir da imagem do rosto de alguém. 1205 01:07:17,930 --> 01:07:21,369 Agora pense em países que não são tão livres e de mente aberta. 1206 01:07:21,550 --> 01:07:23,974 Se você pode revelar os pontos de vista religiosos 1207 01:07:23,975 --> 01:07:27,001 ou pontos de vista políticos ou orientação sexual das pessoas 1208 01:07:27,096 --> 01:07:29,719 baseado apenas em fotos de perfil, 1209 01:07:29,720 --> 01:07:33,720 isso pode ser literalmente uma questão de vida ou morte. 1210 01:07:37,900 --> 01:07:39,537 Eu acho que não há como voltar atrás. 1211 01:07:43,010 --> 01:07:44,910 Você sabe o que é o teste de Turing? 1212 01:07:46,460 --> 01:07:49,889 É quando um humano interage com um computador, 1213 01:07:49,890 --> 01:07:53,469 e se o humano não sabe que ele está interagindo com um computador 1214 01:07:53,470 --> 01:07:55,293 o teste passa. 1215 01:07:55,680 --> 01:07:57,120 E nos próximos dias 1216 01:07:58,210 --> 01:08:00,649 você vai ser o componente humano no teste de Turing. 1217 01:08:00,670 --> 01:08:01,899 Caramba. 1218 01:08:01,900 --> 01:08:03,963 Certo Caleb, você entendeu. 1219 01:08:05,010 --> 01:08:07,110 Porque se esse teste passar 1220 01:08:08,472 --> 01:08:11,799 você vai estar bem no centro do maior evento científico 1221 01:08:11,800 --> 01:08:13,379 na história do homem. 1222 01:08:13,880 --> 01:08:15,559 Se você criou uma máquina consciente, 1223 01:08:15,560 --> 01:08:17,113 não é a história do homem. 1224 01:08:18,560 --> 01:08:20,023 É a história dos deuses. 1225 01:08:27,810 --> 01:08:30,610 É quase como se a tecnologia fosse um deus em si. 1226 01:08:34,150 --> 01:08:35,647 Como as condições meteorológicas, 1227 01:08:35,648 --> 01:08:37,079 que não podemos causar impacto, 1228 01:08:37,080 --> 01:08:38,289 não podemos atrasá-la, 1229 01:08:38,290 --> 01:08:39,290 não podemos pará-la. 1230 01:08:40,550 --> 01:08:42,593 Nós nos sentimos impotentes. 1231 01:08:44,670 --> 01:08:47,909 Se pensarmos em Deus, é uma quantia ilimitada de inteligência. 1232 01:08:47,981 --> 01:08:51,544 O mais próximo que podemos chegar é evoluir nossa própria inteligência, 1233 01:08:51,545 --> 01:08:55,217 fundindo-a com a inteligência artificial que estamos criando. 1234 01:08:56,510 --> 01:08:59,769 Hoje nossos computadores, celulares, aplicativos, 1235 01:08:59,770 --> 01:09:01,453 nos dão uma capacidade sobre-humana. 1236 01:09:02,580 --> 01:09:03,961 Como a velha máxima que diz, 1237 01:09:03,962 --> 01:09:05,942 se você não pode vencê-los, junte-se a eles. 1238 01:09:07,830 --> 01:09:10,889 É sobre uma parceria homem-máquina. 1239 01:09:10,890 --> 01:09:13,569 Já vemos isso com os nossos celulares, por exemplo. 1240 01:09:14,270 --> 01:09:16,279 Ele atua como uma prótese da memória, certo? 1241 01:09:16,280 --> 01:09:18,959 Não tenho mais que lembrar o seu número de telefone 1242 01:09:18,960 --> 01:09:20,689 porque ele está no meu celular. 1243 01:09:20,690 --> 01:09:23,289 É sobre máquinas que aumentam nossas habilidades humanas 1244 01:09:23,290 --> 01:09:25,590 ao contrário de as substituir por completo. 1245 01:09:26,210 --> 01:09:28,399 Se você olhar para todos os objetos 1246 01:09:28,400 --> 01:09:31,479 que deram o salto do analógico para o digital nos últimos 20 anos, 1247 01:09:31,480 --> 01:09:32,480 é muito. 1248 01:09:33,010 --> 01:09:36,328 Somos o último objeto analógico no universo digital 1249 01:09:36,329 --> 01:09:37,769 e o problema com isso, claro, 1250 01:09:37,770 --> 01:09:41,489 é que a saída e a entrada de dados é muito limitada. 1251 01:09:41,490 --> 01:09:42,933 É isso, são estes. 1252 01:09:44,930 --> 01:09:46,230 Nossos olhos são muito bons. 1253 01:09:46,231 --> 01:09:48,730 Somos capazes de absorver muita informação visual. 1254 01:09:49,627 --> 01:09:53,479 Mas a nossa saída de informação é muito baixa. 1255 01:09:53,480 --> 01:09:56,326 A razão disso é importante se imaginarmos um cenário 1256 01:09:56,327 --> 01:09:59,718 onde a IA for desempenhar um papel mais proeminente na sociedade. 1257 01:09:59,719 --> 01:10:02,959 Queremos boas maneiras de interagir com essa tecnologia 1258 01:10:02,960 --> 01:10:05,513 para que isso acabe nos melhorando. 1259 01:10:09,726 --> 01:10:12,359 Eu acho que é incrivelmente importante para a IA 1260 01:10:12,360 --> 01:10:14,883 que nenhum outro deva ser nós. 1261 01:10:15,810 --> 01:10:18,110 Eu posso estar errado sobre o que estou dizendo, 1262 01:10:19,370 --> 01:10:23,299 e estou aberto a ideias se alguém puder sugerir um caminho melhor, 1263 01:10:25,360 --> 01:10:27,839 mas acho que realmente vamos ter que se fundir com a IA 1264 01:10:27,840 --> 01:10:29,586 ou seremos deixados para trás. 1265 01:10:37,330 --> 01:10:39,709 É difícil pensar em desconectar um sistema 1266 01:10:39,710 --> 01:10:42,549 que está distribuído por todo o planeta. 1267 01:10:42,550 --> 01:10:45,558 Ele está agora distribuído através do sistema solar. 1268 01:10:46,590 --> 01:10:48,590 Você não pode desligar isso. 1269 01:10:50,610 --> 01:10:51,959 Abrimos a caixa de Pandora. 1270 01:10:51,960 --> 01:10:54,281 Desencadeamos forças que não podemos controlar, 1271 01:10:54,282 --> 01:10:55,963 não podemos parar. 1272 01:10:56,630 --> 01:11:00,089 Estamos no meio de criar uma nova forma de vida na Terra. 1273 01:11:06,960 --> 01:11:08,819 Não sabemos o que vai acontecer a seguir, 1274 01:11:08,820 --> 01:11:11,399 não sabemos que forma terá o intelecto de uma máquina 1275 01:11:11,400 --> 01:11:15,339 quando esse intelecto estiver muito além das capacidades humanas. 1276 01:11:15,490 --> 01:11:17,373 Não é apenas algo que é possível. 1277 01:11:25,290 --> 01:11:27,629 O futuro menos assustador que eu posso imaginar 1278 01:11:27,630 --> 01:11:30,080 é aquele em que teremos pelo menos democratizado a IA 1279 01:11:32,480 --> 01:11:34,839 porque se uma empresa ou um pequeno grupo de pessoas 1280 01:11:34,840 --> 01:11:38,199 conseguir desenvolver uma super inteligência digital quase divina, 1281 01:11:38,216 --> 01:11:39,764 eles poderiam dominar o mundo. 1282 01:11:41,240 --> 01:11:43,359 Pelo menos quando há um ditador diabólico, 1283 01:11:43,360 --> 01:11:45,299 esse humano vai morrer, 1284 01:11:45,300 --> 01:11:47,929 mas para uma IA não haveria morte, 1285 01:11:47,930 --> 01:11:49,080 elas viveriam para sempre 1286 01:11:50,380 --> 01:11:52,849 e teríamos um ditador imortal 1287 01:11:52,850 --> 01:11:54,667 do qual nunca escaparíamos. 1288 01:13:20,067 --> 01:13:24,067 A busca pela inteligência artificial é uma indústria multi-bilionária. Com quase nenhuma regulamentação. 107553

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.