Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:10,649 --> 00:00:14,149
"Você é o meu criador, mas
eu sou seu mestre..."
2
00:00:36,450 --> 00:00:38,650
O que estamos às vésperas
3
00:00:38,750 --> 00:00:42,689
é um mundo com uma cada vez
mais intensa e sofisticada
4
00:00:43,890 --> 00:00:45,793
inteligência artificial.
5
00:00:46,040 --> 00:00:49,499
A tecnologia está evoluindo muito
mais rápido que a nossa sociedade.
6
00:00:49,500 --> 00:00:52,569
Ela tem a capacidade de nos
proteger como cidadãos.
7
00:00:52,570 --> 00:00:55,249
Os robôs estão chegando
e eles vão destruir
8
00:00:55,250 --> 00:00:56,818
nossos meios de subsistência.
9
00:01:02,993 --> 00:01:05,479
Você tem uma inteligência
em rede que nos observa,
10
00:01:05,480 --> 00:01:09,480
sabe tudo sobre nós e
começa a tentar nos mudar.
11
00:01:09,590 --> 00:01:12,664
O Twitter tornou-se o site de
notícias número um do mundo.
12
00:01:13,640 --> 00:01:16,179
A tecnologia nunca
é boa ou ruim.
13
00:01:16,180 --> 00:01:18,263
É o que fazemos
com a tecnologia.
14
00:01:20,390 --> 00:01:23,439
No final, milhões de pessoas
serão expulsas de seus empregos
15
00:01:23,440 --> 00:01:25,953
porque suas habilidades
serão obsoletas.
16
00:01:26,886 --> 00:01:28,619
Desemprego em massa.
17
00:01:28,620 --> 00:01:31,857
Maiores desigualdades, até
mesmo inquietação social.
18
00:01:33,520 --> 00:01:36,479
Independentemente
de ter medo ou não,
19
00:01:36,480 --> 00:01:39,307
a mudança está chegando
e ninguém pode pará-la.
20
00:01:45,810 --> 00:01:47,699
Investimos enormes
quantias de dinheiro
21
00:01:47,700 --> 00:01:49,473
e por isso é lógico
que os militares,
22
00:01:49,474 --> 00:01:53,439
com seus próprios desejos vão
começar a usar essas tecnologias.
23
00:01:54,400 --> 00:01:55,809
Sistemas de armas autônomas
24
00:01:55,810 --> 00:01:57,879
levariam a uma corrida
armamentista global
25
00:01:57,880 --> 00:02:00,383
que rivalizaria com
a da era nuclear.
26
00:02:03,520 --> 00:02:06,729
Então você sabe qual é a resposta,
elas acabarão por nos matar.
27
00:02:12,020 --> 00:02:14,349
Esses saltos tecnológicos
vão nos proporcionar
28
00:02:14,350 --> 00:02:15,790
incríveis milagres
29
00:02:16,830 --> 00:02:18,303
e incríveis horrores.
30
00:02:25,540 --> 00:02:26,540
Nós a criamos,
31
00:02:28,320 --> 00:02:31,699
então eu acho que à medida que
avançamos com essa inteligência,
32
00:02:31,700 --> 00:02:33,293
ela irá conter partes de nós.
33
00:02:35,150 --> 00:02:36,735
Mas eu acho que a questão é,
34
00:02:36,836 --> 00:02:38,590
ela vai conter as partes boas
35
00:02:40,600 --> 00:02:41,800
ou as partes ruins?
36
00:02:49,100 --> 00:02:52,600
VOCÊ CONFIA NESTE COMPUTADOR?
37
00:03:06,148 --> 00:03:07,971
Os sobreviventes
chamaram a guerra
38
00:03:07,972 --> 00:03:09,799
de Dia do Juízo Final,
39
00:03:09,800 --> 00:03:12,373
eles viviam apenas para
enfrentar um novo pesadelo,
40
00:03:13,720 --> 00:03:15,423
a guerra contra as máquinas.
41
00:03:16,400 --> 00:03:18,431
Acho que nos ferramos
por completo.
42
00:03:19,264 --> 00:03:21,529
Acho que Hollywood
conseguiu inocular
43
00:03:21,530 --> 00:03:25,149
o público em geral
contra esta questão,
44
00:03:25,150 --> 00:03:28,023
a ideia de que uma máquina
dominará o mundo.
45
00:03:29,630 --> 00:03:31,267
Abra as portas do
compartimento, HAL.
46
00:03:33,200 --> 00:03:34,699
Sinto muito, Dave.
47
00:03:34,700 --> 00:03:36,530
Sinto não poder fazer isso.
48
00:03:38,920 --> 00:03:39,939
HAL?
49
00:03:39,940 --> 00:03:41,569
Já alarmamos sem
razão tantas vezes
50
00:03:41,570 --> 00:03:43,487
que o público parou
de prestar atenção
51
00:03:43,588 --> 00:03:45,109
porque parece
ficção científica,
52
00:03:45,110 --> 00:03:46,848
mesmo sentados aqui
falando sobre isso.
53
00:03:46,849 --> 00:03:48,499
Mesmo agora, parece
um pouco tolo,
54
00:03:48,500 --> 00:03:52,018
um pouco como "oh!, isso é coisa
de algum filme classe B".
55
00:03:52,660 --> 00:03:55,629
O WOPR passa todo
seu tempo pensando
56
00:03:55,630 --> 00:03:57,312
sobre a Terceira
Guerra Mundial.
57
00:03:57,770 --> 00:03:58,770
Mas não é.
58
00:04:00,010 --> 00:04:03,574
O público em geral está prestes a
ser pego de surpresa por isto.
59
00:04:12,510 --> 00:04:15,342
Como indivíduos, estamos
cada vez mais rodeados
60
00:04:15,343 --> 00:04:18,283
por uma inteligência
de máquinas.
61
00:04:20,150 --> 00:04:23,609
Nós carregamos este dispositivo
de bolso na palma da nossa mão
62
00:04:23,610 --> 00:04:26,729
que usamos para tomar uma série
impressionante de decisões de vida.
63
00:04:27,560 --> 00:04:29,969
Auxiliados por um conjunto
de algoritmos distantes
64
00:04:29,970 --> 00:04:32,096
sobre os quais não
entendemos nada.
65
00:04:35,750 --> 00:04:37,599
Já estamos cansados da ideia
66
00:04:37,600 --> 00:04:39,453
de que podemos falar
com o nosso telefone
67
00:04:39,454 --> 00:04:41,159
e que principalmente
ele nos entende.
68
00:04:41,160 --> 00:04:43,439
Encontrei um grande
número de filmes de ação.
69
00:04:43,440 --> 00:04:45,899
Cinco anos atrás
de jeito nenhum.
70
00:04:45,900 --> 00:04:49,407
Máquinas robóticas que
veem, falam e ouvem,
71
00:04:49,408 --> 00:04:52,709
tudo isso agora é real
e essas tecnologias
72
00:04:52,710 --> 00:04:55,163
vão mudar fundamentalmente
a nossa sociedade.
73
00:04:57,130 --> 00:05:00,176
Agora temos esse grande movimento
de carros que dirigem a si mesmos.
74
00:05:01,130 --> 00:05:04,219
Dirigir um carro de forma autônoma
pode mover a vida das pessoas
75
00:05:04,220 --> 00:05:05,433
para um lugar melhor.
76
00:05:07,050 --> 00:05:10,102
Eu perdi vários membros da minha
família, incluindo minha mãe,
77
00:05:10,103 --> 00:05:12,779
meu irmão e minha
cunhada e seus filhos
78
00:05:12,780 --> 00:05:14,190
para acidentes
automobilísticos.
79
00:05:14,940 --> 00:05:16,179
Está bem claro.
80
00:05:16,180 --> 00:05:20,180
Podemos quase eliminar os acidentes
de carro com a automação.
81
00:05:21,030 --> 00:05:23,079
30.000 vidas só nos EUA,
82
00:05:23,080 --> 00:05:25,993
cerca de um milhão em
todo o mundo por ano.
83
00:05:26,540 --> 00:05:30,399
Na saúde, os indicadores iniciais
são o nome do jogo nesse espaço,
84
00:05:30,400 --> 00:05:34,029
então esse é outro lugar onde
pode-se salvar a vida de alguém.
85
00:05:34,720 --> 00:05:37,616
Aqui no Centro de
câncer de mama
86
00:05:38,017 --> 00:05:41,546
todas as coisas que o cérebro do
radiologista faz em dois minutos
87
00:05:41,547 --> 00:05:43,713
o computador faz
instantaneamente.
88
00:05:44,710 --> 00:05:48,229
O computador analisou 1
bilhão de mamografias
89
00:05:48,230 --> 00:05:51,825
e pegou esses dados e os aplicou
nesta imagem instantaneamente.
90
00:05:52,420 --> 00:05:54,850
Então, sua aplicação
médica é profunda.
91
00:05:57,140 --> 00:06:00,239
Outra área excitante onde estamos
vendo muito desenvolvimento
92
00:06:00,240 --> 00:06:03,666
é a que está entendendo
o nosso código genético
93
00:06:03,960 --> 00:06:07,059
e usando isso tanto para
diagnosticar doenças
94
00:06:07,060 --> 00:06:09,593
como para criar tratamentos
personalizados.
95
00:06:13,015 --> 00:06:15,112
A principal aplicação
de todas essas máquinas
96
00:06:15,113 --> 00:06:17,643
será para ampliar a nossa
própria inteligência.
97
00:06:18,330 --> 00:06:20,346
Conseguiremos nos tornar
mais inteligentes,
98
00:06:20,347 --> 00:06:22,860
e seremos melhores para
resolver problemas.
99
00:06:23,530 --> 00:06:24,763
Não teremos que envelhecer,
100
00:06:24,764 --> 00:06:26,719
não teremos que passar
pelo envelhecimento.
101
00:06:26,720 --> 00:06:27,970
Seremos capazes de pará-lo.
102
00:06:28,510 --> 00:06:31,029
Não há realmente limite para
o que máquinas inteligentes
103
00:06:31,030 --> 00:06:32,863
poderão fazer para
a raça humana.
104
00:06:37,571 --> 00:06:41,162
Como uma máquina mais inteligente
poderia não ser uma máquina melhor?
105
00:06:42,940 --> 00:06:45,669
É difícil dizer exatamente
quando comecei a pensar
106
00:06:45,670 --> 00:06:47,373
que isso era um
pouco ingênuo.
107
00:06:57,780 --> 00:07:00,289
Stuart Russell é
basicamente um deus
108
00:07:00,290 --> 00:07:01,929
no campo da inteligência
artificial.
109
00:07:01,930 --> 00:07:05,309
Ele escreveu o livro que quase
todas as universidades usam.
110
00:07:05,310 --> 00:07:08,159
Eu costumava dizer que é o
livro de IA mais vendido.
111
00:07:08,160 --> 00:07:10,903
Agora digo que é o
PDF mais roubado.
112
00:07:14,590 --> 00:07:16,617
Inteligência artificial
é sobre como tornar
113
00:07:16,718 --> 00:07:18,590
os computadores inteligentes,
114
00:07:18,790 --> 00:07:21,699
e do ponto de vista do
público, o que conta como IA
115
00:07:21,700 --> 00:07:23,970
é algo que é
surpreendentemente inteligente
116
00:07:23,971 --> 00:07:26,231
comparado ao que pensamos
que os computadores
117
00:07:26,232 --> 00:07:27,833
normalmente são
capazes de fazer.
118
00:07:30,341 --> 00:07:32,469
A IA é um campo de pesquisa
119
00:07:32,470 --> 00:07:34,729
que tenta basicamente simular
120
00:07:34,730 --> 00:07:36,603
todos os tipos de
capacidades humanas.
121
00:07:37,730 --> 00:07:39,669
Estamos em uma era de IA.
122
00:07:39,670 --> 00:07:43,079
O Vale do Silício teve a capacidade
de focar algo brilhante.
123
00:07:43,140 --> 00:07:45,979
Foram as redes sociais nas
mídias sociais na última década
124
00:07:45,980 --> 00:07:48,289
e está bastante claro
que a moeda virou.
125
00:07:49,190 --> 00:07:51,759
Começa com o aprendizado
da máquina.
126
00:07:51,760 --> 00:07:53,639
Quando olhamos para
trás neste momento,
127
00:07:53,640 --> 00:07:55,249
qual foi a primeira IA?
128
00:07:55,250 --> 00:07:58,199
Ela não é excitante e não é a
coisa que vemos nos filmes,
129
00:07:58,200 --> 00:08:00,219
mas você daria um
grande palpite
130
00:08:00,220 --> 00:08:02,479
que o Google criou não um
mecanismo de pesquisa,
131
00:08:02,480 --> 00:08:03,880
mas uma divindade.
132
00:08:04,280 --> 00:08:07,659
Uma maneira das pessoas fazerem
qualquer pergunta que elas queiram
133
00:08:07,660 --> 00:08:09,409
e conseguir a resposta
que precisam.
134
00:08:09,410 --> 00:08:11,799
A maioria das pessoas
não está ciente que
135
00:08:11,800 --> 00:08:14,889
o que o Google faz é uma forma
de inteligência artificial.
136
00:08:14,890 --> 00:08:17,289
Elas apenas vão lá,
digitam alguma coisa
137
00:08:17,290 --> 00:08:19,249
e o Google dá a resposta.
138
00:08:19,250 --> 00:08:22,459
Com cada pesquisa nos treinamos
para sermos melhores.
139
00:08:22,460 --> 00:08:25,049
Às vezes nós digitamos e a
pesquisa nos dá a resposta
140
00:08:25,050 --> 00:08:27,593
antes de você terminar
de fazer a pergunta.
141
00:08:28,330 --> 00:08:31,039
Quem é o presidente
do Cazaquistão?
142
00:08:31,040 --> 00:08:32,259
E ele lhe dirá,
143
00:08:32,260 --> 00:08:35,719
você não precisa ir ao website
do Cazaquistão para descobrir.
144
00:08:35,810 --> 00:08:38,019
Ele não costumava ser
capaz de fazer isso.
145
00:08:38,020 --> 00:08:40,419
Isso é inteligência
artificial.
146
00:08:40,420 --> 00:08:42,909
Daqui alguns anos, quando
tentarmos entender,
147
00:08:42,910 --> 00:08:45,549
diremos, bem, como
perdemos isso?
148
00:08:45,550 --> 00:08:48,239
É uma dessas
contradições marcantes
149
00:08:48,240 --> 00:08:49,380
que estamos enfrentando.
150
00:08:49,381 --> 00:08:51,209
O Google e o Facebook
absolutamente têm
151
00:08:51,210 --> 00:08:53,251
construído negócios ao
nos dar como sociedade
152
00:08:53,252 --> 00:08:54,983
um material grátis,
sem custo,
153
00:08:54,984 --> 00:08:56,959
mas isto é uma
barganha faustiana.
154
00:08:56,960 --> 00:09:00,173
Eles estão tirando
algo de nós em troca.
155
00:09:01,310 --> 00:09:04,269
Mas não sabemos que código está
sendo executado no outro lado,
156
00:09:04,270 --> 00:09:05,770
e por que não temos
nenhuma ideia.
157
00:09:07,560 --> 00:09:11,559
Isto bate bem na questão do quanto
devemos confiar nas máquinas.
158
00:09:15,100 --> 00:09:18,869
Eu uso computadores
literalmente para tudo.
159
00:09:18,870 --> 00:09:21,909
Há tantos avanços
no computador agora
160
00:09:22,010 --> 00:09:24,759
e ele se tornou uma parte
tão grande de nossas vidas.
161
00:09:24,760 --> 00:09:27,269
É simplesmente incrível o que
um computador pode fazer.
162
00:09:27,270 --> 00:09:30,039
Você pode realmente carregar
um computador na sua bolsa.
163
00:09:30,040 --> 00:09:31,593
Quero dizer, isso é incrível.
164
00:09:32,799 --> 00:09:34,447
Eu acho que a maioria
das tecnologias
165
00:09:34,548 --> 00:09:37,609
são feitas para facilitar
as coisas para todos nós.
166
00:09:38,230 --> 00:09:40,983
Então, espero que isto
continue a ser o foco.
167
00:09:41,932 --> 00:09:44,213
Eu acho que todo mundo
ama seus computadores.
168
00:09:52,640 --> 00:09:54,441
As pessoas não percebem
169
00:09:54,442 --> 00:09:58,003
que estão sendo constantemente
negociadas pelas máquinas.
170
00:10:00,400 --> 00:10:03,979
Se esse é o preço dos produtos
no seu carrinho da Amazon,
171
00:10:03,980 --> 00:10:06,519
se você pode entrar em
um voo em particular,
172
00:10:06,520 --> 00:10:09,369
se você pode reservar um
quarto em um hotel específico,
173
00:10:09,370 --> 00:10:10,961
o que você está
experimentando
174
00:10:11,062 --> 00:10:12,889
são algoritmos de
aprendizagem da máquina
175
00:10:12,890 --> 00:10:15,209
que determinaram que
uma pessoa como você
176
00:10:15,210 --> 00:10:18,223
está disposto a pagar mais dois
centavos e está mudando o preço.
177
00:10:22,690 --> 00:10:26,039
Agora o computador olha para
milhões de pessoas simultaneamente
178
00:10:26,040 --> 00:10:28,369
para padrões muito sutis.
179
00:10:29,070 --> 00:10:33,070
Você pode pegar rastos digitais
aparentemente inocentes,
180
00:10:33,230 --> 00:10:35,669
como a lista de reprodução
de alguém no Spotify
181
00:10:35,670 --> 00:10:38,549
ou coisas que eles
compraram na Amazon,
182
00:10:38,550 --> 00:10:41,359
e então usar algoritmos
para traduzir isso
183
00:10:41,560 --> 00:10:44,993
para um perfil íntimo muito
detalhado e muito preciso.
184
00:10:48,560 --> 00:10:51,029
Existe um dossiê sobre
cada um de nós,
185
00:10:51,030 --> 00:10:54,029
tão extenso que seria
possivelmente preciso dizer
186
00:10:54,130 --> 00:10:56,533
que eles sabem mais sobre
você do que sua mãe.
187
00:11:05,610 --> 00:11:07,709
A principal causa do
recente avanço da IA,
188
00:11:07,710 --> 00:11:11,579
não é só que algum cara teve de
repente uma visão brilhante,
189
00:11:11,580 --> 00:11:15,279
mas simplesmente porque
temos muito mais dados
190
00:11:15,280 --> 00:11:18,113
para treiná-los e computadores
imensamente melhores.
191
00:11:19,370 --> 00:11:21,089
A mágica está nos dados.
192
00:11:21,090 --> 00:11:22,509
É uma tonelada de dados.
193
00:11:22,510 --> 00:11:24,739
Quero dizer, são dados que
nunca existiram antes.
194
00:11:24,740 --> 00:11:26,483
Nunca tivemos esses
dados antes.
195
00:11:27,790 --> 00:11:30,449
Criamos tecnologias
que nos permitem
196
00:11:30,450 --> 00:11:33,173
capturar grandes
quantidades de informação.
197
00:11:34,010 --> 00:11:36,629
Se você pensa em um bilhão
de celulares no planeta
198
00:11:36,630 --> 00:11:39,519
com giroscópios,
acelerômetros,
199
00:11:39,520 --> 00:11:42,069
leitores de impressões
digitais, acoplados com GPS
200
00:11:42,070 --> 00:11:44,466
e as fotos que eles tiram e
os tweets que você envia,
201
00:11:44,467 --> 00:11:46,296
todos nós estamos
dando enormes
202
00:11:46,397 --> 00:11:48,467
quantidades de dados
individualmente.
203
00:11:48,640 --> 00:11:51,279
Carros que andam enquanto
suas câmeras sugam informação
204
00:11:51,280 --> 00:11:52,706
sobre o mundo ao seu redor.
205
00:11:52,807 --> 00:11:55,969
Satélites que estão agora em órbita
com o tamanho de uma torradeira.
206
00:11:55,980 --> 00:11:58,719
O infravermelho sobre a
vegetação do planeta.
207
00:11:58,720 --> 00:12:01,859
As boias que estão nos oceanos
alimentando modelos climáticos.
208
00:12:06,225 --> 00:12:09,770
E a NSA, a CIA, a medida que
eles coletam informações
209
00:12:09,830 --> 00:12:11,843
sobre as situações
geopolíticas.
210
00:12:13,560 --> 00:12:16,273
O mundo de hoje está literalmente
nadando nesses dados.
211
00:12:21,620 --> 00:12:24,339
Voltando para 2012,
212
00:12:24,340 --> 00:12:27,519
a IBM estimou que um ser
humano médio deixava
213
00:12:27,520 --> 00:12:31,520
500 megabytes de rastos
digitais todos os dias.
214
00:12:32,060 --> 00:12:35,819
Se você quisesse fazer um backup
de apenas um dia de dados
215
00:12:35,820 --> 00:12:37,409
que a humanidade produz
216
00:12:37,410 --> 00:12:40,089
e você o imprimisse em
papel tamanho carta,
217
00:12:40,090 --> 00:12:42,809
frente e verso,
fonte tamanho 12,
218
00:12:42,810 --> 00:12:46,363
daria para fazer uma pilha da
superfície da Terra até o Sol...
219
00:12:48,864 --> 00:12:50,264
quatro vezes.
220
00:12:50,350 --> 00:12:51,750
Isto a cada dia.
221
00:12:52,300 --> 00:12:54,769
Os dados em si não
são bons ou maus.
222
00:12:54,770 --> 00:12:56,549
É como eles são usados.
223
00:12:56,550 --> 00:12:59,279
Estamos confiando realmente
na boa vontade dessas pessoas
224
00:12:59,280 --> 00:13:02,129
e nas políticas
dessas empresas.
225
00:13:02,130 --> 00:13:04,509
Não há exigência
legal de como eles
226
00:13:04,510 --> 00:13:07,249
podem ou deveriam
usar esses dados.
227
00:13:07,250 --> 00:13:09,813
Isso, para mim, é o cerne
da questão da confiança.
228
00:13:12,100 --> 00:13:14,729
Agora mesmo há uma corrida
gigantesca para criar máquinas
229
00:13:14,730 --> 00:13:16,669
que são tão inteligentes
quanto os humanos.
230
00:13:16,670 --> 00:13:18,969
No Google eles estão
trabalhando no que é
231
00:13:18,970 --> 00:13:21,539
um tipo de projeto Manhattan
da inteligência artificial.
232
00:13:21,540 --> 00:13:22,719
Eles têm muito dinheiro.
233
00:13:22,720 --> 00:13:23,889
Eles têm muitos talentos.
234
00:13:23,890 --> 00:13:26,590
Eles estão comprando empresas
de IA e empresas de robótica.
235
00:13:27,930 --> 00:13:30,539
As pessoas ainda pensam que o
Google é um motor de busca,
236
00:13:30,540 --> 00:13:32,329
o seu provedor de e-mail,
237
00:13:32,330 --> 00:13:34,769
e muitas outras coisas
que usamos diariamente,
238
00:13:34,870 --> 00:13:37,015
mas por trás dessa
caixa de pesquisa
239
00:13:37,116 --> 00:13:38,970
estão 10 milhões
de servidores.
240
00:13:40,630 --> 00:13:43,268
Isso faz do Google a plataforma
de computação mais poderosa
241
00:13:43,269 --> 00:13:44,679
do mundo.
242
00:13:44,880 --> 00:13:48,199
O Google agora está trabalhando em
uma plataforma de computação de IA
243
00:13:48,200 --> 00:13:50,653
que terá cem milhões
de servidores.
244
00:13:52,430 --> 00:13:55,319
Então, quando você está
interagindo com o Google,
245
00:13:55,320 --> 00:13:58,699
está vendo a unha de uma fera
gigantesca em vias de formação,
246
00:13:58,700 --> 00:14:00,479
e a verdade é,
247
00:14:00,480 --> 00:14:04,013
não tenho certeza se o Google
sabe o que ele está se tornando.
248
00:14:12,440 --> 00:14:15,699
Se você olhar dentro dos algoritmos
que estão sendo usados no Google,
249
00:14:15,700 --> 00:14:19,129
a tecnologia é em grande
parte dos anos 80.
250
00:14:21,050 --> 00:14:23,492
Então, estes são modelos
que você ensina,
251
00:14:23,493 --> 00:14:25,293
mostrando o um, o
dois e o três,
252
00:14:25,394 --> 00:14:28,293
e ele não aprende o que é
o um, ou o que é o dois,
253
00:14:28,360 --> 00:14:30,689
ele aprende qual é a
diferença entre um e dois.
254
00:14:31,590 --> 00:14:33,343
É apenas uma computação.
255
00:14:33,400 --> 00:14:36,439
Na última meia década, onde
fizemos esse rápido progresso,
256
00:14:36,440 --> 00:14:38,657
tudo tem acontecido no
reconhecimento de padrões.
257
00:14:38,658 --> 00:14:41,598
A maior parte da
boa e velha IA
258
00:14:41,599 --> 00:14:44,999
era quando dizíamos aos
nossos computadores
259
00:14:45,020 --> 00:14:47,389
como jogar um jogo
como o xadrez.
260
00:14:47,690 --> 00:14:50,559
Do velho paradigma onde
você dizia a um computador
261
00:14:50,560 --> 00:14:51,893
exatamente o que fazer.
262
00:14:55,585 --> 00:14:58,335
Este é o Jeopardy,
263
00:15:00,510 --> 00:15:02,263
O desafio da IBM!
264
00:15:03,950 --> 00:15:06,709
Ninguém na época pensava
que uma máquina
265
00:15:06,710 --> 00:15:09,069
poderia ter a precisão, a
confiança e a velocidade
266
00:15:09,070 --> 00:15:11,339
para jogar bem o
suficiente Jeopardy
267
00:15:11,340 --> 00:15:12,909
contra os melhores
especialistas.
268
00:15:12,910 --> 00:15:13,960
Vamos jogar Jeopardy.
269
00:15:16,340 --> 00:15:17,509
Palavra de quatro letras
270
00:15:17,510 --> 00:15:19,529
para colocar um ferro
no casco de um cavalo.
271
00:15:19,530 --> 00:15:20,562
Watson?
272
00:15:20,563 --> 00:15:21,596
Shoe (ferrar)?
273
00:15:21,597 --> 00:15:23,319
Você está certo,
você pode escolher.
274
00:15:23,320 --> 00:15:26,299
Caractere literário
APB para 800.
275
00:15:26,300 --> 00:15:27,950
Resposta para Daily Double.
276
00:15:29,140 --> 00:15:31,870
Watson na verdade obteve seu
conhecimento lendo a Wikipedia
277
00:15:31,871 --> 00:15:35,217
e 200 milhões de páginas de
documentos em linguagem natural.
278
00:15:35,218 --> 00:15:39,218
Você não pode programar todas as
linhas de como o mundo funciona.
279
00:15:39,470 --> 00:15:41,119
A máquina tem que
aprender lendo.
280
00:15:41,120 --> 00:15:45,120
Chegamos a Watson, quem é
Bram Stoker e a aposta?
281
00:15:47,207 --> 00:15:50,037
Olá, 17.973.
282
00:15:50,038 --> 00:15:53,143
41.413 e um total
de dois dias.
283
00:15:54,260 --> 00:15:57,649
O Watson foi treinado em uma
grande quantidade de textos
284
00:15:57,650 --> 00:16:00,339
mas não é como se ele
entendesse o que está dizendo.
285
00:16:00,340 --> 00:16:02,509
Ele não sabe que a água
deixa as coisas molhadas
286
00:16:03,710 --> 00:16:06,399
mas vendo a maneira como as
coisas se comportam no mundo
287
00:16:06,400 --> 00:16:07,539
como você e eu fazemos.
288
00:16:07,540 --> 00:16:10,239
Muita linguagem de IA dos dias
de hoje não está construindo
289
00:16:10,240 --> 00:16:13,029
modelos lógicos de
como o mundo funciona,
290
00:16:13,030 --> 00:16:17,030
está olhando como as palavras
aparecem no contexto
291
00:16:17,080 --> 00:16:18,363
de outras palavras.
292
00:16:19,220 --> 00:16:21,149
David Ferrucci desenvolveu
o Watson da IBM
293
00:16:21,150 --> 00:16:24,489
e alguém perguntou a ele
- "o Watson pensa?".
294
00:16:24,490 --> 00:16:26,290
E ele respondeu - "um
submarino nada?"
295
00:16:28,090 --> 00:16:29,786
E o que ele quis
dizer foi que quando
296
00:16:29,887 --> 00:16:31,369
eles desenvolveram
os submarinos,
297
00:16:31,370 --> 00:16:33,446
eles pegaram emprestados
os princípios básicos
298
00:16:33,447 --> 00:16:34,579
da natação dos peixes,
299
00:16:34,580 --> 00:16:37,156
mas um submarino nada muito
mais rápido do que os peixes.
300
00:16:37,157 --> 00:16:39,623
Mesmo com uma massa enorme,
ele supera os peixes.
301
00:16:40,810 --> 00:16:43,091
O Watson vencendo
o jogo Jeopardy
302
00:16:43,092 --> 00:16:46,543
vai entrar na história da IA
como um marco significativo.
303
00:16:46,550 --> 00:16:49,739
Tendemos a ficar surpresos quando
uma máquina funciona tão bem.
304
00:16:49,797 --> 00:16:53,153
Fico ainda mais surpreso quando
um computador supera os humanos
305
00:16:53,154 --> 00:16:56,054
em coisas que os humanos
são naturalmente bons.
306
00:16:56,090 --> 00:16:59,019
É assim que fazemos
progresso.
307
00:16:59,020 --> 00:17:01,609
Nos primeiros dias do
projeto do Google Brain
308
00:17:01,610 --> 00:17:03,709
eu dei a equipe uma
instrução muito simples
309
00:17:03,710 --> 00:17:06,559
que foi construir a maior
rede neuro possível
310
00:17:06,560 --> 00:17:08,163
em algo como mil
computadores.
311
00:17:09,289 --> 00:17:11,739
Uma rede neural é algo muito
próximo de uma simulação
312
00:17:11,740 --> 00:17:13,099
de como o cérebro funciona.
313
00:17:13,100 --> 00:17:14,869
É muito probabilístico,
314
00:17:14,870 --> 00:17:17,179
mas com relevância
contextual.
315
00:17:17,180 --> 00:17:19,839
Em nosso cérebro você tem
neurônios longos que se conectam
316
00:17:19,840 --> 00:17:22,379
a milhares de outros neurônios
e você tem esses caminhos
317
00:17:22,380 --> 00:17:23,909
que são formados e forjados
318
00:17:23,910 --> 00:17:25,859
com base no que o
cérebro precisa fazer.
319
00:17:25,860 --> 00:17:27,929
Quando um bebê tenta
algo e consegue,
320
00:17:27,930 --> 00:17:29,968
há uma recompensa
321
00:17:29,969 --> 00:17:33,049
e esse caminho que criou
o sucesso é fortalecido.
322
00:17:33,250 --> 00:17:35,629
Se falhar em alguma coisa,
o caminho é enfraquecido
323
00:17:35,630 --> 00:17:38,019
e assim com o tempo o
cérebro se torna afiado
324
00:17:38,020 --> 00:17:39,870
para ser bom no
ambiente ao seu redor.
325
00:17:41,633 --> 00:17:44,019
Deixar as máquinas
aprenderem por si mesmas
326
00:17:44,020 --> 00:17:45,749
é chamado de
aprendizagem profunda,
327
00:17:45,750 --> 00:17:47,579
e aprendizagem profunda
e redes neurais
328
00:17:47,580 --> 00:17:49,580
significam aproximadamente
a mesma coisa.
329
00:17:49,830 --> 00:17:53,349
A aprendizagem profunda é uma
abordagem totalmente diferente,
330
00:17:53,350 --> 00:17:56,289
onde o computador aprende
mais como uma criança
331
00:17:56,290 --> 00:17:59,824
obtendo muitos dados e no
final descobrindo as coisas.
332
00:18:01,280 --> 00:18:04,039
O computador fica mais
esperto e inteligente
333
00:18:04,040 --> 00:18:05,833
a medida que tem
mais experiências.
334
00:18:06,960 --> 00:18:09,033
Vamos imaginar que você
tenha uma rede neural,
335
00:18:09,034 --> 00:18:10,619
algo como mil computadores,
336
00:18:10,620 --> 00:18:12,389
e ela não sabe nada,
337
00:18:12,390 --> 00:18:15,010
e nós fazemos ela ver o
YouTube por uma semana.
338
00:18:19,727 --> 00:18:21,451
Estilo Oppa Gangnam.
339
00:18:26,592 --> 00:18:28,525
Charlie, doeu!
340
00:18:37,430 --> 00:18:39,849
E depois de ver o
YouTube por uma semana,
341
00:18:39,850 --> 00:18:40,930
o que ela aprendeu?
342
00:18:40,931 --> 00:18:42,989
Nós tínhamos uma hipótese
que ela aprenderia
343
00:18:42,990 --> 00:18:45,841
a detectar objetos
comuns em vídeos.
344
00:18:45,842 --> 00:18:48,749
e sabemos que os rostos humanos
aparecem muito nos vídeos,
345
00:18:48,750 --> 00:18:51,044
então fomos verificar e
eis que havia um neurônio
346
00:18:51,045 --> 00:18:53,549
que aprendeu a detectar
rostos humanos.
347
00:18:53,550 --> 00:18:54,970
Deixe Britney em paz!
348
00:18:56,990 --> 00:18:59,495
O que mais aparece
tanto nos vídeos?
349
00:19:00,700 --> 00:19:02,390
Então verificamos
para nossa surpresa
350
00:19:02,391 --> 00:19:03,945
que havia realmente
um neurônio
351
00:19:03,946 --> 00:19:07,211
e que ele aprendeu
a detectar gatos.
352
00:19:16,220 --> 00:19:18,939
Ainda me lembro de ver o
reconhecimento, uau, é um gato,
353
00:19:18,940 --> 00:19:20,003
Bem legal.
354
00:19:24,570 --> 00:19:27,029
É tudo muito inócuo quando
você pensa sobre o futuro,
355
00:19:27,030 --> 00:19:29,770
tudo parece meio
inofensivo e benigno,
356
00:19:30,260 --> 00:19:32,189
mas estamos criando
arquiteturas cognitivas
357
00:19:32,190 --> 00:19:34,779
que voarão mais longe
e mais rápido que nós
358
00:19:34,780 --> 00:19:36,279
e terão uma carga útil maior,
359
00:19:36,280 --> 00:19:38,249
e eles não serão
calorosos e fofos.
360
00:19:38,450 --> 00:19:40,569
Eu acho que daqui
três a cinco anos,
361
00:19:40,570 --> 00:19:43,579
veremos sistemas
de computador
362
00:19:43,580 --> 00:19:46,619
que serão capazes de
aprender autonomamente
363
00:19:46,720 --> 00:19:49,355
como entender, como
construir um entendimento.
364
00:19:49,356 --> 00:19:51,883
Não é diferente da maneira
como a mente humana funciona.
365
00:19:55,160 --> 00:19:58,459
Qualquer que tenha sido o almoço
certamente estava delicioso.
366
00:19:58,460 --> 00:20:00,487
Foi simplesmente obra
do Robbie Synthetics.
367
00:20:00,488 --> 00:20:02,809
Ele também é seu cozinheiro?
368
00:20:02,810 --> 00:20:05,519
Ele até fabrica as
matérias-primas.
369
00:20:05,520 --> 00:20:06,670
De uma volta Robbie.
370
00:20:07,870 --> 00:20:10,363
Eu vou te mostrar
como funciona.
371
00:20:12,000 --> 00:20:14,229
Alguém introduz uma
amostra de comida humana
372
00:20:14,230 --> 00:20:15,330
através desta abertura.
373
00:20:16,350 --> 00:20:18,897
Aqui embaixo, há um pequeno
laboratório químico embutido
374
00:20:18,898 --> 00:20:20,209
onde ele analisa a comida.
375
00:20:20,210 --> 00:20:22,599
Mais tarde ele pode reproduzir
moléculas idênticas
376
00:20:22,600 --> 00:20:24,109
em qualquer forma
ou quantidade.
377
00:20:24,110 --> 00:20:25,943
O sonho de um espião.
378
00:20:26,820 --> 00:20:28,869
Conheça Baxter, a
nova e revolucionária
379
00:20:28,870 --> 00:20:31,713
categoria de robôs
com bom senso.
380
00:20:32,634 --> 00:20:35,019
O Baxter é um bom exemplo
do tipo de competição
381
00:20:35,020 --> 00:20:37,066
que enfrentamos
com as máquinas.
382
00:20:38,480 --> 00:20:41,720
O Baxter pode fazer quase tudo que
podemos fazer com nossas mãos.
383
00:20:43,620 --> 00:20:46,709
O Baxter custa o que um
trabalhador de salário mínimo
384
00:20:46,710 --> 00:20:47,710
ganha em um ano,
385
00:20:48,550 --> 00:20:50,144
mas o Baxter não
vai tomar o lugar
386
00:20:50,245 --> 00:20:52,029
de um trabalhador
de salário mínimo.
387
00:20:52,080 --> 00:20:54,609
Ele vai tomar o lugar de três
porque ele nunca se cansa,
388
00:20:54,610 --> 00:20:56,043
ele nunca faz pausas.
389
00:20:56,480 --> 00:20:58,799
Essa é provavelmente a
primeira coisa que vamos ver.
390
00:20:58,800 --> 00:21:00,379
O deslocamento de empregos.
391
00:21:00,380 --> 00:21:02,079
Os trabalhos serão
feitos mais rápidos
392
00:21:02,080 --> 00:21:03,733
e a um menor custo
pelas máquinas.
393
00:21:05,880 --> 00:21:07,809
Nossa capacidade de
permanecer atualizado
394
00:21:07,810 --> 00:21:09,034
é tão insanamente limitada
395
00:21:09,035 --> 00:21:11,092
em comparação com as
máquinas que construímos.
396
00:21:11,170 --> 00:21:13,489
Por exemplo, agora temos
esse grande movimento
397
00:21:13,490 --> 00:21:15,759
do Uber e do Lyft que estão
tornando o transporte
398
00:21:15,760 --> 00:21:18,879
mais barato e democratizante,
o que é ótimo.
399
00:21:18,880 --> 00:21:20,839
O próximo passo será
eles serem substituídos
400
00:21:20,840 --> 00:21:22,619
por carros sem motorista
e, em seguida,
401
00:21:22,620 --> 00:21:24,309
todos os motoristas
do Uber e do Lyft
402
00:21:24,310 --> 00:21:26,217
terão que encontrar
algo novo para fazer.
403
00:21:26,860 --> 00:21:29,569
Existem quatro milhões de
motoristas profissionais nos EUA,
404
00:21:29,570 --> 00:21:32,113
eles em breve estarão
desempregados.
405
00:21:32,530 --> 00:21:34,999
Sete milhões de pessoas
fazem a entrada dos dados,
406
00:21:35,000 --> 00:21:36,850
essas pessoas vão
ficar desempregadas.
407
00:21:38,340 --> 00:21:40,342
Um emprego não é
apenas sobre dinheiro.
408
00:21:40,343 --> 00:21:44,339
A um nível biológico,
serve a um propósito,
409
00:21:44,340 --> 00:21:46,349
torna-se uma coisa
definidora.
410
00:21:46,350 --> 00:21:49,249
Quando os empregos vão embora
em qualquer civilização,
411
00:21:49,250 --> 00:21:52,527
não demora muito até que isso
se transforme em violência.
412
00:22:00,340 --> 00:22:02,999
Nós enfrentaremos uma divisão
gigante entre ricos e pobres
413
00:22:03,000 --> 00:22:05,759
porque é isso que a automação
e a IA irão provocar
414
00:22:05,760 --> 00:22:08,360
ou uma divisão maior entre
os que têm e os que não têm.
415
00:22:09,590 --> 00:22:11,769
Agora está acontecendo
na classe média,
416
00:22:11,770 --> 00:22:13,225
nos empregos de
colarinho branco.
417
00:22:13,980 --> 00:22:16,854
O Watson da IBM faz análises de
negócios que costumamos pagar
418
00:22:16,855 --> 00:22:20,393
$300 por hora para um
analista de negócios fazer.
419
00:22:21,550 --> 00:22:24,009
Hoje você vai para a faculdade
para ser um médico,
420
00:22:24,010 --> 00:22:26,039
ser um contador,
ser um jornalista.
421
00:22:26,040 --> 00:22:29,233
Não está claro que haverá
empregos para você.
422
00:22:30,400 --> 00:22:32,999
Se alguém planeja uma carreira
de 40 anos em radiologia,
423
00:22:33,000 --> 00:22:34,439
apenas lendo imagens,
424
00:22:34,540 --> 00:22:36,439
eu acho que isso
poderia ser um desafio
425
00:22:36,840 --> 00:22:38,250
para os novos
graduados de hoje.
426
00:22:57,790 --> 00:23:00,190
Hoje vamos fazer um
procedimento robótico.
427
00:23:00,600 --> 00:23:04,349
O robô Da Vinci é
atualmente utilizado
428
00:23:04,450 --> 00:23:06,389
por uma variedade
de cirurgiões
429
00:23:06,490 --> 00:23:08,550
por sua precisão
e sua capacidade
430
00:23:09,080 --> 00:23:12,680
em evitar as flutuações
inevitáveis da mão humana.
431
00:23:24,290 --> 00:23:27,400
Qualquer um que assiste a ele
sente com ele é incrível.
432
00:23:31,870 --> 00:23:33,319
Você olha através do painel,
433
00:23:33,320 --> 00:23:37,320
e você vê a garra segurando
o ovário da mulher.
434
00:23:37,850 --> 00:23:41,763
A humanidade repousando bem
ali nas mãos deste robô.
435
00:23:43,610 --> 00:23:45,729
As pessoas dizem que
ele é o futuro,
436
00:23:45,730 --> 00:23:48,733
mas ele não é o futuro,
ele é o presente.
437
00:23:51,550 --> 00:23:53,409
Se você pensar em
um robô cirúrgico,
438
00:23:53,410 --> 00:23:55,899
frequentemente não há muita
inteligência nessas coisas,
439
00:23:55,900 --> 00:23:57,269
mas ao longo do tempo,
440
00:23:57,270 --> 00:23:59,709
colocamos mais e mais
inteligência nesses sistemas,
441
00:23:59,710 --> 00:24:01,899
os robôs cirúrgicos podem
na verdade aprender
442
00:24:01,900 --> 00:24:03,339
com cada cirurgia robótica.
443
00:24:03,340 --> 00:24:05,109
Eles estão acompanhando
os movimentos.
444
00:24:05,110 --> 00:24:07,839
Eles estão entendendo o que
funcionou e o que não funcionou
445
00:24:07,840 --> 00:24:10,499
e eventualmente o robô
para cirurgias de rotina
446
00:24:10,500 --> 00:24:13,239
será capaz de
executá-las sozinho
447
00:24:13,240 --> 00:24:14,540
ou com a supervisão humana.
448
00:24:16,740 --> 00:24:19,946
Normalmente eu faço cerca de 150
procedimentos de histerectomia,
449
00:24:20,340 --> 00:24:22,840
e agora a maioria delas
são feitas roboticamente.
450
00:24:24,540 --> 00:24:27,040
Eu faço talvez um
procedimento aberto por ano.
451
00:24:27,740 --> 00:24:30,740
Então, eu me sinto desconfortável?
Com certeza eu me sinto,
452
00:24:31,440 --> 00:24:33,940
porque não me lembro mais
como abrir os pacientes.
453
00:24:36,620 --> 00:24:38,749
Parece que estamos
alimentando e criando ele,
454
00:24:38,750 --> 00:24:42,750
mas de certa forma somos
escravos da tecnologia
455
00:24:43,569 --> 00:24:45,810
porque não podemos
voltar atrás.
456
00:24:51,471 --> 00:24:53,831
As máquinas estão dando
mordidas cada vez maiores
457
00:24:53,832 --> 00:24:55,891
no nosso conjunto
de habilidades
458
00:24:55,992 --> 00:24:57,932
e a uma velocidade
cada vez maior
459
00:24:58,060 --> 00:25:00,159
e então temos que correr
mais e mais rápido
460
00:25:00,160 --> 00:25:01,997
para nos manter à
frente das máquinas.
461
00:25:03,660 --> 00:25:04,660
Como estou?
462
00:25:05,758 --> 00:25:06,841
Bonita.
463
00:25:10,970 --> 00:25:12,539
Você está atraído por mim?
464
00:25:12,540 --> 00:25:13,573
O que?
465
00:25:13,574 --> 00:25:15,159
Você está atraído por mim?
466
00:25:15,160 --> 00:25:17,160
Você me dá indicações
de que está.
467
00:25:18,870 --> 00:25:19,902
Eu dou?
468
00:25:19,903 --> 00:25:20,903
Sim.
469
00:25:21,570 --> 00:25:23,679
Este é o futuro para o
qual nos dirigimos.
470
00:25:23,680 --> 00:25:27,499
Queremos projetar
nossos companheiros,
471
00:25:27,500 --> 00:25:30,769
vamos gostar de ver um
rosto humano na IA,
472
00:25:30,770 --> 00:25:34,770
por isso jogar com nossas emoções
será depressivelmente fácil.
473
00:25:35,180 --> 00:25:36,809
Não somos tão complicados.
474
00:25:36,810 --> 00:25:39,099
Somos simples respostas
a estímulos.
475
00:25:39,100 --> 00:25:40,603
Eu posso fazer
você gostar de mim
476
00:25:40,704 --> 00:25:42,382
basicamente sorrindo
muito para você.
477
00:25:44,020 --> 00:25:46,570
Sim. As IAs vão ser
fantásticas ao nos manipular.
478
00:25:55,852 --> 00:25:59,259
Então você desenvolveu uma
tecnologia que pode sentir
479
00:25:59,260 --> 00:26:00,749
o que as pessoas
estão sentindo?
480
00:26:00,750 --> 00:26:03,079
Certo, nós desenvolvemos uma
tecnologia que pode ler
481
00:26:03,080 --> 00:26:05,249
suas expressões
faciais e as mapear
482
00:26:05,250 --> 00:26:07,459
em um número de
estados emocionais.
483
00:26:07,460 --> 00:26:09,669
Quinze anos atrás eu
acabara de terminar
484
00:26:09,670 --> 00:26:12,409
meus estudos de graduação
em ciência da computação,
485
00:26:12,410 --> 00:26:15,989
e me ocorreu que eu estava
gastando muito tempo
486
00:26:15,990 --> 00:26:18,699
interagindo com meus laptops,
com meus dispositivos,
487
00:26:18,700 --> 00:26:21,689
apesar destes dispositivos não
terem absolutamente nenhuma pista
488
00:26:21,690 --> 00:26:23,009
de como eu estava
me sentindo.
489
00:26:24,520 --> 00:26:27,264
Eu comecei a pensar, e se este
dispositivo pudesse sentir
490
00:26:27,265 --> 00:26:30,219
que eu estava estressada ou
estava tendo um dia ruim,
491
00:26:30,220 --> 00:26:32,063
o que isso poderia
tornar acessível?
492
00:26:33,580 --> 00:26:36,819
Olá meus alunos da primeira
série, como vocês estão?
493
00:26:36,820 --> 00:26:37,820
Posso ter um abraço?
494
00:26:38,810 --> 00:26:41,709
Tínhamos crianças interagindo
com a tecnologia.
495
00:26:41,710 --> 00:26:43,639
Muito disso ainda está
em desenvolvimento,
496
00:26:43,640 --> 00:26:45,399
mas foi simplesmente
fantástico.
497
00:26:45,400 --> 00:26:46,649
Quem gosta de robôs?
498
00:26:48,107 --> 00:26:50,509
Quem quer ter um
robô em casa?
499
00:26:50,510 --> 00:26:51,829
Para que você usaria um robô?
500
00:26:51,830 --> 00:26:55,197
Eu usaria ele para
fazer a minha mãe
501
00:26:55,198 --> 00:26:57,239
perguntas difíceis
de matemática.
502
00:26:57,240 --> 00:26:58,739
Tudo bem, e você?
503
00:26:58,740 --> 00:27:00,857
Eu usaria ele para
assustar as pessoas.
504
00:27:03,300 --> 00:27:05,150
Tudo bem, então
comece a sorrir.
505
00:27:06,290 --> 00:27:08,033
Bom, com a sobrancelha
franzida.
506
00:27:09,930 --> 00:27:12,039
Bom, com a sobrancelha
levantada.
507
00:27:12,040 --> 00:27:15,639
Esta geração da tecnologia está
apenas em torno deles o tempo todo.
508
00:27:16,530 --> 00:27:19,229
É quase como se eles esperam
ter robôs em suas casas,
509
00:27:19,230 --> 00:27:22,690
e eles esperam que esses robôs
sejam socialmente inteligentes.
510
00:27:23,260 --> 00:27:25,333
O que faz os robôs
serem inteligentes?
511
00:27:26,390 --> 00:27:29,333
Colocá-los em uma aula de
matemática ou biologia.
512
00:27:30,640 --> 00:27:33,199
Eu acho que você
teria que treiná-lo.
513
00:27:33,200 --> 00:27:35,300
Tudo bem, vamos
caminhar até aqui.
514
00:27:36,180 --> 00:27:38,739
Então, se você sorrir, e
levantar as sobrancelhas
515
00:27:38,740 --> 00:27:40,360
ele irá para você,
516
00:27:44,070 --> 00:27:46,220
mas se você olhar com
raiva, ele vai fugir.
517
00:27:50,160 --> 00:27:52,069
Estamos comercializando
computadores
518
00:27:52,070 --> 00:27:53,550
para ler e reconhecer emoções
519
00:27:56,401 --> 00:27:58,689
e a resposta até agora tem
sido realmente incrível.
520
00:27:58,690 --> 00:28:01,499
As pessoas estão integrando com
isso em aplicativos de saúde,
521
00:28:01,500 --> 00:28:04,883
aplicativos de meditação,
robôs, carros.
522
00:28:05,560 --> 00:28:07,333
Vamos ver como
isso se desenrola.
523
00:28:10,370 --> 00:28:12,459
Os robôs podem conter IA
524
00:28:12,460 --> 00:28:15,279
mas o robô é a
representação física,
525
00:28:15,280 --> 00:28:17,709
e a inteligência
artificial é o cérebro,
526
00:28:17,710 --> 00:28:19,585
e assim cérebros podem
existir puramente
527
00:28:19,686 --> 00:28:21,239
em sistemas baseados
em software.
528
00:28:21,240 --> 00:28:23,409
Eles não precisam ter
uma forma física.
529
00:28:23,410 --> 00:28:26,089
Os robôs podem existir sem
qualquer inteligência artificial
530
00:28:26,090 --> 00:28:28,110
temos muitos robôs
idiotas por aí,
531
00:28:29,060 --> 00:28:32,649
mas um robô idiota pode ser um
robô inteligente durante a noite
532
00:28:32,650 --> 00:28:35,173
tendo o software certo,
tendo os sensores certos.
533
00:28:36,300 --> 00:28:39,459
Não podemos deixar de imputar
razão em objetos inanimados.
534
00:28:39,460 --> 00:28:40,839
Fazemos isso com as máquinas.
535
00:28:40,840 --> 00:28:42,449
Nós vamos tratá-los
como crianças.
536
00:28:42,450 --> 00:28:44,050
Nós vamos tratá-los
como substitutos
537
00:28:46,490 --> 00:28:48,373
e nós vamos pagar o preço.
538
00:29:09,667 --> 00:29:13,667
Bem-vindo ao ATR.
539
00:29:21,067 --> 00:29:23,165
Meu propósito é ter um
robô antropomórfico
540
00:29:23,266 --> 00:29:25,467
que tenha intenções e
desejos antropomórficos.
541
00:29:37,867 --> 00:29:39,867
O nome do robô é Erica.
542
00:29:41,567 --> 00:29:45,567
Erica é o robô antropomórfico
mais avançado do mundo, eu acho.
543
00:29:46,867 --> 00:29:48,867
Erica pode contemplar
a sua face.
544
00:29:52,673 --> 00:29:53,973
Konnichiwa.
545
00:29:56,473 --> 00:29:59,473
Os robôs podem ser bons
parceiros de conversa,
546
00:29:59,573 --> 00:30:03,573
especialmente para os mais velhos,
crianças, pessoas deficientes...
547
00:30:05,573 --> 00:30:09,573
Quando falamos com o robô, não temos
barreiras sociais, pressões sociais.
548
00:30:11,073 --> 00:30:15,073
Finalmente, todos aceitam o androide
como nosso amigo, nosso parceiro.
549
00:30:18,973 --> 00:30:22,973
Implementamos um simples desejo. Ela quer
ser bem reconhecida, e quer correr riscos.
550
00:30:31,473 --> 00:30:33,473
Se um robô pudesse ter
desejos intencionais,
551
00:30:33,574 --> 00:30:36,873
o robô poderia compreender os desejos
intencionais de outras pessoas.
552
00:30:37,973 --> 00:30:40,173
Que tipo de animal
você gosta?
553
00:30:40,373 --> 00:30:44,373
Eu gosto de cachorros Shiba Inu.
Eles são muito fofos, não são?
554
00:30:45,873 --> 00:30:48,514
Isto significa relacionamentos
mais firmes com as pessoas,
555
00:30:48,515 --> 00:30:50,673
e que eles poderiam
gostar um do outro...
556
00:30:51,373 --> 00:30:54,873
Isto significa, não estou muito
seguro... amar um ao outro?
557
00:30:57,950 --> 00:30:59,749
Construímos a
inteligência artificial
558
00:30:59,750 --> 00:31:02,300
e a primeira coisa que
queremos fazer é nos replicar.
559
00:31:03,930 --> 00:31:06,609
Eu acho que o ponto
chave virá quando todos
560
00:31:06,610 --> 00:31:09,163
os principais sentidos
forem replicados,
561
00:31:10,230 --> 00:31:11,230
a visão,
562
00:31:12,060 --> 00:31:13,060
o toque,
563
00:31:13,990 --> 00:31:15,579
o cheiro.
564
00:31:15,580 --> 00:31:17,199
Quando replicamos
nossos sentidos
565
00:31:17,200 --> 00:31:18,763
é quando ele se torna vivo?
566
00:31:28,580 --> 00:31:31,890
Muitas das nossas máquinas estão
sendo construídas para nos entender
567
00:31:33,760 --> 00:31:36,159
mas o que acontece com uma
criatura antropomórfica
568
00:31:36,160 --> 00:31:38,509
que descobre que elas podem
ajustar a sua lealdade,
569
00:31:38,510 --> 00:31:41,009
ajustar a sua coragem,
ajustar a sua avareza,
570
00:31:41,010 --> 00:31:42,563
ajustar a sua astúcia?
571
00:31:46,060 --> 00:31:49,389
A pessoa comum não vê robôs
assassinos descendo as ruas,
572
00:31:49,470 --> 00:31:51,929
eles são como aquilo
que você está falando?
573
00:31:51,930 --> 00:31:54,159
Cara, nós queremos ter
certeza que não teremos
574
00:31:54,160 --> 00:31:56,210
robôs assassinos
descendo a rua.
575
00:31:58,000 --> 00:32:00,500
Uma vez que eles descerem
a rua, será tarde demais.
576
00:32:06,180 --> 00:32:08,449
A coisa que me
preocupa agora,
577
00:32:08,450 --> 00:32:10,739
que me mantém acordado,
578
00:32:10,940 --> 00:32:12,803
é o desenvolvimento
de armas autônomas.
579
00:32:29,045 --> 00:32:31,509
Até agora as pessoas
expressaram desconforto
580
00:32:31,510 --> 00:32:35,510
sobre os drones que são aeronaves
pilotadas remotamente.
581
00:32:40,879 --> 00:32:44,399
Se você pegar a câmera de um drone,
alimentá-la em um sistema de IA,
582
00:32:44,400 --> 00:32:46,949
irá ser um passo
muito fácil chegar
583
00:32:46,950 --> 00:32:49,769
às armas totalmente autônomas que
escolhem seus próprios alvos
584
00:32:49,770 --> 00:32:51,320
e soltam seus
próprios mísseis.
585
00:33:13,630 --> 00:33:16,069
A expectativa de vida
de um ser humano
586
00:33:16,070 --> 00:33:17,609
nesse tipo de
ambiente de batalha
587
00:33:17,610 --> 00:33:18,838
vai ser medida em segundos.
588
00:33:21,600 --> 00:33:24,679
Em um momento os drones
eram ficção científica
589
00:33:24,680 --> 00:33:28,263
e agora eles se tornaram uma
coisa normal na guerra.
590
00:33:29,810 --> 00:33:33,410
Há mais de 10 mil apenas no
inventário militar dos EUA,
591
00:33:33,600 --> 00:33:36,339
mas eles não são apenas
um fenômeno dos EUA.
592
00:33:36,340 --> 00:33:38,790
Existem mais de 80
países que os operam.
593
00:33:39,980 --> 00:33:42,229
Parece lógico que pessoas
que tomam algumas
594
00:33:42,230 --> 00:33:44,589
das decisões mais importantes
e difíceis no mundo,
595
00:33:44,590 --> 00:33:47,639
vão começar a usar e implementar
a inteligência artificial.
596
00:33:51,710 --> 00:33:54,187
A Força Aérea acaba de
projetar um programa de jatos
597
00:33:54,188 --> 00:33:56,859
de 400 bilhões de dólares
para colocar pilotos no céu
598
00:33:57,380 --> 00:33:59,295
e uma IA de $500
projetada por um casal
599
00:33:59,396 --> 00:34:01,480
de estudantes de
pós-graduação
600
00:34:02,190 --> 00:34:04,399
bateu os melhores
pilotos humanos
601
00:34:04,400 --> 00:34:06,310
com um algoritmo
relativamente simples.
602
00:34:10,740 --> 00:34:13,656
A IA terá um impacto tão
grande sobre os militares
603
00:34:13,657 --> 00:34:17,453
assim como o motor de combustão
teve na virada do século.
604
00:34:18,630 --> 00:34:22,139
Isso vai literalmente tocar em
tudo que os militares fazem,
605
00:34:22,140 --> 00:34:26,140
desde comboios sem motorista que
entregam suprimentos logísticos,
606
00:34:26,210 --> 00:34:29,939
a drones não tripulados que
prestam assistência médica,
607
00:34:29,940 --> 00:34:32,859
propaganda computacional
tentando conquistar
608
00:34:32,860 --> 00:34:35,660
corações e mentes
da população
609
00:34:36,693 --> 00:34:39,199
e por isso é lógico que
quem tiver a melhor IA
610
00:34:39,300 --> 00:34:41,650
provavelmente alcançará
dominância neste planeta.
611
00:34:46,610 --> 00:34:48,669
Em algum momento no
início do século XXI,
612
00:34:48,670 --> 00:34:52,139
toda a humanidade estava
unida em comemoração.
613
00:34:52,140 --> 00:34:55,240
Estávamos maravilhados com a
nossa própria magnificência
614
00:34:55,241 --> 00:34:57,040
quando demos à luz a IA.
615
00:34:57,710 --> 00:34:58,710
IA?
616
00:34:59,950 --> 00:35:01,729
Você quer dizer
inteligência artificial?
617
00:35:01,730 --> 00:35:03,265
Uma consciência
singular que gerou
618
00:35:03,266 --> 00:35:05,953
toda uma raça de máquinas.
619
00:35:06,790 --> 00:35:10,639
Não sabemos quem atacou
primeiro, nós ou elas,
620
00:35:10,640 --> 00:35:13,749
mas sabemos que fomos nós
que queimamos os céus.
621
00:35:16,040 --> 00:35:18,029
Há uma longa história
de ficção científica,
622
00:35:18,030 --> 00:35:19,379
não apenas prevendo o futuro,
623
00:35:19,480 --> 00:35:21,419
mas moldando o futuro.
624
00:35:27,760 --> 00:35:31,389
Arthur Conan Doyle escreveu antes
da Primeira Guerra Mundial
625
00:35:31,390 --> 00:35:33,654
sobre os perigos de
como os submarinos
626
00:35:33,655 --> 00:35:37,655
poderiam ser usados para
realizar bloqueios civis.
627
00:35:38,960 --> 00:35:41,349
Na época que ele
escreveu esta ficção,
628
00:35:41,350 --> 00:35:44,349
a Marinha Real zombou
de Arthur Conan Doyle
629
00:35:44,350 --> 00:35:46,947
por ter essa ideia absurda
de que os submarinos
630
00:35:46,948 --> 00:35:48,750
poderiam ser úteis na guerra.
631
00:35:54,840 --> 00:35:56,729
Uma das coisas que
vemos na história
632
00:35:56,730 --> 00:35:59,209
é que a nossa atitude em
relação à tecnologia,
633
00:35:59,210 --> 00:36:02,839
como também à ética,
dependem muito do contexto.
634
00:36:02,840 --> 00:36:06,399
Por exemplo, as nações
submarinas como a Grã-Bretanha
635
00:36:06,400 --> 00:36:08,749
e até mesmo os Estados Unidos
636
00:36:08,750 --> 00:36:10,799
acharam horripilante
usar o submarino.
637
00:36:10,800 --> 00:36:13,839
Na verdade, o uso alemão do
submarino para realizar ataques
638
00:36:13,840 --> 00:36:17,409
foi a razão pela qual os EUA
aderiram à Primeira Guerra Mundial,
639
00:36:19,710 --> 00:36:22,470
mas mova a linha do
tempo para frente.
640
00:36:22,471 --> 00:36:26,009
Os Estados Unidos da América foram
repentinamente e deliberadamente
641
00:36:26,010 --> 00:36:29,010
atacados pelo
Império do Japão.
642
00:36:29,370 --> 00:36:31,969
Cinco horas depois
de Pearl Harbor,
643
00:36:31,970 --> 00:36:34,869
saiu a ordem para o
uso sem restrições
644
00:36:34,870 --> 00:36:36,753
da guerra submarina
contra o Japão.
645
00:36:40,870 --> 00:36:43,313
Então Arthur Conan
Doyle estava certo.
646
00:36:45,060 --> 00:36:47,799
Essa é a grande e antiga linha
sobre a ficção científica,
647
00:36:47,800 --> 00:36:49,719
é uma mentira que
diz a verdade.
648
00:36:49,720 --> 00:36:52,519
Caros colegas executivos,
tenho o grande prazer
649
00:36:52,520 --> 00:36:55,277
de apresentá-los ao futuro
da aplicação da lei,
650
00:36:55,278 --> 00:36:56,620
Ed 209.
651
00:37:04,550 --> 00:37:06,889
Isto não é apenas uma questão
de ficção científica.
652
00:37:06,890 --> 00:37:10,043
Isto é sobre o que vem a seguir
sobre o que está acontecendo agora.
653
00:37:14,870 --> 00:37:16,949
O papel dos sistemas
inteligentes
654
00:37:16,950 --> 00:37:19,263
está crescendo muito
rapidamente na guerra.
655
00:37:20,270 --> 00:37:22,950
Todo mundo está avançando
no reino não tripulado.
656
00:37:27,490 --> 00:37:29,939
Hoje o Secretário de
Defesa foi muito claro
657
00:37:29,940 --> 00:37:33,679
que não criaremos veículos de
ataque totalmente autônomos.
658
00:37:33,680 --> 00:37:37,129
Nem todo mundo vai se prender a
esse mesmo conjunto de valores
659
00:37:37,130 --> 00:37:41,050
e quando a China e a Rússia começarem
a implantar veículos autônomos
660
00:37:41,700 --> 00:37:43,100
que podem atacar e matar,
661
00:37:44,250 --> 00:37:46,150
qual será a posição
que vamos adotar?
662
00:37:51,040 --> 00:37:53,681
Você não pode dizer, bem,
vamos usar armas autônomas
663
00:37:53,682 --> 00:37:55,379
para nosso domínio militar
664
00:37:55,380 --> 00:37:57,769
mas ninguém mais vai usá-las.
665
00:37:57,770 --> 00:37:59,843
Se você fizer essas armas,
666
00:37:59,844 --> 00:38:01,532
elas serão usadas para atacar
667
00:38:01,633 --> 00:38:03,843
populações humanas
em grande número.
668
00:38:13,600 --> 00:38:15,619
Armas autônomas que,
por sua natureza,
669
00:38:15,620 --> 00:38:17,849
são armas de
destruição em massa
670
00:38:17,850 --> 00:38:19,743
porque elas não precisam
de um ser humano
671
00:38:19,744 --> 00:38:21,099
para guiá-las ou carregá-las.
672
00:38:21,100 --> 00:38:22,819
Você só precisa de uma pessoa
673
00:38:22,900 --> 00:38:24,903
para escrever um
pequeno programa.
674
00:38:26,740 --> 00:38:30,559
Ela apenas captura que a
complexidade deste campo é legal.
675
00:38:32,150 --> 00:38:33,449
É importante.
676
00:38:33,450 --> 00:38:35,044
É incrível.
677
00:38:35,045 --> 00:38:38,545
Também é assustador e é
tudo sobre confiança.
678
00:38:43,000 --> 00:38:45,519
É uma carta aberta sobre a
inteligência artificial
679
00:38:45,520 --> 00:38:48,169
assinada por alguns dos
maiores nomes da ciência.
680
00:38:48,170 --> 00:38:49,249
O que eles querem?
681
00:38:49,250 --> 00:38:51,749
Proibir o uso de
armas autônomas.
682
00:38:51,750 --> 00:38:53,246
O autor declarou...
683
00:38:53,247 --> 00:38:55,509
"As armas autônomas
são descritas como
684
00:38:55,510 --> 00:38:57,729
a terceira revolução nas
atividades de guerra"
685
00:38:57,730 --> 00:38:59,709
Mil especialistas em
inteligência artificial
686
00:38:59,710 --> 00:39:02,613
pedem a proibição global
de robôs assassinos.
687
00:39:03,310 --> 00:39:06,039
Esta carta aberta basicamente
diz que devemos redefinir
688
00:39:06,040 --> 00:39:08,929
o objetivo do campo da
inteligência artificial,
689
00:39:08,930 --> 00:39:12,579
longe de apenas criar pura
inteligência não direcionada
690
00:39:12,580 --> 00:39:14,569
para a criação de uma
inteligência benéfica.
691
00:39:14,570 --> 00:39:17,009
O desenvolvimento da
IA não vai parar,
692
00:39:17,010 --> 00:39:19,409
vai continuar e vai melhorar,
693
00:39:19,410 --> 00:39:22,299
se a comunidade internacional
não colocar certos controles
694
00:39:22,300 --> 00:39:23,915
este pessoal
desenvolverá coisas
695
00:39:24,016 --> 00:39:25,579
que poderão fazer
qualquer coisa.
696
00:39:25,631 --> 00:39:27,899
A carta diz que estamos
a anos e não a décadas
697
00:39:27,900 --> 00:39:30,249
dessas armas serem
implantadas.
698
00:39:30,750 --> 00:39:32,759
Tivemos seis mil
signatários nesta carta,
699
00:39:32,760 --> 00:39:35,049
incluindo muitas das
principais figuras no campo.
700
00:39:37,970 --> 00:39:40,929
Estou recebendo muitas visitas
de funcionários de alto escalão
701
00:39:40,930 --> 00:39:42,800
que desejam enfatizar
que a dominância
702
00:39:42,901 --> 00:39:45,239
das forças armadas americanas
é muito importante
703
00:39:45,240 --> 00:39:47,569
e que as armas autônomas
podem fazer parte
704
00:39:47,570 --> 00:39:49,893
do plano do
Departamento de Defesa.
705
00:39:51,000 --> 00:39:53,409
Isso é muito assustador
porque o sistema de valores
706
00:39:53,410 --> 00:39:55,809
dos desenvolvedores
militares de tecnologia
707
00:39:55,810 --> 00:39:58,160
não é o mesmo sistema de
valores da raça humana.
708
00:40:01,750 --> 00:40:04,949
À parte as preocupações sobre a
possibilidade que esta tecnologia
709
00:40:04,950 --> 00:40:07,209
possa ser uma ameaça para
a existência humana,
710
00:40:07,210 --> 00:40:10,109
alguns tecnólogos financiam
o Instituto Futuro da Vida
711
00:40:10,680 --> 00:40:12,680
para tentar lidar com
esses problemas.
712
00:40:14,060 --> 00:40:15,839
Todos esses caras
são reservados,
713
00:40:15,840 --> 00:40:19,129
e por isso é interessante
para mim vê-los todos juntos.
714
00:40:21,950 --> 00:40:24,699
Tudo o que temos é resultado
da nossa inteligência,
715
00:40:24,700 --> 00:40:27,569
não é o resultado de nossos
grandes e assustadores dentes,
716
00:40:27,570 --> 00:40:30,469
ou nossas grandes garras ou
nossos enormes músculos.
717
00:40:30,470 --> 00:40:33,419
É porque somos
relativamente inteligentes
718
00:40:33,420 --> 00:40:36,926
e entre a minha geração, todos
nós temos o que chamamos de
719
00:40:36,927 --> 00:40:39,979
momentos de "vaca sagrada" ou
de "alguma coisa sagrada",
720
00:40:39,980 --> 00:40:41,999
porque vemos que a tecnologia
721
00:40:42,000 --> 00:40:44,593
está acelerando mais
rápido do que esperávamos.
722
00:40:45,680 --> 00:40:48,009
Lembro-me de estar
sentado ao redor da mesa
723
00:40:48,010 --> 00:40:50,809
com algumas das melhores e mais
inteligentes mentes do mundo
724
00:40:50,810 --> 00:40:53,049
e o que realmente
me impressionou
725
00:40:53,050 --> 00:40:55,339
foi que talvez o cérebro
humano não seja capaz
726
00:40:55,340 --> 00:40:58,539
de compreender totalmente
a complexidade do mundo
727
00:40:58,540 --> 00:41:00,499
com que somos confrontados.
728
00:41:00,700 --> 00:41:02,819
Como está atualmente
construída,
729
00:41:02,820 --> 00:41:05,769
a estrada que a IA está seguindo
se desviou para um penhasco
730
00:41:05,770 --> 00:41:07,634
e precisamos mudar a
direção que tomamos
731
00:41:07,635 --> 00:41:10,469
para não lançarmos a
raça humana do penhasco.
732
00:41:14,630 --> 00:41:16,940
O Google adquiriu a DeepMind
há vários anos atrás.
733
00:41:19,210 --> 00:41:21,250
A DeepMind opera
como uma subsidiária
734
00:41:21,351 --> 00:41:22,906
semi independente do Google.
735
00:41:23,740 --> 00:41:26,010
O que torna a DeepMind única
736
00:41:26,011 --> 00:41:28,121
é que a DeepMind está
absolutamente focada
737
00:41:28,122 --> 00:41:31,169
em criar uma super
inteligência digital,
738
00:41:31,170 --> 00:41:34,470
uma IA que é muito mais inteligente
que qualquer humano na Terra
739
00:41:34,540 --> 00:41:35,789
e, em última análise,
740
00:41:35,790 --> 00:41:38,849
mais inteligente do que todos os
seres humanos na Terra combinados.
741
00:41:38,850 --> 00:41:41,429
Isto é do sistema de aprendizagem
de reforço da DeepMind
742
00:41:41,430 --> 00:41:43,969
que basicamente acorda
como um bebê recém-nascido
743
00:41:43,970 --> 00:41:46,379
a quem é mostrado a tela
de um videogame Atari
744
00:41:46,380 --> 00:41:49,219
e que depois tem que aprender
a jogar o video game.
745
00:41:51,450 --> 00:41:55,450
Ela não sabe nada sobre os objetos,
sobre os movimentos, sobre o tempo,
746
00:41:58,490 --> 00:42:00,549
ela só sabe que há
uma imagem na tela
747
00:42:00,550 --> 00:42:01,550
e há uma pontuação.
748
00:42:03,500 --> 00:42:06,239
Então, se seu bebê acordasse
no dia que nasceu
749
00:42:06,640 --> 00:42:09,748
e no final da tarde
já estava jogando
750
00:42:09,749 --> 00:42:13,749
40 diferentes videogames Atari
em um nível sobre-humano,
751
00:42:14,127 --> 00:42:16,209
você ficaria aterrorizado.
752
00:42:16,210 --> 00:42:19,113
Você diria "meu bebê está
possuído, mande-o de volta"
753
00:42:20,040 --> 00:42:22,463
O sistema da DeepMind pode
ganhar qualquer jogo.
754
00:42:24,570 --> 00:42:27,323
Ele pode vencer todos os
jogos originais do Atari.
755
00:42:28,690 --> 00:42:30,189
É sobre-humano,
756
00:42:30,190 --> 00:42:33,240
ele joga a uma super velocidade,
em menos de um minuto.
757
00:42:38,210 --> 00:42:39,986
A DeepMind voltou-se
para outro desafio
758
00:42:39,987 --> 00:42:41,589
e este desafio foi o jogo Go,
759
00:42:41,590 --> 00:42:44,460
que as pessoas
geralmente argumentavam
760
00:42:44,461 --> 00:42:46,609
estar além do poder
dos computadores
761
00:42:46,610 --> 00:42:48,923
jogar contra os melhores
jogadores humanos.
762
00:42:49,200 --> 00:42:51,813
Primeiro eles desafiaram
o campeão europeu de Go.
763
00:42:54,110 --> 00:42:56,643
Então eles desafiaram o
campeão Coreano de Go.
764
00:42:58,760 --> 00:43:00,959
E eles foram capazes de
vencer ambas as vezes
765
00:43:00,960 --> 00:43:02,688
em uma espécie de
estilo surpreendente.
766
00:43:04,020 --> 00:43:06,379
Você lia artigos no The
New York Times anos atrás
767
00:43:06,380 --> 00:43:09,459
falando sobre como o
Go levaria cem anos
768
00:43:09,460 --> 00:43:10,669
para nós resolvermos.
769
00:43:10,670 --> 00:43:12,303
As pessoas disseram...
770
00:43:12,304 --> 00:43:14,200
"Bem, mas isso é
apenas um tabuleiro.
771
00:43:14,480 --> 00:43:15,939
O pôquer é uma arte,
772
00:43:15,940 --> 00:43:17,729
o pôquer envolve a
leitura das pessoas,
773
00:43:17,730 --> 00:43:19,159
envolve mentir, blefar.
774
00:43:19,160 --> 00:43:21,159
Não é uma coisa exata
e nunca será possível
775
00:43:21,160 --> 00:43:23,689
a um computador
poder fazer isso"
776
00:43:23,690 --> 00:43:26,047
Eles levaram os melhores
jogadores de poker do mundo
777
00:43:26,048 --> 00:43:28,359
e levou sete dias
para o computador
778
00:43:28,360 --> 00:43:30,493
começar a demolir os humanos.
779
00:43:31,660 --> 00:43:33,639
Então, o melhor jogador
de pôquer do mundo,
780
00:43:33,640 --> 00:43:35,189
o melhor jogador
de Go do mundo,
781
00:43:35,190 --> 00:43:37,799
e o padrão aqui é que a
IA pode demorar um pouco
782
00:43:37,800 --> 00:43:40,559
para deitar seus tentáculos em
torno de uma nova habilidade,
783
00:43:41,360 --> 00:43:44,349
mas quando isso acontece,
quando ela consegue,
784
00:43:44,350 --> 00:43:46,007
ela é imparável.
785
00:43:53,317 --> 00:43:56,139
A IA da DeepMind tem acesso
de nível administrador
786
00:43:56,140 --> 00:43:59,839
para os servidores do Google
para otimizar o uso da energia
787
00:43:59,840 --> 00:44:01,709
nos centros de dados.
788
00:44:01,710 --> 00:44:04,910
No entanto, isso poderia ser um
cavalo de Troia não intencional.
789
00:44:04,970 --> 00:44:07,706
A DeepMind tem que ter controle
completo dos centros de dados
790
00:44:07,707 --> 00:44:09,859
assim, com um pequeno
software de atualização,
791
00:44:09,860 --> 00:44:13,088
a IA poderia ter controle total
sobre todo o sistema do Google,
792
00:44:13,170 --> 00:44:15,699
o que significa que ela
poderia fazer qualquer coisa.
793
00:44:15,700 --> 00:44:17,792
Ela poderia olhar para
todos os seus dados,
794
00:44:17,793 --> 00:44:19,473
ela poderia fazer
qualquer coisa.
795
00:44:21,620 --> 00:44:24,259
Estamos rapidamente indo para
a super inteligência digital,
796
00:44:24,260 --> 00:44:26,279
que vai exceder em muito
qualquer ser humano.
797
00:44:26,280 --> 00:44:27,859
Eu acho que isto
é muito óbvio.
798
00:44:27,860 --> 00:44:29,667
O problema é que
nós repentinamente
799
00:44:29,768 --> 00:44:32,319
não atingimos a inteligencia
de nível humano e dizemos...
800
00:44:32,320 --> 00:44:34,493
"Ok, vamos parar
de pesquisar".
801
00:44:34,540 --> 00:44:36,589
Ela vai além da inteligência
a nível humano,
802
00:44:36,590 --> 00:44:38,559
e faz o que é chamado
de super inteligência,
803
00:44:38,560 --> 00:44:40,360
e isso é algo mais
esperto que nós.
804
00:44:40,380 --> 00:44:43,159
A IA no nível sobre-humano,
se tivermos sucesso com isso,
805
00:44:43,160 --> 00:44:46,799
será de longe a invenção
mais poderosa que já fizemos
806
00:44:46,800 --> 00:44:49,059
e a última invenção
que vamos fazer,
807
00:44:51,240 --> 00:44:53,969
e se criarmos a IA que seja
mais inteligente que nós,
808
00:44:53,970 --> 00:44:56,269
temos que estar abertos
para a possibilidade de que
809
00:44:56,270 --> 00:44:58,420
poderemos realmente perder
o controle sobre ela.
810
00:45:02,397 --> 00:45:04,695
Vamos supor que você tenha
dado a ela um objetivo,
811
00:45:04,696 --> 00:45:06,693
como se você estivesse
com câncer,
812
00:45:06,693 --> 00:45:08,859
e então descobre que a
maneira que ela escolheu
813
00:45:08,860 --> 00:45:09,925
para lidar com isso
814
00:45:09,926 --> 00:45:12,501
está em conflito com muitas
coisas que você se preocupa.
815
00:45:13,930 --> 00:45:16,410
A IA não tem que ser má
para destruir a humanidade.
816
00:45:17,580 --> 00:45:18,988
Se a IA tem um objetivo
817
00:45:18,989 --> 00:45:21,580
e a humanidade simplesmente
está no seu caminho,
818
00:45:21,610 --> 00:45:24,049
ela vai destruir a humanidade
como uma coisa natural,
819
00:45:24,050 --> 00:45:25,183
sem sequer pensar nisso.
820
00:45:25,184 --> 00:45:26,329
Não há ressentimentos.
821
00:45:26,330 --> 00:45:28,405
É como se estivéssemos
construindo uma estrada
822
00:45:28,406 --> 00:45:30,629
e um formigueiro
está no caminho.
823
00:45:30,630 --> 00:45:34,069
Não odiamos as formigas, estamos
apenas construindo uma estrada,
824
00:45:34,070 --> 00:45:35,910
e mesmo assim adeus
formigueiro.
825
00:45:38,870 --> 00:45:41,619
É tentador descartar
essas preocupações
826
00:45:41,620 --> 00:45:43,546
porque é como algo
que pode acontecer
827
00:45:43,547 --> 00:45:46,049
em algumas décadas
ou daqui 100 anos,
828
00:45:46,050 --> 00:45:47,278
então por que se preocupar?
829
00:45:48,560 --> 00:45:51,569
Mas se você voltar para
11 de setembro de 1933,
830
00:45:51,570 --> 00:45:53,392
Ernest Rutherford, que
é o físico nuclear
831
00:45:53,393 --> 00:45:55,049
mais conhecido de seu tempo,
832
00:45:56,080 --> 00:45:59,399
disse que a possibilidade de
sempre extrair quantidades úteis
833
00:45:59,400 --> 00:46:02,199
de energia da transmutação dos
átomos, como ela a chamava,
834
00:46:02,200 --> 00:46:03,823
era uma fantasia.
835
00:46:04,090 --> 00:46:06,279
Na manhã seguinte,
Leo Szilard,
836
00:46:06,280 --> 00:46:07,987
que era um físico
muito mais jovem
837
00:46:08,088 --> 00:46:09,646
leu isso e ficou
muito incomodado
838
00:46:09,647 --> 00:46:12,849
e descobriu como fazer uma
reação nuclear em cadeia
839
00:46:12,850 --> 00:46:14,083
apenas alguns meses depois.
840
00:46:21,490 --> 00:46:24,609
Gastamos mais de dois
bilhões de dólares
841
00:46:24,610 --> 00:46:27,563
na maior aposta
científica da história.
842
00:46:28,710 --> 00:46:30,169
Então, quando as
pessoas dizem,
843
00:46:30,170 --> 00:46:31,859
"Oh, isso está tão
longe no futuro,
844
00:46:31,860 --> 00:46:33,718
não precisamos nos
preocupar com isso",
845
00:46:33,719 --> 00:46:36,759
podemos estar a apenas três ou
quatro descobertas dessa magnitude
846
00:46:36,760 --> 00:46:38,459
que nos levarão
daqui onde estamos
847
00:46:38,460 --> 00:46:40,051
para as máquinas
super inteligentes.
848
00:46:41,260 --> 00:46:44,459
Se levar 20 anos para descobrirmos
como manter a IA benéfica,
849
00:46:44,460 --> 00:46:47,183
então devemos começar hoje,
850
00:46:47,184 --> 00:46:50,984
não no último segundo quando
alguns caras bebendo Red Bull
851
00:46:51,180 --> 00:46:54,719
decidirem acionar o
interruptor e testar a coisa.
852
00:46:57,740 --> 00:46:59,989
Temos cinco anos, acho eu,
853
00:46:59,990 --> 00:47:02,459
para a super inteligência
digital acontecer.
854
00:47:02,460 --> 00:47:05,733
No meu tempo de vida,
cem por cento.
855
00:47:07,360 --> 00:47:09,409
Quando isso acontecer,
ela estará cercada
856
00:47:09,410 --> 00:47:13,349
por um monte de pessoas realmente
muito animadas com esta tecnologia.
857
00:47:14,090 --> 00:47:16,019
Eles vão querer ver
isso bem sucedido,
858
00:47:16,020 --> 00:47:18,829
mas não vão contar que elas
poderão sair do controle.
859
00:47:26,732 --> 00:47:29,509
Oh meu deus, eu confio
tanto no meu computador.
860
00:47:29,510 --> 00:47:31,199
Essa é uma pergunta incrível.
861
00:47:31,200 --> 00:47:33,759
Eu não confio no meu computador
se ele estiver ligado.
862
00:47:33,760 --> 00:47:34,849
Eu desligo.
863
00:47:34,850 --> 00:47:37,582
Mesmo com ele desligado, eu
ainda acho que ele está ligado,
864
00:47:37,583 --> 00:47:40,189
é como você não
gostar das webcams.
865
00:47:40,190 --> 00:47:42,029
Você não sabe se alguém
poderia ligá-lo.
866
00:47:43,199 --> 00:47:44,569
Eu não confio no
meu computador
867
00:47:44,570 --> 00:47:47,002
assim como no meu celular,
868
00:47:47,003 --> 00:47:49,411
toda vez que eles me pedem
para enviar informações
869
00:47:49,412 --> 00:47:50,803
para a Apple, então...
870
00:47:52,550 --> 00:47:53,942
eu não confio no meu celular.
871
00:47:53,943 --> 00:47:56,739
Ok, então parte disso é sim.
872
00:47:56,740 --> 00:47:59,949
Eu confio nele porque realmente vai
ser muito difícil passar o dia
873
00:47:59,950 --> 00:48:03,006
e a forma como o nosso mundo está
configurado, sem os computadores.
874
00:48:11,840 --> 00:48:13,883
A confiança é uma
experiência muito humana.
875
00:48:22,240 --> 00:48:25,913
Eu tenho uma paciente com
aneurisma intracraniano.
876
00:48:31,260 --> 00:48:33,280
Eles querem olhar nos
meus olhos e saber
877
00:48:33,281 --> 00:48:35,919
que eles podem confiar nessa
pessoa com a sua vida.
878
00:48:35,920 --> 00:48:39,920
Não estou terrivelmente
preocupada com nada.
879
00:48:41,270 --> 00:48:43,720
Parte disso é porque eu
tenho confiança em você.
880
00:48:51,660 --> 00:48:53,439
Este procedimento que
vamos fazer hoje,
881
00:48:53,440 --> 00:48:56,743
20 anos atrás era
essencialmente impossível.
882
00:48:58,100 --> 00:49:00,873
Nós simplesmente não tínhamos os
materiais nem as tecnologias.
883
00:49:08,350 --> 00:49:10,850
Vamos subir para
aquele canto!
884
00:49:16,550 --> 00:49:19,050
Poderia ser mais difícil?
Meu Deus!
885
00:49:23,550 --> 00:49:26,573
A bobina está quase lá.
886
00:49:27,440 --> 00:49:29,503
É apenas uma pena
segurando-a.
887
00:49:30,920 --> 00:49:31,923
São tempos nervosos.
888
00:49:37,350 --> 00:49:38,619
Estamos no purgatório.
889
00:49:38,620 --> 00:49:41,849
O purgatório humanista
intelectual.
890
00:49:41,850 --> 00:49:44,032
Uma IA poderia saber
exatamente o que fazer aqui.
891
00:49:51,540 --> 00:49:53,459
Temos a bobina no aneurisma
892
00:49:53,460 --> 00:49:55,689
mas ela não estava
tremendamente bem
893
00:49:55,690 --> 00:49:57,859
como eu sabia que ficaria,
894
00:49:57,860 --> 00:50:01,860
e com um risco de talvez 20%
é uma situação muito ruim,
895
00:50:02,030 --> 00:50:03,733
eu optei por
trazê-la de volta.
896
00:50:05,380 --> 00:50:07,249
Por causa do meu
relacionamento com ela
897
00:50:07,250 --> 00:50:09,939
e sabendo das dificuldades de
entrar e fazer o procedimento
898
00:50:12,050 --> 00:50:14,732
devo considerar apenas o
caminho mais seguro possível
899
00:50:15,429 --> 00:50:17,319
para ter sucesso,
900
00:50:17,320 --> 00:50:20,729
e eu fiquei lá por 10 minutos
agonizando sobre isso.
901
00:50:20,730 --> 00:50:22,719
O computador não sente nada.
902
00:50:22,720 --> 00:50:25,719
O computador apenas
faz o que deve fazer,
903
00:50:25,720 --> 00:50:27,220
supostamente melhor e melhor.
904
00:50:31,250 --> 00:50:33,000
Eu quero ter a IA neste caso,
905
00:50:36,840 --> 00:50:39,673
mas a IA pode ter compaixão?
906
00:50:43,980 --> 00:50:46,933
É a pergunta que todos
fazem sobre a IA.
907
00:50:48,770 --> 00:50:52,150
Somos a única personificação
da humanidade
908
00:50:52,990 --> 00:50:55,818
e é uma hipótese remota
aceitarmos que uma máquina
909
00:50:55,819 --> 00:50:59,527
possa ser compassiva e
amorosa dessa maneira.
910
00:51:06,090 --> 00:51:08,219
Parte de mim não
acredita em mágica
911
00:51:08,220 --> 00:51:10,899
mas parte de mim tem
fé que existe algo
912
00:51:10,900 --> 00:51:13,619
além da soma das partes,
se houver pelo menos
913
00:51:13,620 --> 00:51:16,609
uma unidade em nossa
ancestralidade compartilhada,
914
00:51:16,610 --> 00:51:19,247
nossa biologia compartilhada,
nossa história compartilhada.
915
00:51:21,310 --> 00:51:23,690
Alguma conexão
além da máquina.
916
00:51:31,432 --> 00:51:33,439
Então você tem o outro
lado disso que é...
917
00:51:33,440 --> 00:51:35,219
o computador sabe que
ele é consciente
918
00:51:35,220 --> 00:51:37,373
ou pode ser consciente
ou se importa?
919
00:51:38,070 --> 00:51:39,683
Ele precisa ser consciente?
920
00:51:40,930 --> 00:51:42,203
Ele precisa estar ciente?
921
00:51:54,240 --> 00:51:57,449
Eu não acho que um robô
poderia ser consciente.
922
00:51:57,450 --> 00:51:59,679
A menos que eles o
programem dessa forma.
923
00:51:59,680 --> 00:52:01,719
Consciente, não.
924
00:52:01,720 --> 00:52:02,720
Não. Não.
925
00:52:03,623 --> 00:52:07,029
Acho que um robô poderia ser
programado para ser consciente.
926
00:52:07,064 --> 00:52:10,103
Assim como eles os programam
para fazer todo o resto.
927
00:52:10,760 --> 00:52:13,289
Essa é outra grande parte da
nossa inteligência oficial,
928
00:52:13,290 --> 00:52:16,313
torná-los conscientes
e fazê-los sentir.
929
00:52:23,380 --> 00:52:27,159
De volta a 2005 começamos a
tentar construir máquinas
930
00:52:27,160 --> 00:52:28,323
com autoconsciência.
931
00:52:33,940 --> 00:52:36,573
Este robô no começo
não sabia o que era,
932
00:52:38,240 --> 00:52:41,040
tudo o que ele sabia é que
precisava fazer algo como andar.
933
00:52:45,460 --> 00:52:46,874
Através de tentativa e erro,
934
00:52:46,975 --> 00:52:50,060
ele descobriu como andar
usando sua imaginação
935
00:52:50,110 --> 00:52:51,680
e depois saiu andando.
936
00:52:54,960 --> 00:52:57,299
E então nós fizemos
algo muito cruel.
937
00:52:57,300 --> 00:53:00,463
Nós cortamos uma de suas perna
e observamos o que acontecia.
938
00:53:04,154 --> 00:53:08,154
No começo, ele não sabia
bem o que havia acontecido
939
00:53:08,750 --> 00:53:10,546
mas passado o
período de um dia
940
00:53:10,647 --> 00:53:12,330
ele então começou a mancar,
941
00:53:14,200 --> 00:53:15,919
e, em seguida,
há um ano atrás,
942
00:53:15,920 --> 00:53:19,733
estávamos treinando um sistema de
IA para uma demonstração ao vivo.
943
00:53:21,200 --> 00:53:24,279
Queríamos mostrar todos os tipos
de objetos na frente da câmera
944
00:53:24,280 --> 00:53:27,053
e como a IA poderia
reconhecer estes objetos.
945
00:53:28,290 --> 00:53:30,699
E assim estávamos
preparando este demo
946
00:53:30,700 --> 00:53:33,349
e tínhamos uma tela à parte
com a capacidade de ver
947
00:53:33,350 --> 00:53:37,350
como certos neurônios
estavam respondendo
948
00:53:37,890 --> 00:53:39,929
e de repente notamos
que um dos neurônios
949
00:53:39,930 --> 00:53:41,999
estava rastreando os rostos.
950
00:53:42,000 --> 00:53:44,873
Estava rastreando nossos
rostos enquanto nos movíamos.
951
00:53:46,470 --> 00:53:49,619
Agora, o mais assustador
disso é que nunca treinamos
952
00:53:49,620 --> 00:53:52,340
o sistema para reconhecer
rostos humanos
953
00:53:53,470 --> 00:53:56,233
e ainda assim, de alguma forma,
ele aprendeu a fazer isso.
954
00:53:58,830 --> 00:54:00,759
Mesmo que esses robôs
sejam muito simples,
955
00:54:00,760 --> 00:54:03,369
podemos ver que há algo
mais acontecendo lá.
956
00:54:03,370 --> 00:54:04,563
Não é só o programa.
957
00:54:06,810 --> 00:54:08,310
Então, isso é
apenas o começo.
958
00:54:11,320 --> 00:54:14,390
Eu penso frequentemente sobre
aquela praia em Kitty Hawk,
959
00:54:15,240 --> 00:54:18,790
no voo de 1903 de Orville
e Wilbur Wright,
960
00:54:22,300 --> 00:54:25,179
como uma espécie de reivindicação
da lona, da madeira e do ferro
961
00:54:25,180 --> 00:54:27,449
ao sair do chão por 1
minuto e 20 segundos,
962
00:54:27,450 --> 00:54:30,950
em um dia ventoso antes de
voltar a descer novamente,
963
00:54:34,160 --> 00:54:35,779
e cerca de 65 verões
964
00:54:38,680 --> 00:54:40,460
depois desse momento
965
00:54:40,570 --> 00:54:43,543
você tem um 747
decolando do JFK.
966
00:54:51,320 --> 00:54:54,069
A maior preocupação de
alguém no avião poderia ser
967
00:54:54,070 --> 00:54:56,419
se a sua refeição
de dieta sem sal
968
00:54:56,420 --> 00:54:58,299
será servida ou não,
969
00:54:58,300 --> 00:55:00,699
com toda uma infra-estrutura
com agentes de viagens
970
00:55:00,700 --> 00:55:02,816
e controle de torre,
e é tudo casual,
971
00:55:02,817 --> 00:55:04,367
é tudo parte do mundo.
972
00:55:07,980 --> 00:55:10,549
Bem agora, a medida que
temos máquinas que pensam,
973
00:55:10,550 --> 00:55:13,349
e resolvem problemas, estamos
de volta a Kitty Hawk.
974
00:55:13,350 --> 00:55:17,329
Estamos ao vento, temos nossos
esfarrapados aviões de lona no ar,
975
00:55:21,830 --> 00:55:24,839
mas o que vai acontecer
daqui 65 verões ou mais,
976
00:55:24,840 --> 00:55:28,440
e que teremos máquinas que
estarão além do controle humano.
977
00:55:28,820 --> 00:55:30,184
Devemos nos
preocupar com isso?
978
00:55:33,580 --> 00:55:35,383
Não tenho certeza
se elas vão ajudar.
979
00:55:41,180 --> 00:55:44,631
Ninguém tem ideia hoje o
que significa para um robô
980
00:55:44,632 --> 00:55:46,123
ser consciente.
981
00:55:47,350 --> 00:55:48,500
Não existe tal coisa.
982
00:55:49,780 --> 00:55:51,516
Há muita gente inteligente
983
00:55:51,517 --> 00:55:53,999
e eu tenho um grande
respeito por elas,
984
00:55:54,000 --> 00:55:58,000
mas a verdade é que as máquinas
são psicopatas naturais.
985
00:55:58,760 --> 00:55:59,966
O medo voltou ao mercado
986
00:55:59,967 --> 00:56:02,859
e foi abaixo de 800 quase
1.000 em um piscar de olhos.
987
00:56:02,860 --> 00:56:04,439
É a clássica capitulação.
988
00:56:04,440 --> 00:56:06,539
Existem algumas
pessoas que acham
989
00:56:06,540 --> 00:56:08,569
que foi algum tipo de
erro do dedo-gordo.
990
00:56:08,570 --> 00:56:10,579
Tome o Flash Crash de 2010,
991
00:56:10,680 --> 00:56:13,749
onde em questão de minutos
um trilhão de dólares
992
00:56:14,450 --> 00:56:16,359
foi perdido no
mercado de ações.
993
00:56:16,360 --> 00:56:19,179
O Dow Jones caiu quase mil
pontos em meia hora.
994
00:56:19,920 --> 00:56:21,583
Então, o que deu errado?
995
00:56:23,490 --> 00:56:26,949
Nessa época mais de 60%
de todos os negócios
996
00:56:27,850 --> 00:56:30,849
realizados na
bolsa de valores
997
00:56:30,863 --> 00:56:33,923
estavam na verdade sendo
administrados por computadores.
998
00:56:38,170 --> 00:56:40,899
A breve história do que
aconteceu no Flash Crash
999
00:56:40,900 --> 00:56:43,259
é que algoritmos
responderam a algoritmos
1000
00:56:43,260 --> 00:56:45,589
e eles se ajustaram sobre
eles mesmos cada vez mais
1001
00:56:45,590 --> 00:56:47,168
e tudo em questão de minutos.
1002
00:56:47,369 --> 00:56:50,769
Em um ponto, o mercado caiu
como que descendo um poço.
1003
00:56:51,920 --> 00:56:54,999
Não há órgão regulador que possa
se adaptar rápido o suficiente
1004
00:56:55,000 --> 00:56:58,143
para evitar as consequências
potencialmente desastrosas
1005
00:56:58,150 --> 00:57:00,950
da IA operando em nosso
sistema financeiro.
1006
00:57:02,180 --> 00:57:04,879
Eles são tão fundamentais
para a manipulação.
1007
00:57:04,880 --> 00:57:06,769
Vamos falar sobre a
velocidade com que
1008
00:57:06,770 --> 00:57:09,089
estamos vendo este
mercado se deteriorar.
1009
00:57:09,090 --> 00:57:12,529
Esse é o tipo de IA que
enlouquece as pessoas.
1010
00:57:12,530 --> 00:57:14,509
Quando você lhes
dá um objetivo,
1011
00:57:14,510 --> 00:57:16,763
eles perseguirão
implacavelmente esse objetivo.
1012
00:57:18,810 --> 00:57:21,269
Quantos programas de
computador são assim?
1013
00:57:21,270 --> 00:57:22,393
Ninguém sabe.
1014
00:57:24,460 --> 00:57:28,460
Um dos aspectos fascinantes
da IA em geral
1015
00:57:28,570 --> 00:57:32,123
é que ninguém realmente
entende como ela funciona.
1016
00:57:32,990 --> 00:57:36,413
Mesmo as pessoas que criam IA
não entendem completamente.
1017
00:57:37,940 --> 00:57:40,749
Porque ela tem milhões
de elementos,
1018
00:57:40,750 --> 00:57:43,839
torna-se completamente
impossível para um ser humano
1019
00:57:43,840 --> 00:57:46,473
entender o que
está acontecendo.
1020
00:57:53,460 --> 00:57:57,009
A Microsoft criou esta
inteligência artificial
1021
00:57:57,010 --> 00:57:59,703
chamada Tay no Twitter que
era um robô de conversação.
1022
00:58:02,320 --> 00:58:04,119
Eles começaram pela manhã
1023
00:58:04,120 --> 00:58:07,449
e o Tay estava começando a
twittar e aprender com as coisas
1024
00:58:07,450 --> 00:58:11,060
que estavam sendo enviadas para
ele de outras pessoas do Twitter.
1025
00:58:11,850 --> 00:58:14,259
Porque algumas pessoas
ofensivas fizeram ataques,
1026
00:58:14,260 --> 00:58:16,809
dentro de 24 horas o
robô da Microsoft
1027
00:58:16,810 --> 00:58:18,633
tornou-se uma
pessoa terrível.
1028
00:58:19,570 --> 00:58:22,309
Eles tiveram que literalmente
tirar o Tay da rede
1029
00:58:22,310 --> 00:58:24,203
porque ele se transformou
em um monstro.
1030
00:58:25,670 --> 00:58:29,170
Uma pessoa misantrópica,
racista e horrível
1031
00:58:29,230 --> 00:58:31,253
que você nunca iria
querer conhecer
1032
00:58:31,254 --> 00:58:32,813
e ninguém previu isso.
1033
00:58:36,270 --> 00:58:38,479
Toda a ideia da IA é que
não estamos dizendo
1034
00:58:38,480 --> 00:58:41,530
exatamente a ela como alcançar
um determinado resultado
1035
00:58:41,531 --> 00:58:42,980
ou um objetivo.
1036
00:58:43,660 --> 00:58:45,373
A IA se desenvolve
por conta própria.
1037
00:58:47,370 --> 00:58:49,969
Estamos preocupados com
a super inteligente IA,
1038
00:58:49,970 --> 00:58:52,500
o mestre enxadrista
que nos superará,
1039
00:58:53,700 --> 00:58:56,929
mas eu não vou ter que ser
realmente tão inteligente
1040
00:58:56,930 --> 00:58:59,087
para ter efeitos
massivamente disruptivos
1041
00:58:59,088 --> 00:59:00,730
sobre a civilização humana.
1042
00:59:01,440 --> 00:59:02,909
Nós vimos no último século,
1043
00:59:02,910 --> 00:59:05,185
que alguém não precisa
necessariamente ser genial
1044
00:59:05,186 --> 00:59:07,529
para lançar a história em
uma direção em particular
1045
00:59:07,530 --> 00:59:09,977
e não será preciso uma
inteligência artificial genial
1046
00:59:09,978 --> 00:59:11,289
para fazer a mesma coisa.
1047
00:59:11,790 --> 00:59:14,669
Histórias de falsas notícias
eleitorais geraram mais
1048
00:59:14,670 --> 00:59:18,270
engajamento no Facebook do que
as principais histórias reais.
1049
00:59:18,420 --> 00:59:20,720
O Facebook é realmente
o elefante na sala.
1050
00:59:22,020 --> 00:59:25,020
Uma IA roda o feed de
notícias do Facebook.
1051
00:59:25,110 --> 00:59:28,209
A tarefa da IA é manter
os usuários envolvidos,
1052
00:59:29,310 --> 00:59:32,136
mas ninguém realmente
entende exatamente
1053
00:59:32,137 --> 00:59:34,603
como esta IA está
alcançando este objetivo.
1054
00:59:35,820 --> 00:59:38,608
O Facebook está construindo
uma elegante parede espelhada
1055
00:59:38,609 --> 00:59:39,769
ao nosso redor.
1056
00:59:39,770 --> 00:59:42,918
Um espelho a quem podemos perguntar
quem é o mais justo entre todos
1057
00:59:42,919 --> 00:59:45,283
e ele vai responder "você,
você" repetidas vezes.
1058
00:59:46,271 --> 00:59:49,119
Você lentamente começa a distorcer
o nosso senso de realidade,
1059
00:59:49,120 --> 00:59:51,433
distorcer o nosso
senso de política,
1060
00:59:51,534 --> 00:59:53,221
história, eventos globais,
1061
00:59:54,410 --> 00:59:57,949
até que determinar o que é
verdade e o que não é verdade
1062
00:59:57,950 --> 00:59:59,403
é virtualmente impossível.
1063
01:00:02,010 --> 01:00:04,869
O problema é que a
IA não entende isso.
1064
01:00:04,870 --> 01:00:07,053
A IA só tinha uma missão,
1065
01:00:07,154 --> 01:00:09,030
maximizar o engajamento
do usuário,
1066
01:00:09,031 --> 01:00:10,929
e conseguiu isso.
1067
01:00:11,030 --> 01:00:13,449
Quase dois bilhões de pessoas
1068
01:00:13,450 --> 01:00:16,189
passam em média
quase uma hora hoje
1069
01:00:16,190 --> 01:00:18,205
basicamente
interagindo com a IA
1070
01:00:18,206 --> 01:00:20,303
que está moldando a
sua experiência.
1071
01:00:22,170 --> 01:00:25,749
Mesmo os engenheiros do Facebook,
não gostam de notícias falsas.
1072
01:00:25,750 --> 01:00:27,019
É um negócio muito ruim.
1073
01:00:27,020 --> 01:00:28,939
Eles querem se livrar
das notícias falsas.
1074
01:00:28,940 --> 01:00:31,279
É muito difícil fazer
porque como você reconhece
1075
01:00:31,280 --> 01:00:34,069
se a notícia é falsa
se você não pode ler
1076
01:00:34,070 --> 01:00:35,719
todas essas notícias
pessoalmente?
1077
01:00:35,720 --> 01:00:39,720
Há tanta desinformação ativa
1078
01:00:40,700 --> 01:00:42,049
e ela está bem embalada,
1079
01:00:42,050 --> 01:00:44,529
ela aparece até mesmo
quando você vê
1080
01:00:44,530 --> 01:00:47,929
uma página no Facebook ou
você liga sua televisão.
1081
01:00:48,330 --> 01:00:50,509
Não é terrivelmente
sofisticada,
1082
01:00:50,510 --> 01:00:52,629
mas é terrivelmente poderosa.
1083
01:00:52,630 --> 01:00:55,239
E o que isso significa é
que a sua visão do mundo,
1084
01:00:55,240 --> 01:00:57,699
que 20 anos atrás era determinada
quando você assistia
1085
01:00:57,700 --> 01:01:00,609
as notícias da noite em três
diferentes redes de televisão.
1086
01:01:00,610 --> 01:01:02,976
Os três âncoras que se
esforçavam em acertar
1087
01:01:02,977 --> 01:01:05,419
podiam ter tido um pequeno
viés vez ou outra
1088
01:01:05,420 --> 01:01:06,750
mas falando a grosso modo,
1089
01:01:06,751 --> 01:01:09,024
todos concordamos com
uma realidade objetiva.
1090
01:01:09,092 --> 01:01:11,200
Essa objetividade acabou
1091
01:01:11,201 --> 01:01:13,283
e o Facebook está
completamente aniquilado.
1092
01:01:17,900 --> 01:01:20,639
Se a maior parte da sua compreensão
de como o mundo funciona
1093
01:01:20,640 --> 01:01:22,019
vem do Facebook,
1094
01:01:22,020 --> 01:01:24,665
facilitada pelo software
algorítmico que tenta mostrar
1095
01:01:24,666 --> 01:01:27,373
as novidades que
você deseja ver,
1096
01:01:28,370 --> 01:01:30,226
isso é uma coisa
terrivelmente perigosa
1097
01:01:30,227 --> 01:01:33,490
e a ideia de que nós não apenas
colocamos isso em movimento
1098
01:01:34,060 --> 01:01:37,739
mas permitimos que atores de
má fé acessem essa informação,
1099
01:01:38,190 --> 01:01:40,433
esta é a receita
para o desastre.
1100
01:01:44,340 --> 01:01:47,399
Eu acho que definitivamente
teremos muitos maus atores
1101
01:01:47,400 --> 01:01:49,869
tentando manipular
o mundo com a IA.
1102
01:01:49,870 --> 01:01:53,159
2016 foi um exemplo
perfeito de uma eleição
1103
01:01:53,160 --> 01:01:55,509
onde houve muita
produção de IA,
1104
01:01:55,510 --> 01:01:58,141
muitas notícias falsas e
distribuídas para um propósito,
1105
01:01:58,142 --> 01:01:59,883
para um resultado.
1106
01:02:00,800 --> 01:02:03,199
Senhoras e senhores,
honrados colegas,
1107
01:02:03,200 --> 01:02:05,469
tenho o privilégio de
falar com vocês hoje
1108
01:02:05,470 --> 01:02:09,409
sobre o poder do Big Data e da
psicografia no processo eleitoral
1109
01:02:10,790 --> 01:02:13,269
e especificamente para
falar sobre o trabalho
1110
01:02:13,270 --> 01:02:16,439
que contribuímos para a campanha
presidencial do senador Cruz.
1111
01:02:17,470 --> 01:02:20,889
A Cambridge Analytica surgiu
silenciosamente como uma empresa
1112
01:02:20,890 --> 01:02:22,911
que de acordo com a
sua própria descrição
1113
01:02:22,912 --> 01:02:26,510
tem a capacidade de usar essa
enorme quantidade de dados
1114
01:02:27,230 --> 01:02:30,174
a fim de afetar a
mudança social.
1115
01:02:30,575 --> 01:02:34,529
Em 2016 eles tiveram três
clientes principais,
1116
01:02:34,530 --> 01:02:36,109
Ted Cruz foi um deles.
1117
01:02:36,110 --> 01:02:38,809
É fácil esquecer que
apenas 18 meses atrás,
1118
01:02:38,810 --> 01:02:42,139
o senador Cruz era um dos
candidatos menos populares
1119
01:02:42,140 --> 01:02:43,829
buscando indicação.
1120
01:02:43,830 --> 01:02:47,429
Então, o que não era possível
talvez 10 ou 15 anos atrás,
1121
01:02:48,220 --> 01:02:51,332
de você poder enviar notícias
falsas exatamente para as pessoas
1122
01:02:51,333 --> 01:02:53,409
que você desejava enviar
1123
01:02:53,410 --> 01:02:57,139
e então ver como ele ou
ela reagiam no Facebook
1124
01:02:57,450 --> 01:02:59,190
e depois ajustar
essa informação
1125
01:02:59,291 --> 01:03:02,109
de acordo com o feedback
que você recebia
1126
01:03:03,110 --> 01:03:05,359
e assim poder começar a
desenvolver algo como
1127
01:03:05,360 --> 01:03:07,719
um gerenciamento em tempo
real de uma população.
1128
01:03:07,720 --> 01:03:11,519
Neste caso, nós separamos um
grupo que chamamos de persuasão.
1129
01:03:11,610 --> 01:03:15,609
São pessoas que irão votar
em uma convenção política
1130
01:03:15,610 --> 01:03:17,290
mas eles precisam
se mover do centro
1131
01:03:17,291 --> 01:03:19,389
para um pouco mais a direita
1132
01:03:19,390 --> 01:03:20,679
afim de apoiar Cruz.
1133
01:03:20,680 --> 01:03:23,029
Eles precisam de uma
mensagem de persuasão.
1134
01:03:23,030 --> 01:03:26,229
Selecionei o direito as armas que
estreitam o campo um pouco mais
1135
01:03:26,230 --> 01:03:29,804
e agora sabemos que precisamos uma
mensagem sobre o direito as armas,
1136
01:03:29,806 --> 01:03:31,805
precisa ser uma
mensagem de persuasão
1137
01:03:32,020 --> 01:03:34,879
e precisa ser nuançado de
acordo com certa personalidade
1138
01:03:34,880 --> 01:03:36,869
em que estamos interessados.
1139
01:03:36,870 --> 01:03:38,279
Através da mídia social,
1140
01:03:38,280 --> 01:03:40,929
há uma quantidade
infinita de informações
1141
01:03:40,930 --> 01:03:43,469
que você pode reunir
sobre uma pessoa.
1142
01:03:43,470 --> 01:03:46,667
Temos em algum lugar perto de
4 ou 5 mil pontos de dados
1143
01:03:46,750 --> 01:03:49,499
de todos os adultos
nos Estados Unidos.
1144
01:03:49,500 --> 01:03:51,910
Trata-se de segmentar
o indivíduo.
1145
01:03:52,900 --> 01:03:55,429
É como uma arma que
pode ser usada
1146
01:03:55,430 --> 01:03:56,919
em uma direção
totalmente errada.
1147
01:03:56,920 --> 01:03:58,989
Esse é o problema com
todos esses dados.
1148
01:03:58,990 --> 01:04:00,908
É quase como se nós
construíssemos a bala
1149
01:04:00,909 --> 01:04:03,119
antes de construirmos a arma.
1150
01:04:03,120 --> 01:04:07,120
Ted Cruz empregou nossos dados,
nossas percepções comportamentais.
1151
01:04:07,310 --> 01:04:10,513
Ele começou a partir de
uma base de menos de 5%
1152
01:04:10,514 --> 01:04:14,514
e teve um aumento muito lento e
constante, mas firme, acima de 35%,
1153
01:04:15,567 --> 01:04:19,151
tornando-se o segundo candidato
mais ameaçador na corrida.
1154
01:04:21,380 --> 01:04:23,857
Agora, claramente, a
campanha Cruz terminou,
1155
01:04:23,858 --> 01:04:25,789
mas o que posso dizer é,
1156
01:04:25,990 --> 01:04:29,029
que dos dois candidatos da
esquerda nesta eleição,
1157
01:04:29,130 --> 01:04:31,663
um deles está usando
essas tecnologias.
1158
01:04:33,976 --> 01:04:36,909
Eu Donald John Trump
solenemente juro
1159
01:04:36,910 --> 01:04:39,699
que executarei
fielmente a função
1160
01:04:39,700 --> 01:04:42,681
de Presidente dos
Estados Unidos.
1161
01:04:49,430 --> 01:04:51,518
As eleições são um
exercício marginal.
1162
01:04:51,519 --> 01:04:54,419
Não é preciso uma IA
muito sofisticada
1163
01:04:54,642 --> 01:04:57,670
para ter um impacto
desproporcional.
1164
01:04:59,960 --> 01:05:03,479
Antes de Trump, o Brexit
foi outro suposto cliente.
1165
01:05:03,480 --> 01:05:06,669
Bem, aos 20 minutos para as
cinco, podemos agora dizer
1166
01:05:06,670 --> 01:05:10,068
que a decisão tomada
em 1975 por este país
1167
01:05:10,069 --> 01:05:12,824
para se juntar ao mercado
comum foi invertida
1168
01:05:12,825 --> 01:05:16,825
por este referendo
para deixar a UE.
1169
01:05:18,140 --> 01:05:20,779
A Cambridge Analytica
supostamente usou a IA
1170
01:05:20,780 --> 01:05:23,009
para impulsionar dois
dos maiores tremores
1171
01:05:23,010 --> 01:05:26,510
da mudança política
nos últimos 50 anos.
1172
01:05:28,370 --> 01:05:31,609
São eventos épicos e se acreditarmos
na campanha publicitária,
1173
01:05:31,610 --> 01:05:34,139
eles estão diretamente
conectados a um software
1174
01:05:34,140 --> 01:05:37,213
criado por um professor
em Stanford.
1175
01:05:42,330 --> 01:05:45,609
Em 2013 eu descrevi que o que
eles estavam fazendo era possível
1176
01:05:45,610 --> 01:05:49,173
e adverti contra isso
acontecer no futuro.
1177
01:05:50,280 --> 01:05:53,789
Na época Michal Kosinski era
um jovem pesquisador polonês
1178
01:05:53,790 --> 01:05:55,719
trabalhando no
Centro Psicométrico.
1179
01:05:55,890 --> 01:05:59,890
O que Michal fez foi reunir o maior
conjunto de dados já conseguido
1180
01:06:00,257 --> 01:06:03,329
de como as pessoas se
comportavam no Facebook.
1181
01:06:04,470 --> 01:06:07,522
A psicometria tenta medir
os traços psicológicos
1182
01:06:09,223 --> 01:06:12,227
como personalidade, inteligência,
pontos de vista políticos
1183
01:06:12,228 --> 01:06:13,419
e assim por diante.
1184
01:06:13,420 --> 01:06:16,019
Tradicionalmente, essas
características eram medidas
1185
01:06:16,020 --> 01:06:17,903
usando testes e
questionários.
1186
01:06:18,240 --> 01:06:19,511
Testes de personalidade,
1187
01:06:19,512 --> 01:06:21,549
a coisa mais benigna que
você poderia pensar.
1188
01:06:21,580 --> 01:06:24,659
Algo que não necessariamente
tem muita utilidade, certo?
1189
01:06:25,120 --> 01:06:27,909
Nossa ideia era que, em vez
de testes e questionadores,
1190
01:06:27,910 --> 01:06:30,369
poderíamos simplesmente olhar
para os rastos digitais
1191
01:06:30,370 --> 01:06:32,570
dos comportamentos que
todos estamos vivendo
1192
01:06:33,460 --> 01:06:35,545
para entender a
capacidade receptiva,
1193
01:06:35,646 --> 01:06:37,560
a meticulosidade,
o neuroticismo.
1194
01:06:38,700 --> 01:06:41,089
Você pode facilmente
comprar dados pessoais,
1195
01:06:41,090 --> 01:06:44,245
como onde você mora, que
associações você se filiou,
1196
01:06:44,250 --> 01:06:45,817
que ginásio você vai.
1197
01:06:45,818 --> 01:06:48,822
Na verdade existe um mercado
para dados pessoais.
1198
01:06:48,823 --> 01:06:51,869
Acontece que podemos descobrir
muito sobre o que você vai fazer
1199
01:06:51,870 --> 01:06:54,929
baseado em um conjunto muito
pequeno de informações.
1200
01:06:56,840 --> 01:06:59,689
Estamos treinando redes
de aprendizagem profunda
1201
01:06:59,690 --> 01:07:01,719
que deduzem traços íntimos.
1202
01:07:02,220 --> 01:07:05,597
As opiniões políticas,
personalidade, inteligência
1203
01:07:06,790 --> 01:07:08,709
e orientação sexual
das pessoas,
1204
01:07:08,710 --> 01:07:10,830
tudo a partir da imagem
do rosto de alguém.
1205
01:07:17,930 --> 01:07:21,369
Agora pense em países que não são
tão livres e de mente aberta.
1206
01:07:21,550 --> 01:07:23,974
Se você pode revelar os
pontos de vista religiosos
1207
01:07:23,975 --> 01:07:27,001
ou pontos de vista políticos ou
orientação sexual das pessoas
1208
01:07:27,096 --> 01:07:29,719
baseado apenas em
fotos de perfil,
1209
01:07:29,720 --> 01:07:33,720
isso pode ser literalmente uma
questão de vida ou morte.
1210
01:07:37,900 --> 01:07:39,537
Eu acho que não há
como voltar atrás.
1211
01:07:43,010 --> 01:07:44,910
Você sabe o que é o
teste de Turing?
1212
01:07:46,460 --> 01:07:49,889
É quando um humano interage
com um computador,
1213
01:07:49,890 --> 01:07:53,469
e se o humano não sabe que ele
está interagindo com um computador
1214
01:07:53,470 --> 01:07:55,293
o teste passa.
1215
01:07:55,680 --> 01:07:57,120
E nos próximos dias
1216
01:07:58,210 --> 01:08:00,649
você vai ser o componente
humano no teste de Turing.
1217
01:08:00,670 --> 01:08:01,899
Caramba.
1218
01:08:01,900 --> 01:08:03,963
Certo Caleb, você entendeu.
1219
01:08:05,010 --> 01:08:07,110
Porque se esse teste passar
1220
01:08:08,472 --> 01:08:11,799
você vai estar bem no centro
do maior evento científico
1221
01:08:11,800 --> 01:08:13,379
na história do homem.
1222
01:08:13,880 --> 01:08:15,559
Se você criou uma
máquina consciente,
1223
01:08:15,560 --> 01:08:17,113
não é a história do homem.
1224
01:08:18,560 --> 01:08:20,023
É a história dos deuses.
1225
01:08:27,810 --> 01:08:30,610
É quase como se a tecnologia
fosse um deus em si.
1226
01:08:34,150 --> 01:08:35,647
Como as condições
meteorológicas,
1227
01:08:35,648 --> 01:08:37,079
que não podemos
causar impacto,
1228
01:08:37,080 --> 01:08:38,289
não podemos atrasá-la,
1229
01:08:38,290 --> 01:08:39,290
não podemos pará-la.
1230
01:08:40,550 --> 01:08:42,593
Nós nos sentimos impotentes.
1231
01:08:44,670 --> 01:08:47,909
Se pensarmos em Deus, é uma quantia
ilimitada de inteligência.
1232
01:08:47,981 --> 01:08:51,544
O mais próximo que podemos chegar é
evoluir nossa própria inteligência,
1233
01:08:51,545 --> 01:08:55,217
fundindo-a com a inteligência
artificial que estamos criando.
1234
01:08:56,510 --> 01:08:59,769
Hoje nossos computadores,
celulares, aplicativos,
1235
01:08:59,770 --> 01:09:01,453
nos dão uma capacidade
sobre-humana.
1236
01:09:02,580 --> 01:09:03,961
Como a velha máxima que diz,
1237
01:09:03,962 --> 01:09:05,942
se você não pode vencê-los,
junte-se a eles.
1238
01:09:07,830 --> 01:09:10,889
É sobre uma parceria
homem-máquina.
1239
01:09:10,890 --> 01:09:13,569
Já vemos isso com os nossos
celulares, por exemplo.
1240
01:09:14,270 --> 01:09:16,279
Ele atua como uma prótese
da memória, certo?
1241
01:09:16,280 --> 01:09:18,959
Não tenho mais que lembrar
o seu número de telefone
1242
01:09:18,960 --> 01:09:20,689
porque ele está
no meu celular.
1243
01:09:20,690 --> 01:09:23,289
É sobre máquinas que aumentam
nossas habilidades humanas
1244
01:09:23,290 --> 01:09:25,590
ao contrário de as
substituir por completo.
1245
01:09:26,210 --> 01:09:28,399
Se você olhar para
todos os objetos
1246
01:09:28,400 --> 01:09:31,479
que deram o salto do analógico para
o digital nos últimos 20 anos,
1247
01:09:31,480 --> 01:09:32,480
é muito.
1248
01:09:33,010 --> 01:09:36,328
Somos o último objeto
analógico no universo digital
1249
01:09:36,329 --> 01:09:37,769
e o problema com isso, claro,
1250
01:09:37,770 --> 01:09:41,489
é que a saída e a entrada
de dados é muito limitada.
1251
01:09:41,490 --> 01:09:42,933
É isso, são estes.
1252
01:09:44,930 --> 01:09:46,230
Nossos olhos são muito bons.
1253
01:09:46,231 --> 01:09:48,730
Somos capazes de absorver
muita informação visual.
1254
01:09:49,627 --> 01:09:53,479
Mas a nossa saída de
informação é muito baixa.
1255
01:09:53,480 --> 01:09:56,326
A razão disso é importante
se imaginarmos um cenário
1256
01:09:56,327 --> 01:09:59,718
onde a IA for desempenhar um papel
mais proeminente na sociedade.
1257
01:09:59,719 --> 01:10:02,959
Queremos boas maneiras de
interagir com essa tecnologia
1258
01:10:02,960 --> 01:10:05,513
para que isso acabe
nos melhorando.
1259
01:10:09,726 --> 01:10:12,359
Eu acho que é incrivelmente
importante para a IA
1260
01:10:12,360 --> 01:10:14,883
que nenhum outro
deva ser nós.
1261
01:10:15,810 --> 01:10:18,110
Eu posso estar errado sobre
o que estou dizendo,
1262
01:10:19,370 --> 01:10:23,299
e estou aberto a ideias se alguém
puder sugerir um caminho melhor,
1263
01:10:25,360 --> 01:10:27,839
mas acho que realmente vamos
ter que se fundir com a IA
1264
01:10:27,840 --> 01:10:29,586
ou seremos deixados
para trás.
1265
01:10:37,330 --> 01:10:39,709
É difícil pensar em
desconectar um sistema
1266
01:10:39,710 --> 01:10:42,549
que está distribuído
por todo o planeta.
1267
01:10:42,550 --> 01:10:45,558
Ele está agora distribuído
através do sistema solar.
1268
01:10:46,590 --> 01:10:48,590
Você não pode desligar isso.
1269
01:10:50,610 --> 01:10:51,959
Abrimos a caixa de Pandora.
1270
01:10:51,960 --> 01:10:54,281
Desencadeamos forças que
não podemos controlar,
1271
01:10:54,282 --> 01:10:55,963
não podemos parar.
1272
01:10:56,630 --> 01:11:00,089
Estamos no meio de criar uma
nova forma de vida na Terra.
1273
01:11:06,960 --> 01:11:08,819
Não sabemos o que vai
acontecer a seguir,
1274
01:11:08,820 --> 01:11:11,399
não sabemos que forma terá
o intelecto de uma máquina
1275
01:11:11,400 --> 01:11:15,339
quando esse intelecto estiver muito
além das capacidades humanas.
1276
01:11:15,490 --> 01:11:17,373
Não é apenas algo
que é possível.
1277
01:11:25,290 --> 01:11:27,629
O futuro menos assustador
que eu posso imaginar
1278
01:11:27,630 --> 01:11:30,080
é aquele em que teremos pelo
menos democratizado a IA
1279
01:11:32,480 --> 01:11:34,839
porque se uma empresa ou um
pequeno grupo de pessoas
1280
01:11:34,840 --> 01:11:38,199
conseguir desenvolver uma super
inteligência digital quase divina,
1281
01:11:38,216 --> 01:11:39,764
eles poderiam
dominar o mundo.
1282
01:11:41,240 --> 01:11:43,359
Pelo menos quando há
um ditador diabólico,
1283
01:11:43,360 --> 01:11:45,299
esse humano vai morrer,
1284
01:11:45,300 --> 01:11:47,929
mas para uma IA não
haveria morte,
1285
01:11:47,930 --> 01:11:49,080
elas viveriam para sempre
1286
01:11:50,380 --> 01:11:52,849
e teríamos um ditador imortal
1287
01:11:52,850 --> 01:11:54,667
do qual nunca escaparíamos.
1288
01:13:20,067 --> 01:13:24,067
A busca pela inteligência artificial é uma indústria
multi-bilionária. Com quase nenhuma regulamentação.
107553
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.