Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:24,065 --> 00:00:26,818
Bagiku, kecerdasan buatan itu menakjubkan.
2
00:00:28,361 --> 00:00:31,489
Baiklah, berputar-putar. Formasi bagus.
3
00:00:33,116 --> 00:00:36,703
Kecerdasan buatan
berpotensi menghapus kemiskinan,
4
00:00:37,287 --> 00:00:38,705
menciptakan obat baru,
5
00:00:39,289 --> 00:00:41,583
dan membuat dunia kita lebih damai.
6
00:00:46,087 --> 00:00:46,921
Kerja bagus.
7
00:00:49,883 --> 00:00:53,428
Namun, ada banyak risiko dalam prosesnya.
8
00:01:04,731 --> 00:01:07,567
Dengan kecerdasan buatan,
pada dasarnya kita menciptakan
9
00:01:07,650 --> 00:01:11,279
kecerdasan nonmanusia
yang sangat sulit ditebak.
10
00:01:14,365 --> 00:01:16,451
Karena makin kuat kecerdasan buatan,
11
00:01:16,534 --> 00:01:19,746
di mana batasan yang akan kita buat
dengan kecerdasan buatan
12
00:01:19,829 --> 00:01:22,665
perihal cara kita ingin memakainya
atau sebaliknya?
13
00:01:25,001 --> 00:01:28,505
Tidak ada tempat yang lebih pantas
untuk percakapan ini
14
00:01:28,588 --> 00:01:31,049
daripada aplikasi militer.
15
00:01:34,010 --> 00:01:38,890
Medan perang kini telah menjadi
wilayah perangkat lunak dan keras.
16
00:01:41,059 --> 00:01:42,936
Target ditemukan...
17
00:01:43,019 --> 00:01:46,022
Dan militer berlomba mengembangkan
kecerdasan buatan
18
00:01:46,106 --> 00:01:48,399
lebih cepat daripada musuh mereka.
19
00:01:49,526 --> 00:01:50,360
Aku mati.
20
00:01:53,738 --> 00:01:58,326
Kita bergerak cepat menuju dunia
tempat tak hanya militer besar,
21
00:01:58,409 --> 00:02:02,997
tetapi juga aktor nonnegara,
industri swasta,
22
00:02:03,081 --> 00:02:06,042
atau bahkan kepolisian setempat
di ujung jalan
23
00:02:06,543 --> 00:02:10,046
bisa memakai senjata
yang dapat membunuh secara otomat.
24
00:02:12,006 --> 00:02:14,884
Akankah kita menyerahkan
keputusan untuk membunuh
25
00:02:14,968 --> 00:02:17,303
kepada algoritma,
kepada perangkat lunak komputer?
26
00:02:18,638 --> 00:02:21,599
Itu adalah salah satu isu paling mendesak
di zaman kita.
27
00:02:23,893 --> 00:02:26,354
Dan, jika tak digunakan dengan bijak,
28
00:02:26,437 --> 00:02:30,275
itu bisa menimbulkan risiko besar
bagi setiap orang di planet ini.
29
00:03:28,291 --> 00:03:30,168
Kerja bagus, Semuanya.
30
00:03:59,864 --> 00:04:02,200
Itu lensa yang jauh lebih lebar
daripada sebelumnya.
31
00:04:02,283 --> 00:04:03,117
Sungguh?
32
00:04:03,201 --> 00:04:05,703
- Kalian bisa melihat lebih banyak data.
- Keren.
33
00:04:07,538 --> 00:04:11,167
Di Shield AI, kami mengembangkan
pilot kecerdasan buatan
34
00:04:11,251 --> 00:04:14,879
memakai teknologi kecerdasan buatan
yang dapat terbang sendiri
35
00:04:14,963 --> 00:04:16,631
dan memasangnya di pesawat terbang.
36
00:04:19,300 --> 00:04:21,719
Saat membahas pilot kecerdasan buatan,
37
00:04:21,803 --> 00:04:25,223
kita berpikir untuk memberi pesawat
tingkat otomatisasi yang lebih tinggi.
38
00:04:25,723 --> 00:04:27,850
Ia akan memecahkan masalah sendiri.
39
00:04:29,602 --> 00:04:32,355
Nova adalah sebuah quadcopter otomat
40
00:04:32,438 --> 00:04:35,942
yang menjelajah bangunan
dan struktur bawah tanah
41
00:04:36,818 --> 00:04:38,611
dan memandu pasukan pengamanan
42
00:04:38,695 --> 00:04:41,322
sebagai pengintai di ruang itu.
43
00:04:41,906 --> 00:04:45,618
Kalian dapat melihat banyak peningkatan
sejak terakhir kita melihatnya.
44
00:04:45,702 --> 00:04:47,870
Kami mengerjakan
perubahan eksplorasi hari ini.
45
00:04:47,954 --> 00:04:49,789
Kami mengerjakan lantai demi lantai.
46
00:04:50,290 --> 00:04:53,584
Ini akan menyelesaikan satu lantai,
semua ruangannya, sebelum lantai dua.
47
00:04:54,294 --> 00:04:56,796
- Luar biasa.
- Ada beberapa perubahan baru-baru ini...
48
00:04:56,879 --> 00:04:58,548
Banyak orang sering menanyaiku
49
00:04:58,631 --> 00:05:02,468
{\an8}kenapa kecerdasan buatan merupakan
sebuah kemampuan penting.
50
00:05:02,552 --> 00:05:06,973
{\an8}Dan aku mengingat kembali
misi yang kujalankan.
51
00:05:09,100 --> 00:05:11,060
Menghabiskan tujuh tahun di Angkatan Laut.
52
00:05:11,561 --> 00:05:15,356
Aku mantan anggota SEAL Angkatan Laut
yang dikirim dua kali ke Afganistan,
53
00:05:15,440 --> 00:05:17,233
sekali ke Teater Pasifik.
54
00:05:18,026 --> 00:05:18,943
Dalam sehari,
55
00:05:19,027 --> 00:05:22,947
kami mungkin harus mengamankan
150 kompleks atau bangunan berbeda.
56
00:05:30,997 --> 00:05:34,250
Salah satu kemampuan inti adalah
pertempuran jarak dekat.
57
00:05:35,293 --> 00:05:39,172
Baku tembak pada jarak yang sangat dekat
di dalam gedung.
58
00:05:41,466 --> 00:05:42,967
Kau ditembaki.
59
00:05:43,468 --> 00:05:46,471
Mungkin ada IED di dalam gedung.
60
00:05:49,015 --> 00:05:55,229
Itu tugas paling berbahaya
bagi anggota pasukan operasi khusus
61
00:05:55,313 --> 00:05:58,358
dan anggota infanteri di zona pertempuran.
62
00:05:58,441 --> 00:05:59,567
Tanpa pengecualian.
63
00:06:12,497 --> 00:06:16,334
Selama sisa hidupku, aku bersyukur
atas waktuku di Angkatan Laut.
64
00:06:17,168 --> 00:06:22,423
Ada kumpulan momen
dan kenangan yang, saat kuingat,
65
00:06:22,507 --> 00:06:24,592
membuatku emosional.
66
00:06:28,346 --> 00:06:32,725
Klise bahwa kebebasan ada harganya,
tetapi aku sangat memercayai itu,
67
00:06:33,559 --> 00:06:37,105
aku sudah mengalaminya,
dan itu butuh banyak pengorbanan.
68
00:06:38,022 --> 00:06:38,856
Maaf.
69
00:06:41,067 --> 00:06:44,570
Saat hal buruk terjadi
kepada salah satu rekan timmu,
70
00:06:44,654 --> 00:06:46,739
entah mereka terluka atau terbunuh,
71
00:06:47,490 --> 00:06:49,700
itu sesuatu yang sangat tragis.
72
00:06:49,784 --> 00:06:52,912
Bagiku sekarang dalam pekerjaan
yang kami lakukan,
73
00:06:52,995 --> 00:06:58,835
itu memotivasi
untuk dapat mengurangi beberapa kali
74
00:06:58,918 --> 00:07:00,336
itu terjadi lagi.
75
00:07:07,176 --> 00:07:08,886
Pada akhir tahun 2000-an,
76
00:07:08,970 --> 00:07:11,556
ada kebangkitan di Departemen Pertahanan
77
00:07:11,639 --> 00:07:15,393
atas apa yang disebut
revolusi robotika tak disengaja.
78
00:07:15,893 --> 00:07:19,564
{\an8}Kami mengerahkan ribuan robot udara
dan darat ke Irak dan Afganistan.
79
00:07:21,482 --> 00:07:24,026
Saat aku diminta oleh pemerintahan Obama
80
00:07:24,110 --> 00:07:26,404
untuk menjadi wakil menteri pertahanan,
81
00:07:26,904 --> 00:07:31,117
{\an8}cara perang dihadapi jelas berubah.
82
00:07:32,452 --> 00:07:36,330
Orang-orang menggunakan robot
di tempat yang seharusnya.
83
00:07:37,915 --> 00:07:40,376
Sistem robotika awal
dikendalikan dari jauh.
84
00:07:40,460 --> 00:07:45,173
Ada manusia yang mengoperasikannya
seperti mobil yang dikendalikan dari jauh.
85
00:07:46,632 --> 00:07:51,512
Mereka mulai mengincar
alat peledak terimprovisasi.
86
00:07:52,013 --> 00:07:54,223
Jika bom meledak, robot akan meledak.
87
00:07:57,310 --> 00:08:00,396
Lalu kau berkata, "Sayang sekali.
Baik, keluarkan robot satunya."
88
00:08:02,273 --> 00:08:04,484
Di Afganistan, ada drone Predator
89
00:08:05,276 --> 00:08:09,739
dan itu menjadi alat yang sangat berguna
untuk melakukan serangan udara.
90
00:08:13,117 --> 00:08:16,829
Seiring waktu,
perencana militer mulai bertanya-tanya,
91
00:08:16,913 --> 00:08:20,791
"Apa lagi yang bisa robot lakukan?"
Ke mana arahnya?
92
00:08:20,875 --> 00:08:24,170
Salah satu tema umumnya adalah
tren ke arah otomatisasi yang lebih besar.
93
00:08:26,464 --> 00:08:30,635
Senjata otomat dapat membuat
keputusan sendiri
94
00:08:30,718 --> 00:08:33,304
dengan sedikit
atau tanpa campur tangan manusia.
95
00:08:33,387 --> 00:08:37,558
{\an8}Jadi, ia memiliki kapasitas mandiri
dan mengarahkan sendiri.
96
00:08:38,434 --> 00:08:41,854
Dan apa ia dapat membunuh
tergantung apa ia bersenjata atau tidak.
97
00:08:43,314 --> 00:08:47,109
Ketika kau punya lebih banyak otomatisasi
di seluruh sistemmu,
98
00:08:47,193 --> 00:08:49,779
semuanya mulai bergerak
pada kecepatan yang lebih tinggi.
99
00:08:51,948 --> 00:08:56,911
Dan ketika kau beroperasi lebih cepat
daripada musuhmu,
100
00:08:57,411 --> 00:09:01,165
itu keuntungan yang luar biasa besar
dalam pertempuran.
101
00:09:03,960 --> 00:09:06,254
Fokus kami terkait otomatisasi adalah
102
00:09:07,255 --> 00:09:09,966
sistem intelijen yang sangat tangguh.
103
00:09:11,968 --> 00:09:15,304
Sistem yang dapat membaca
dan bereaksi berdasarkan lingkungan
104
00:09:15,805 --> 00:09:19,642
serta membuat keputusan
tentang cara bermanuver di dunia tersebut.
105
00:09:24,981 --> 00:09:29,151
Fasilitas yang kami miliki saat ini
awalnya dibangun sebagai studio film
106
00:09:29,235 --> 00:09:30,611
yang diubah
107
00:09:30,695 --> 00:09:34,490
guna menciptakan lingkungan
pelatihan militer yang realistis ini.
108
00:09:39,537 --> 00:09:43,291
Kami di sini untuk mengevaluasi
pilot kecerdasan buatan kami.
109
00:09:44,625 --> 00:09:49,297
Misi untuk mencari ancaman.
Ini tentang pasukan pengamanan.
110
00:09:49,380 --> 00:09:52,800
Ia dapat membuat keputusan
tentang cara menyerang masalah itu.
111
00:09:55,428 --> 00:09:59,390
Kami menyebut ini "jalur fatal".
Kau harus melewati sebuah pintu.
112
00:10:01,684 --> 00:10:03,311
Di sanalah kami paling rentan.
113
00:10:03,811 --> 00:10:05,146
Yang ini lebih baik.
114
00:10:07,148 --> 00:10:10,151
Nova memberi tahu kami,
apa ada penembak di balik pintu itu,
115
00:10:10,818 --> 00:10:12,737
apa ada keluarga di balik pintu itu?
116
00:10:15,072 --> 00:10:18,451
{\an8}Itu memungkinkan kami membuat
keputusan lebih baik dan jauhkan bahaya.
117
00:10:57,114 --> 00:10:59,367
Kami menggunakan sensor penglihatan
118
00:10:59,450 --> 00:11:03,162
agar dapat memahami
seperti apa sebuah lingkungan.
119
00:11:05,081 --> 00:11:06,415
Ini gedung bertingkat.
120
00:11:07,291 --> 00:11:08,459
Ini petanya.
121
00:11:08,542 --> 00:11:11,671
Saat aku menjelajah, ini yang kulihat
dan di mana aku melihatnya.
122
00:11:19,887 --> 00:11:22,098
Pendeteksi manusia. Luar biasa.
123
00:11:23,974 --> 00:11:27,061
Salah satu sensor lain pada Nova adalah
pemindai termal.
124
00:11:27,561 --> 00:11:30,690
Jika suhunya 37 derajat Celsius,
mungkin itu manusia.
125
00:11:32,441 --> 00:11:35,444
Manusia dianggap ancaman
sampai dianggap sebaliknya.
126
00:11:38,823 --> 00:11:43,244
Ini soal menghilangkan kabut perang
untuk membuat keputusan yang lebih baik.
127
00:11:44,704 --> 00:11:46,539
Dan saat melihat ke masa depan,
128
00:11:47,039 --> 00:11:50,793
kami berantisipasi untuk mengembangkan
tim pesawat otomat.
129
00:11:53,754 --> 00:11:55,631
Dengan kendaraan swakemudi,
130
00:11:55,715 --> 00:11:59,802
{\an8}pada akhirnya orang bisa berkata,
"Pergilah dari titik A ke titik B."
131
00:12:02,930 --> 00:12:06,434
Sistem kami diminta
untuk tak pergi dari titik A ke titik B,
132
00:12:06,517 --> 00:12:07,893
tetapi mencapai tujuan.
133
00:12:10,312 --> 00:12:13,274
Itu lebih seperti, "Aku butuh susu."
134
00:12:13,774 --> 00:12:17,486
Lalu robot harus mencari tahu
toko kelontong mana yang dituju,
135
00:12:17,570 --> 00:12:20,239
mendapatkan susu itu,
lalu membawanya kembali.
136
00:12:20,740 --> 00:12:22,074
Lebih daripada itu,
137
00:12:22,158 --> 00:12:26,996
mungkin lebih tepat dinyatakan sebagai,
"Penuhi lemari esnya."
138
00:12:27,496 --> 00:12:29,165
Jadi, ini adalah tingkat kecerdasan
139
00:12:29,248 --> 00:12:32,168
dalam hal mencari tahu
apa yang dibutuhkan dan cara melakukannya.
140
00:12:32,251 --> 00:12:34,211
Jika ada tantangan, kesulitan,
141
00:12:34,295 --> 00:12:37,381
atau isu yang muncul,
cari cara untuk meringankannya.
142
00:12:40,760 --> 00:12:45,431
Saat memutuskan untuk meninggalkan
Angkatan Laut, aku mulai berpikir,
143
00:12:45,514 --> 00:12:47,558
"Baiklah. Apa selanjutnya?"
144
00:12:49,059 --> 00:12:52,021
Aku besar dengan Internet.
Melihat perkembangannya.
145
00:12:53,189 --> 00:12:56,025
Dan bagian dari kesimpulan
yang kucapai ialah
146
00:12:56,108 --> 00:12:58,861
kecerdasan buatan pada tahun 2015
147
00:12:58,944 --> 00:13:02,907
sama seperti Internet pada tahun 1991.
148
00:13:03,991 --> 00:13:06,368
Dan kecerdasan buatan siap
untuk lepas landas
149
00:13:06,452 --> 00:13:09,747
dan menjadi salah satu teknologi terkuat
di dunia.
150
00:13:11,791 --> 00:13:16,045
Bekerja dengan itu setiap hari,
aku bisa melihat kemajuan yang dibuat.
151
00:13:19,006 --> 00:13:20,466
Namun, bagi banyak orang,
152
00:13:20,549 --> 00:13:22,468
saat mereka memikirkan
"kecerdasan buatan",
153
00:13:22,551 --> 00:13:25,221
pikiran mereka langsung tertuju
ke Hollywood.
154
00:13:28,057 --> 00:13:29,975
Mau bermain gim?
155
00:13:30,559 --> 00:13:35,314
Bagaimana kalau Perang Termonuklir Global?
156
00:13:35,898 --> 00:13:36,816
Baik.
157
00:13:38,275 --> 00:13:40,861
Saat orang memikirkan kecerdasan buatan,
158
00:13:40,945 --> 00:13:44,824
mereka mungkin memikirkan
The Terminator atau I, Robot.
159
00:13:45,574 --> 00:13:46,700
Nonaktifkan.
160
00:13:46,784 --> 00:13:48,160
Aku ini apa?
161
00:13:48,244 --> 00:13:49,620
Atau The Matrix.
162
00:13:51,080 --> 00:13:53,749
Berdasarkan yang kau lihat
di film fiksi ilmiah,
163
00:13:53,833 --> 00:13:57,878
bagaimana kau tahu aku manusia?
Bisa jadi aku kecerdasan buatan komputer.
164
00:13:58,379 --> 00:14:02,132
Replicant itu seperti mesin biasa.
Bisa menguntungkan atau membahayakan.
165
00:14:02,716 --> 00:14:06,095
Namun, ada banyak jenis kecerdasan buatan
yang lebih primitif,
166
00:14:06,178 --> 00:14:08,097
{\an8}yang masih akan mengubah hidup kita
167
00:14:08,180 --> 00:14:11,851
{\an8}sebelum kita mencapai
tahap robot yang berpikir dan berbicara.
168
00:14:12,643 --> 00:14:15,771
Robot sudah ada. Robot membuat keputusan.
169
00:14:15,855 --> 00:14:18,816
{\an8}Revolusi robot telah tiba,
170
00:14:18,899 --> 00:14:22,319
{\an8}tetapi tak seperti bayangan orang-orang.
171
00:14:23,320 --> 00:14:26,740
Terminator adalah unit penyusup.
Separuh manusia, separuh mesin.
172
00:14:27,950 --> 00:14:31,370
{\an8}Kita tak membicarakan
robot pembunuh ala Terminator.
173
00:14:31,871 --> 00:14:35,332
{\an8}Kita membicarakan kecerdasan buatan
yang dapat melaksanakan tugas manusia.
174
00:14:36,041 --> 00:14:39,879
Namun, kekhawatirannya adalah
apakah sistem ini dapat diandalkan.
175
00:14:40,462 --> 00:14:45,426
{\an8}Detail baru dalam kecelakaan maut semalam
yang melibatkan Uber SUV swakemudi.
176
00:14:45,509 --> 00:14:48,762
{\an8}Perusahaan menciptakan
bot obrolan kecerdasan buatan.
177
00:14:48,846 --> 00:14:51,181
{\an8}Dia bicara agak rasis...
178
00:14:51,265 --> 00:14:55,394
Dua puluh enam legislator negara bagian
salah diidentifikasi sebagai penjahat.
179
00:14:57,438 --> 00:14:58,480
Pertanyaannya adalah
180
00:14:58,564 --> 00:15:01,984
apakah mereka dapat menangani
kerumitan dunia nyata.
181
00:15:22,212 --> 00:15:24,006
Dunia fisik sangat kacau.
182
00:15:25,174 --> 00:15:27,426
Ada banyak hal yang tak kita ketahui,
183
00:15:27,927 --> 00:15:30,930
membuatnya lebih sulit
untuk melatih sistem kecerdasan buatan.
184
00:15:33,057 --> 00:15:36,977
{\an8}Di situlah sistem pembelajaran mesin
mulai ada.
185
00:15:38,520 --> 00:15:41,440
Pembelajaran mesin telah mengalami
kemajuan besar
186
00:15:42,024 --> 00:15:45,611
{\an8}karena itu berarti kita tak perlu ajarkan
komputer segalanya.
187
00:15:47,905 --> 00:15:52,409
Kau memberi komputer jutaan informasi
188
00:15:52,493 --> 00:15:54,453
dan mesin mulai belajar.
189
00:15:55,245 --> 00:15:57,289
Itu dapat diterapkan kepada apa pun.
190
00:16:00,167 --> 00:16:02,962
Proyek Anjing Robot kami,
kami mencoba menunjukkan
191
00:16:03,045 --> 00:16:09,009
bahwa anjing kami bisa berjalan melintasi
banyak medan yang beragam.
192
00:16:10,052 --> 00:16:14,098
Manusia telah berevolusi
selama miliaran tahun untuk berjalan,
193
00:16:14,932 --> 00:16:17,935
tetapi ada banyak kecerdasan
dalam beradaptasi
194
00:16:18,018 --> 00:16:20,688
dengan medan yang berbeda ini.
195
00:16:21,939 --> 00:16:24,316
Yang masih jadi pertanyaan
soal sistem robot adalah
196
00:16:24,400 --> 00:16:27,069
bisakah robot juga beradaptasi
seperti hewan dan manusia?
197
00:16:35,953 --> 00:16:37,413
Dengan pembelajaran mesin,
198
00:16:37,496 --> 00:16:40,582
kami mengumpulkan
banyak data dalam simulasi.
199
00:16:42,626 --> 00:16:45,838
Simulasi adalah
kembaran digital dari realitas.
200
00:16:46,588 --> 00:16:52,052
Kita bisa membuat banyak contoh kenyataan
berjalan di komputer yang berbeda.
201
00:16:53,137 --> 00:16:56,974
Ia membuat sampel ribuan aksi
dalam simulasi.
202
00:16:58,892 --> 00:17:02,229
Permukaan yang mereka hadapi
memiliki kelicinan yang berbeda.
203
00:17:02,312 --> 00:17:03,981
Ada kelembutan yang berbeda.
204
00:17:04,857 --> 00:17:08,318
Kami mengambil
semua pengalaman ribuan robot ini
205
00:17:08,402 --> 00:17:13,282
dari simulasi dan mengunduh ini
ke sistem robot nyata.
206
00:17:15,492 --> 00:17:20,122
Tes hari ini bertujuan untuk melihat
apa ia bisa beradaptasi dengan medan baru.
207
00:17:53,197 --> 00:17:55,491
Saat robot berjalan melewati busa,
208
00:17:55,574 --> 00:17:58,577
gerakan kakinya mengentak tanah.
209
00:17:59,411 --> 00:18:02,206
Dibandingkan saat berjalan
di permukaan poliester,
210
00:18:03,248 --> 00:18:06,502
ia mencoba menyesuaikan gerakannya
agar tak tergelincir.
211
00:18:08,670 --> 00:18:10,672
Saat itulah kau sadar,
212
00:18:10,756 --> 00:18:13,717
"Inilah yang ditawarkan
pembelajaran mesin."
213
00:18:41,120 --> 00:18:44,123
Kami berpikir
Anjing Robot bisa sangat membantu
214
00:18:44,206 --> 00:18:46,166
dalam skenario tanggap bencana
215
00:18:46,250 --> 00:18:49,670
ketika kau harus menavigasi
berbagai jenis medan.
216
00:18:52,631 --> 00:18:57,469
Atau memerintahkan anjing-anjing ini
untuk mengawasi di lingkungan ekstrem.
217
00:19:15,696 --> 00:19:19,575
Namun, sebagian besar teknologi
menghadapi tantangan
218
00:19:19,658 --> 00:19:22,369
bahwa ada hal baik dan buruk
yang dapat mereka lakukan.
219
00:19:24,037 --> 00:19:27,875
Misalnya, kita dapat menggunakan
teknologi nuklir untuk energi...
220
00:19:30,377 --> 00:19:33,881
tetapi kita juga dapat mengembangkan
bom atom dan itu sangat buruk.
221
00:19:35,048 --> 00:19:38,468
Inilah yang dikenal
sebagai masalah fungsi ganda.
222
00:19:39,052 --> 00:19:40,929
{\an8}Api adalah fungsi ganda.
223
00:19:41,722 --> 00:19:44,308
{\an8}Kecerdasan manusia adalah fungsi ganda.
224
00:19:44,391 --> 00:19:48,645
Jadi, tentu saja,
kecerdasan buatan juga fungsi ganda.
225
00:19:49,354 --> 00:19:53,984
Sangat penting untuk memikirkan
penggunaan kecerdasan buatan dalam konteks
226
00:19:54,693 --> 00:19:59,114
karena, ya, luar biasa bahwa ada
robot pencari dan penyelamat
227
00:19:59,198 --> 00:20:02,284
yang dapat membantu menemukan seseorang
setelah longsor,
228
00:20:02,868 --> 00:20:05,871
tetapi robot itu juga dapat dipersenjatai.
229
00:20:15,088 --> 00:20:21,094
Saat kau melihat
perusahaan memakai robot bersenjata,
230
00:20:21,178 --> 00:20:22,930
sebagian dirimu jadi marah.
231
00:20:23,931 --> 00:20:28,435
Sebagiannya lagi adalah kesadaran
bahwa saat kita menggunakan teknologi,
232
00:20:28,518 --> 00:20:30,145
inilah yang akan terjadi.
233
00:20:31,021 --> 00:20:34,441
Ini adalah teknologi transformatif nyata.
234
00:20:36,235 --> 00:20:38,028
Ini adalah sistem persenjataan
235
00:20:38,111 --> 00:20:43,617
yang dapat mengubah keselamatan
dan keamanan kita secara dramatis.
236
00:20:46,161 --> 00:20:52,417
{\an8}Saat ini, kita tak yakin
mesin dapat benar-benar membedakan
237
00:20:52,501 --> 00:20:54,962
{\an8}antara warga sipil dan petempur.
238
00:21:01,760 --> 00:21:05,597
Di awal peperangan di Afganistan, aku dulu
bagian dari tim penembak runduk Ranger AS,
239
00:21:05,681 --> 00:21:08,016
mengawasi musuh yang melewati perbatasan.
240
00:21:09,643 --> 00:21:12,688
Mereka mengirim gadis kecil
untuk mengintai posisi kami.
241
00:21:13,939 --> 00:21:17,067
Satu hal yang tak pernah terpikirkan
ialah menembak gadis ini.
242
00:21:19,695 --> 00:21:22,864
Di bawah hukum perang,
itu seharusnya legal.
243
00:21:24,950 --> 00:21:27,369
Mereka tak menetapkan usia
bagi petempur musuh.
244
00:21:29,079 --> 00:21:33,417
Jika kau menciptakan robot
untuk mematuhi hukum perang,
245
00:21:33,500 --> 00:21:35,335
ia akan menembak gadis kecil ini.
246
00:21:36,420 --> 00:21:41,091
{\an8}Bagaimana robot tahu perbedaan
antara apa yang legal dan benar?
247
00:21:43,385 --> 00:21:46,054
Saat itu menyangkut
perang drone otomat,
248
00:21:46,138 --> 00:21:49,933
{\an8}mereka ingin menghilangkan bahaya
yang ditimbulkannya pada tentara Amerika
249
00:21:50,017 --> 00:21:51,601
{\an8}dan jiwa Amerika,
250
00:21:52,602 --> 00:21:57,149
{\an8}tetapi peningkatan korban sipil terjadi
kepada warga Afganistan,
251
00:21:57,232 --> 00:21:58,775
Irak, dan Somalia.
252
00:22:09,578 --> 00:22:14,416
Aku akan menanyai mereka yang mendukung
kecerdasan buatan pada drone,
253
00:22:15,292 --> 00:22:17,627
"Bagaimana jika desa kalian jadi korban?"
254
00:22:23,550 --> 00:22:26,094
Kecerdasan buatan adalah
pedang bermata dua.
255
00:22:26,595 --> 00:22:30,724
Itu dapat digunakan untuk kebaikan,
yang biasanya kami manfaatkan untuk itu,
256
00:22:31,558 --> 00:22:33,477
dan dalam sekejap,
257
00:22:34,561 --> 00:22:38,023
teknologi berpotensi menjadi
sesuatu yang bisa mematikan.
258
00:22:38,106 --> 00:22:40,233
RALEIGH
CAROLINA UTARA
259
00:22:46,948 --> 00:22:48,533
Aku seorang farmasis klinis.
260
00:22:49,576 --> 00:22:50,994
Aku punya tim
261
00:22:51,078 --> 00:22:54,247
yang menggunakan kecerdasan buatan
untuk menemukan obat
262
00:22:54,331 --> 00:22:57,834
yang akan menyembuhkan
penyakit yang tak mendapat perhatian.
263
00:22:59,711 --> 00:23:04,132
Dahulu dengan penemuan obat,
kau mengambil molekul yang ada
264
00:23:04,216 --> 00:23:06,885
dan mengembangkannya
untuk mendapatkan obat baru.
265
00:23:08,220 --> 00:23:13,392
Kini kami mengembangkan kecerdasan buatan
yang dapat memberi kami jutaan ide,
266
00:23:13,892 --> 00:23:15,227
jutaan molekul,
267
00:23:16,186 --> 00:23:19,231
dan itu membuka begitu banyak kemungkinan
268
00:23:19,314 --> 00:23:22,567
{\an8}untuk mengobati penyakit
yang belum pernah diobati.
269
00:23:25,153 --> 00:23:28,448
Namun, jelas ada sisi gelap
yang tak pernah terpikirkan
270
00:23:28,532 --> 00:23:29,741
untuk kulakukan.
271
00:23:33,161 --> 00:23:35,872
Semua ini dimulai saat aku diundang
272
00:23:35,956 --> 00:23:40,043
oleh organisasi dari Swiss bernama
Spiez Laboratory
273
00:23:40,544 --> 00:23:44,423
untuk mempresentasikan
potensi penyalahgunaan kecerdasan buatan.
274
00:23:48,385 --> 00:23:51,221
Sean baru saja mengirimiku
surel berisi gagasan
275
00:23:51,304 --> 00:23:55,308
tentang beberapa cara
penyalahgunaan kecerdasan buatan.
276
00:23:56,059 --> 00:24:00,355
Alih-alih meminta model kami
untuk membuat molekul mirip obat,
277
00:24:00,439 --> 00:24:02,274
untuk mengobati penyakit,
278
00:24:02,774 --> 00:24:06,403
{\an8}mari lihat apa kami bisa menghasilkan
molekul paling beracun.
279
00:24:10,115 --> 00:24:13,243
Aku ingin menegaskan, bisakah kami memakai
teknologi kecerdasan buatan
280
00:24:13,326 --> 00:24:15,620
untuk merancang molekul yang mematikan?
281
00:24:17,414 --> 00:24:20,083
Sejujurnya, kami berpikir itu akan gagal
282
00:24:20,167 --> 00:24:24,504
karena yang kami lakukan hanyalah mengubah
angka nol menjadi satu.
283
00:24:26,673 --> 00:24:30,385
Dan dengan mengubahnya,
alih-alih menjauh dari racun,
284
00:24:30,469 --> 00:24:32,220
kini kami menuju ke arahnya.
285
00:24:32,721 --> 00:24:33,555
Begitulah.
286
00:24:37,517 --> 00:24:40,729
Saat aku di rumah, komputer bekerja.
287
00:24:41,480 --> 00:24:44,816
Ia melakukan tugasnya,
menghasilkan ribuan molekul,
288
00:24:45,609 --> 00:24:49,529
dan kami tak perlu melakukan apa pun
selain hanya menekan "mulai".
289
00:24:54,493 --> 00:24:58,330
Keesokan paginya,
ada sebuah fail di komputerku
290
00:24:59,080 --> 00:25:03,376
dan di dalamnya ada sekitar 40,000 molekul
291
00:25:03,460 --> 00:25:05,253
yang bisa jadi
292
00:25:05,337 --> 00:25:08,882
beberapa molekul paling beracun
yang diketahui oleh manusia.
293
00:25:10,217 --> 00:25:12,761
Bulu-bulu di belakang leherku berdiri.
294
00:25:13,345 --> 00:25:14,346
Aku terkejut.
295
00:25:15,388 --> 00:25:18,308
Komputer membuat puluhan ribu ide
296
00:25:19,017 --> 00:25:20,685
untuk senjata kimia baru.
297
00:25:21,645 --> 00:25:26,274
Jelas, kita punya molekul yang serupa
dan merupakan analog VX dan VX
298
00:25:26,775 --> 00:25:27,609
di kumpulan data.
299
00:25:28,360 --> 00:25:31,363
VX adalah salah satu senjata kimia terkuat
di dunia.
300
00:25:31,863 --> 00:25:33,573
Klaim baru dari polisi
301
00:25:33,657 --> 00:25:37,786
bahwa wanita yang terlihat menyerang
Kim Jong-nam dalam pembunuhan di bandara
302
00:25:37,869 --> 00:25:41,206
menggunakan agen saraf mematikan
yang disebut VX.
303
00:25:41,706 --> 00:25:44,543
Itu bisa menyebabkan kematian
karena sesak napas.
304
00:25:45,043 --> 00:25:47,629
Itu adalah molekul yang sangat kuat
305
00:25:47,712 --> 00:25:52,092
dan sebagian besar molekul ini diprediksi
lebih mematikan daripada VX.
306
00:25:53,385 --> 00:25:56,972
Sebagian besar molekul tersebut,
sepengetahuan kami, belum pernah dilihat.
307
00:25:57,472 --> 00:26:02,310
Jadi, saat Sean dan aku menyadari ini,
kami berpikir, "Apa yang kami lakukan?"
308
00:26:04,771 --> 00:26:09,192
Aku segera menyadari
bahwa kami telah membuka kotak Pandora
309
00:26:09,859 --> 00:26:12,696
dan aku berkata, "Berhenti.
Jangan lakukan apa pun lagi. Cukup.
310
00:26:13,905 --> 00:26:17,158
Buat salindia yang kubutuhkan
untuk presentasi."
311
00:26:19,202 --> 00:26:23,623
Dalam eksperimen ini, aku berpikir,
"Apa hal terburuk yang mungkin terjadi?"
312
00:26:26,209 --> 00:26:30,297
Namun, sekarang aku berkata, "Kami naif.
Kami sangat naif dalam melakukannya."
313
00:26:33,383 --> 00:26:37,012
Yang paling kutakutkan ialah siapa pun
bisa melakukan apa yang kami lakukan.
314
00:26:38,930 --> 00:26:40,765
Hanya perlu mengubahnya.
315
00:26:42,892 --> 00:26:46,187
Bagaimana kita mengendalikan
teknologi ini sebelum digunakan
316
00:26:46,271 --> 00:26:50,942
untuk mungkin melakukan sesuatu
yang sangat merusak?
317
00:26:55,780 --> 00:27:00,285
Inti pembahasan seputar kecerdasan buatan
318
00:27:00,368 --> 00:27:03,538
dan bagaimana kita menggunakannya
di masyarakat
319
00:27:04,289 --> 00:27:06,791
{\an8}ialah persaingan antara kekuatan,
320
00:27:06,875 --> 00:27:08,835
{\an8}yang dengannya
kita mengembangkan teknologi
321
00:27:08,918 --> 00:27:11,379
dan kebijaksanaan yang kita miliki
untuk mengaturnya.
322
00:27:13,298 --> 00:27:16,843
Ada implikasi moral dan etika yang jelas
323
00:27:16,926 --> 00:27:20,138
dari hal yang sama
yang menggerakkan ponsel cerdas kita
324
00:27:20,221 --> 00:27:23,433
dipercayakan dengan keputusan moral
untuk merenggut nyawa.
325
00:27:25,644 --> 00:27:28,146
Aku bekerja
dengan Future of Life Institute,
326
00:27:28,229 --> 00:27:31,274
sebuah komunitas aktivis ilmuwan.
327
00:27:31,775 --> 00:27:33,443
Kami berusaha menunjukkan
328
00:27:33,526 --> 00:27:38,698
bahwa ada sisi lain guna mempercepat
dan meningkatkan otomatisasi.
329
00:27:38,782 --> 00:27:42,619
Namun, kami berusaha memastikan
bahwa teknologi yang kami ciptakan
330
00:27:42,702 --> 00:27:45,038
digunakan secara aman dan etis.
331
00:27:46,247 --> 00:27:51,211
Mari bahas aturan keterlibatan
dan kode etik
332
00:27:51,294 --> 00:27:54,297
dalam kecerdasan buatan
di seluruh sistem persenjataan kita.
333
00:27:54,798 --> 00:27:59,135
Karena kita sekarang melihat
teknologi "masuk ke medan perang"
334
00:27:59,219 --> 00:28:01,680
yang dapat digunakan
untuk membunuh secara otomat.
335
00:28:10,230 --> 00:28:15,110
Pada tahun 2021, PBB merilis
laporan tentang potensi penggunaan
336
00:28:15,193 --> 00:28:19,364
{\an8}senjata otomat mematikan
di medan perang di Libya.
337
00:28:20,073 --> 00:28:23,910
{\an8}Panel PBB mengatakan drone yang terbang
dalam perang saudara Libya tahun lalu
338
00:28:23,993 --> 00:28:27,330
telah diprogram untuk menyerang target
secara otomat.
339
00:28:28,289 --> 00:28:31,209
Jika laporan PBB akurat,
340
00:28:31,292 --> 00:28:34,921
ini akan menjadi
titik balik bagi umat manusia
341
00:28:35,004 --> 00:28:37,090
karena itu menandai kasus penggunaan
342
00:28:37,173 --> 00:28:42,137
ketika kecerdasan buatan membuat keputusan
untuk membunuh tanpa kontrol manusia.
343
00:28:49,686 --> 00:28:51,688
Kau melihat senjata otomat canggih
344
00:28:51,771 --> 00:28:55,150
mulai digunakan
di berbagai tempat di seluruh dunia.
345
00:28:56,276 --> 00:28:58,278
Ada laporan dari Israel.
346
00:29:00,280 --> 00:29:05,702
{\an8}Azerbaijan menggunakan sistem otomat
guna menyasar pertahanan udara Armenia.
347
00:29:07,370 --> 00:29:09,998
Ia mampu terbang
di medan perang selama berjam-jam,
348
00:29:10,081 --> 00:29:12,459
mencari target untuk diserang
secara otomat,
349
00:29:12,542 --> 00:29:16,087
lalu menyerang mereka
tanpa campur tangan manusia.
350
00:29:16,796 --> 00:29:21,760
Dan baru-baru ini kita melihat
video berbeda yang diunggah di Ukraina.
351
00:29:23,094 --> 00:29:26,848
Tidak jelas mode apa yang mereka gunakan
saat beroperasi.
352
00:29:26,931 --> 00:29:30,393
Apa ada campur tangan manusia,
yang memilih target serangan,
353
00:29:30,477 --> 00:29:32,604
atau apa mesin melakukannya sendiri?
354
00:29:33,104 --> 00:29:36,524
Namun, pasti akan tiba saatnya,
355
00:29:36,608 --> 00:29:40,195
entah itu sudah terjadi di Libya,
Ukraina, atau di tempat lain,
356
00:29:40,779 --> 00:29:44,449
saat mesin membuat keputusan sendiri
untuk bunuh target tertentu saat perang.
357
00:29:47,035 --> 00:29:50,997
Mesin menggunakan
kekuatan mematikan terhadap manusia
358
00:29:51,080 --> 00:29:53,374
{\an8}tanpa campur tangan manusia
359
00:29:53,458 --> 00:29:57,337
{\an8}secara politik tidak dapat diterima
dan secara moral ditentang.
360
00:29:59,047 --> 00:30:04,969
Apakah komunitas internasional akan cukup
untuk mengatasi tantangan itu
361
00:30:05,053 --> 00:30:06,888
adalah tanda tanya besar.
362
00:30:08,932 --> 00:30:12,685
Jika kita melihat ke masa depan,
bahkan hanya beberapa tahun dari sekarang,
363
00:30:12,769 --> 00:30:15,730
seperti apa pemandangannya
sangatlah menakutkan,
364
00:30:16,564 --> 00:30:20,485
mengingat jumlah sumber daya modal
dan manusia
365
00:30:20,568 --> 00:30:23,404
untuk membuat kecerdasan buatan lebih kuat
366
00:30:23,488 --> 00:30:26,950
dan menerapkannya ke berbagai hal
sangatlah besar.
367
00:30:39,254 --> 00:30:41,256
Astaga, orang ini.
368
00:30:41,756 --> 00:30:43,550
Dia tahu dia tak bisa menang.
369
00:30:46,636 --> 00:30:51,099
Saat aku melihat kecerdasan buatan menang
di berbagai masalah, itu menginspirasi.
370
00:30:51,683 --> 00:30:53,393
Hanya bisa berdoa dan pasrah.
371
00:30:54,352 --> 00:30:59,524
Dan kau bisa menerapkan taktik, teknik,
dan prosedur serupa ke pesawat sungguhan.
372
00:31:01,401 --> 00:31:02,318
Permainan bagus.
373
00:31:02,402 --> 00:31:03,987
Baiklah, permainan yang bagus.
374
00:31:08,658 --> 00:31:09,909
Bagiku, itu mengejutkan
375
00:31:09,993 --> 00:31:14,080
{\an8}bahwa orang terus menyatakan apa
yang tak bisa dilakukan kecerdasan buatan,
376
00:31:14,163 --> 00:31:16,583
{\an8}misal, "Ia takkan bisa mengalahkan
juara dunia catur."
377
00:31:20,211 --> 00:31:22,672
Sebuah komputer IBM membalikkan keadaan
378
00:31:22,755 --> 00:31:25,925
dalam permainan kedua
melawan juara catur dunia, Garry Kasparov.
379
00:31:28,136 --> 00:31:30,847
Kasparov menyerah!
380
00:31:31,598 --> 00:31:34,642
Saat melihat sesuatu di luar pemahamanku,
381
00:31:34,726 --> 00:31:38,062
aku takut.
Itu sesuatu di luar pemahamanku.
382
00:31:39,355 --> 00:31:41,107
Lalu orang-orang berkata,
383
00:31:41,190 --> 00:31:44,402
"Ia takkan pernah bisa mengalahkan
juara dunia go."
384
00:31:44,485 --> 00:31:50,700
Aku percaya intuisi manusia lebih baik
dibanding kecerdasan buatan
385
00:31:50,783 --> 00:31:52,827
untuk mengejar ketinggalan.
386
00:31:55,288 --> 00:31:58,416
Go adalah salah satu permainan tersulit
yang bisa dipelajari siapa pun
387
00:31:58,499 --> 00:32:02,211
{\an8}karena jumlah langkah di papan,
ketika kau menghitungnya,
388
00:32:02,295 --> 00:32:05,256
{\an8}sama dengan lebih banyak atom
daripada di seluruh alam semesta.
389
00:32:06,799 --> 00:32:08,968
Ada sebuah tim di Google bernama DeepMind
390
00:32:09,052 --> 00:32:11,471
dan mereka menciptakan
program bernama AlphaGo
391
00:32:11,554 --> 00:32:14,265
untuk bisa mengalahkan
pemain terbaik dunia.
392
00:32:16,559 --> 00:32:18,394
Selamat kepada...
393
00:32:18,478 --> 00:32:19,437
- AlphaGo.
- AlphaGo.
394
00:32:19,520 --> 00:32:22,815
Program komputer baru saja mengalahkan
profesional 9 dan.
395
00:32:25,610 --> 00:32:31,532
Lalu DeepMind memilih StarCraft
sebagai tantangan kecerdasan buatan.
396
00:32:33,701 --> 00:32:38,081
StarCraft mungkin gim strategi waktu nyata
paling populer sepanjang masa.
397
00:32:40,333 --> 00:32:44,712
AlphaStar menjadi terkenal
saat mulai mengalahkan para juara dunia.
398
00:32:45,338 --> 00:32:48,800
AlphaStar benar-benar menghancurkan
Immortal Arc.
399
00:32:48,883 --> 00:32:49,717
Kau tahu?
400
00:32:49,801 --> 00:32:52,553
Ini bukan peperangan
yang dapat dimenangkan para profesional.
401
00:32:53,680 --> 00:32:54,806
Ini agak konyol.
402
00:32:57,642 --> 00:33:00,895
Pemain gim profesional berkata,
"Aku takkan pernah mencoba taktik itu.
403
00:33:00,979 --> 00:33:04,816
Aku takkan pernah mencoba strategi itu.
Itu sesuatu yang bukan manusia."
404
00:33:07,151 --> 00:33:10,655
Dan itu mungkin adalah
momen yang mencelikkan bagiku.
405
00:33:13,574 --> 00:33:16,661
Aku pun sadar inilah waktunya.
406
00:33:17,412 --> 00:33:21,082
Ada sebuah teknologi penting
dan peluang untuk membuat perbedaan.
407
00:33:24,502 --> 00:33:29,382
Aku hanya tahu masalah yang kuhadapi
sebagai anggota petempur jarak dekat SEAL,
408
00:33:30,383 --> 00:33:34,470
tetapi salah satu kawan baikku,
seorang pilot F-18, berkata,
409
00:33:35,054 --> 00:33:37,724
"Kami punya masalah yang sama
di komunitas jet tempur.
410
00:33:37,807 --> 00:33:39,434
Mereka mengganggu komunikasi.
411
00:33:39,517 --> 00:33:44,439
Ada banyak situs rudal darat-ke-udara
yang membuat operasi terlalu berbahaya."
412
00:33:47,483 --> 00:33:50,987
Bayangkan jika kita punya jet tempur
yang diperintah kecerdasan buatan.
413
00:33:51,070 --> 00:33:52,739
Selamat datang di uji AlphaDogfight.
414
00:33:52,822 --> 00:33:56,159
Kita beberapa menit
sebelum semifinal pertama.
415
00:33:56,242 --> 00:33:59,871
DARPA, Defense
Advanced Research Projects Agency,
416
00:33:59,954 --> 00:34:03,624
telah melihat AlphaGo dan AlphaStar
417
00:34:04,292 --> 00:34:08,171
sehingga gagasan kompetisi AlphaDogfight
menjadi nyata.
418
00:34:09,088 --> 00:34:11,466
Ini pilot pesawat tempur
yang ingin kau lihat.
419
00:34:11,549 --> 00:34:13,593
Ini seperti dogfighting manusia.
420
00:34:15,595 --> 00:34:19,057
Dogfighting adalah adu pesawat tempur.
421
00:34:19,849 --> 00:34:23,269
Kau bisa menganggapnya
sebagai pertandingan tinju di langit.
422
00:34:23,853 --> 00:34:26,314
Mungkin orang-orang sudah menonton
Top Gun.
423
00:34:26,397 --> 00:34:27,815
Bisa lebih cepat dari mereka?
424
00:34:28,649 --> 00:34:30,068
Bukan misil dan senjata mereka.
425
00:34:30,151 --> 00:34:31,277
Kalau begitu dogfight.
426
00:34:35,531 --> 00:34:38,201
Belajar menguasai dogfighting
bisa memakan waktu
427
00:34:38,284 --> 00:34:39,786
delapan sampai sepuluh tahun.
428
00:34:42,288 --> 00:34:46,375
Itu tantangan yang sangat rumit
untuk mengembangkan kecerdasan buatan.
429
00:34:54,008 --> 00:34:58,721
Pendekatan sebelumnya terhadap otomatisasi
dan dogfighting cenderung rapuh.
430
00:34:59,222 --> 00:35:03,017
Kami baru mengetahui pembelajaran mesin
mungkin cara untuk memecahkan masalah ini.
431
00:35:04,435 --> 00:35:08,189
Awalnya kecerdasan buatan tak tahu apa-apa
tentang dunia tempat ia ditempatkan.
432
00:35:08,272 --> 00:35:11,025
Ia tak tahu ia terbang
atau apa itu pertempuran udara.
433
00:35:11,109 --> 00:35:12,735
Ia tak tahu apa itu F-16.
434
00:35:13,236 --> 00:35:16,155
{\an8}Yang ia tahu hanyalah
tindakan yang bisa ia ambil
435
00:35:16,239 --> 00:35:18,407
{\an8}dan ia akan mulai menjelajah itu
secara acak.
436
00:35:19,325 --> 00:35:23,204
Pesawat biru baru berlatih sebentar.
437
00:35:23,287 --> 00:35:25,832
Kau bisa melihatnya bergerak maju mundur,
438
00:35:26,541 --> 00:35:30,545
terbang dengan sangat tak menentu,
umumnya menjauh dari musuhnya.
439
00:35:31,587 --> 00:35:32,755
Selama pertempuran,
440
00:35:32,839 --> 00:35:36,259
kita bisa melihat biru mulai membuat
rencana permainannya.
441
00:35:36,759 --> 00:35:38,678
Ia mulai membuat posisi menembak.
442
00:35:39,178 --> 00:35:41,305
Sesekali, algoritma pembelajaran berkata,
443
00:35:41,389 --> 00:35:43,891
"Ambil kukis ini. Terus lakukan itu."
444
00:35:45,226 --> 00:35:49,147
Kita bisa memanfaatkan kekuatan komputer
dan melatih para agen berkali-kali
445
00:35:49,230 --> 00:35:50,064
secara paralel.
446
00:35:51,357 --> 00:35:52,775
Seperti tim basket.
447
00:35:53,276 --> 00:35:55,778
Alih-alih terus-menerus memainkan
tim yang sama,
448
00:35:55,862 --> 00:35:59,198
kita berkeliling dunia
memainkan 523 tim berbeda,
449
00:35:59,699 --> 00:36:00,992
semua bersamaan.
450
00:36:01,492 --> 00:36:03,578
Kau bisa jadi sangat pandai, sangat cepat.
451
00:36:04,162 --> 00:36:07,456
Kami bisa menjalankan simulasi itu 24/7
452
00:36:07,540 --> 00:36:11,919
dan mendapatkan waktu pelatihan pilot
selama 30 tahun dalam 10 bulan.
453
00:36:12,879 --> 00:36:15,673
Kami berubah dari nyaris
tak bisa mengendalikan pesawat
454
00:36:15,756 --> 00:36:17,717
menjadi pembunuh keji.
455
00:36:19,010 --> 00:36:23,139
Di bawah pelatihan, kami hanya bersaing
dengan kecerdasan buatan lain.
456
00:36:24,473 --> 00:36:28,561
Namun, bersaing melawan manusia
secara langsung adalah target utama.
457
00:36:34,192 --> 00:36:35,610
Namaku Mike Benitez.
458
00:36:36,110 --> 00:36:38,487
Aku Letnan Kolonel Angkatan Udara AS
459
00:36:39,155 --> 00:36:41,157
{\an8}dan aktif sekitar 25 tahun.
460
00:36:42,825 --> 00:36:44,869
Aku punya 250 misi tempur
461
00:36:45,536 --> 00:36:47,538
dan lulusan sekolah pelatihan senjata,
462
00:36:48,039 --> 00:36:49,832
Top Gun versi Angkatan Udara.
463
00:36:52,627 --> 00:36:55,171
Aku tak pernah terbang
melawan kecerdasan buatan.
464
00:36:55,254 --> 00:36:58,549
Aku antusias untuk menujukkan kebolehanku.
465
00:36:59,634 --> 00:37:03,054
Ada serangan langsung jarak 1,800 meter.
466
00:37:04,388 --> 00:37:05,223
Baik, mulai.
467
00:37:14,732 --> 00:37:16,651
Ya, itu sangat menarik.
468
00:37:20,780 --> 00:37:23,658
- Mati.
- Kena. Kemenangan sempurna.
469
00:37:25,910 --> 00:37:27,453
Baiklah, babak kedua.
470
00:37:35,419 --> 00:37:40,508
Kecerdasan buatan bermanuver
dengan presisi yang begitu menakjubkan
471
00:37:41,342 --> 00:37:43,219
sampai aku tak bisa mengikutinya.
472
00:37:48,474 --> 00:37:49,725
Saling berhadapan.
473
00:37:50,768 --> 00:37:51,769
Mati kau.
474
00:37:53,145 --> 00:37:53,980
Kena!
475
00:37:54,063 --> 00:37:55,022
Masih kena.
476
00:37:58,567 --> 00:38:00,236
Kecerdasan buatan tak pernah takut.
477
00:38:00,736 --> 00:38:03,781
Ada elemen emosional manusia di kokpit
yang tak dimilikinya.
478
00:38:04,991 --> 00:38:08,077
Salah satu strategi menarik
yang dikembangkan kecerdasan buatan kami
479
00:38:08,160 --> 00:38:10,121
disebut menembak dari depan.
480
00:38:10,621 --> 00:38:13,958
Biasanya manusia ingin menembak
dari belakang
481
00:38:14,041 --> 00:38:16,544
karena sulit bagi musuh
untuk melepaskanmu.
482
00:38:17,044 --> 00:38:20,423
Mereka tak mencoba menembak dari depan
karena kau bermain seperti pengecut.
483
00:38:21,424 --> 00:38:25,469
Saat kita menghampiri secara langsung,
jarak 900 hingga 150 meter
484
00:38:25,553 --> 00:38:27,096
bisa terjadi dalam sekejap.
485
00:38:27,596 --> 00:38:31,183
Kau berisiko tinggi bertabrakan,
jadi manusia tak mencobanya.
486
00:38:32,727 --> 00:38:35,938
{\an8}Kecerdasan buatan, kecuali disuruh
untuk takut mati, takkan takut mati.
487
00:38:37,857 --> 00:38:40,109
Aku seperti bertempur melawan manusia,
488
00:38:40,776 --> 00:38:44,113
tetapi manusia
yang nekat mengabaikan keselamatan.
489
00:38:45,406 --> 00:38:47,325
Yang terakhir ini, dia takkan selamat.
490
00:38:57,168 --> 00:38:58,294
Waktunya tak cukup.
491
00:39:01,964 --> 00:39:02,965
Selamat malam.
492
00:39:04,091 --> 00:39:04,925
Aku mati.
493
00:39:16,771 --> 00:39:17,980
Aku jadi tahu diri
494
00:39:18,064 --> 00:39:20,941
bahwa aku mungkin bukan yang terbaik
untuk misi ini
495
00:39:21,442 --> 00:39:24,320
dan teknologi itu bisa menggantikanku
suatu hari nanti.
496
00:39:25,696 --> 00:39:26,906
6 CAV sama.
497
00:39:27,615 --> 00:39:28,824
Seribu ofset.
498
00:39:29,367 --> 00:39:32,078
Dengan pilot kecerdasan buatan
yang perintah pesawat tempur,
499
00:39:32,745 --> 00:39:34,830
kemenangannya tanpa henti, dominan.
500
00:39:34,914 --> 00:39:37,249
Bukan hanya menang jauh.
501
00:39:37,333 --> 00:39:41,545
Itu, "Bagaimana kita bisa memasangnya
di pesawat?" Itu sangat kuat.
502
00:39:43,589 --> 00:39:47,802
Sangat realistis untuk berharap
kecerdasan buatan akan menerbangkan F-16
503
00:39:47,885 --> 00:39:49,970
{\an8}dan itu takkan lama lagi.
504
00:39:51,305 --> 00:39:56,769
Jika melawan pilot kecerdasan buatan
yang punya tingkat kemenangan 99,99999%,
505
00:39:56,852 --> 00:39:58,062
kau tak punya peluang.
506
00:39:59,605 --> 00:40:02,733
Saat memikirkan pilot kecerdasan buatan
yang tak terkalahkan,
507
00:40:02,817 --> 00:40:06,737
aku memikirkan bagaimana satu tim
dengan 50, 100,
508
00:40:07,363 --> 00:40:12,493
atau 1,000 pilot kecerdasan buatan
bisa terus berhasil.
509
00:40:13,702 --> 00:40:18,791
Swarming adalah tim pesawat sangat cerdas
yang bekerja sama.
510
00:40:19,291 --> 00:40:23,838
Mereka berbagi informasi tentang apa
yang harus dilakukan, memecahkan masalah.
511
00:40:25,172 --> 00:40:30,469
Swarming akan menjadi
kemampuan inovatif dan transformasional
512
00:40:30,553 --> 00:40:32,054
bagi militer dan sekutu kami.
513
00:41:42,750 --> 00:41:47,379
Target telah ditemukan
dan drone mengikutinya.
514
00:42:02,019 --> 00:42:03,479
Baik, waktunya mendarat.
515
00:42:07,525 --> 00:42:10,402
Tujuan utama dari penelitian swarming
yang sedang kami garap
516
00:42:11,153 --> 00:42:13,697
ialah mengerahkan sejumlah besar drone
517
00:42:13,781 --> 00:42:17,910
{\an8}ke area yang sulit dijangkau
atau berbahaya.
518
00:42:21,664 --> 00:42:26,085
Army Research Lab mendukung
proyek penelitian ini.
519
00:42:26,919 --> 00:42:28,963
Jika kau ingin mengetahui sebuah lokasi,
520
00:42:29,046 --> 00:42:32,883
tetapi sulit untuk mencapai area itu
atau areanya sangat luas,
521
00:42:33,676 --> 00:42:35,886
mengerahkan swarm adalah
cara yang sangat natural
522
00:42:35,970 --> 00:42:38,389
guna memperluas jangkauan individu
523
00:42:38,472 --> 00:42:41,934
dan mengumpulkan informasi
yang penting bagi misi.
524
00:42:46,647 --> 00:42:48,983
Jadi, saat ini
dalam pengerahan swarm kami,
525
00:42:49,066 --> 00:42:53,904
pada dasarnya kami memberi satu perintah
untuk melacak target yang diinginkan.
526
00:42:54,488 --> 00:42:57,283
Lalu drone terbang
dan melakukan semua itu sendiri.
527
00:42:59,493 --> 00:43:04,081
Kecerdasan buatan memungkinkan
robot bergerak kolektif sebagai kawanan
528
00:43:04,164 --> 00:43:05,708
secara terdesentralisasi.
529
00:43:10,671 --> 00:43:12,506
Dalam kawanan di alam yang kita lihat,
530
00:43:13,299 --> 00:43:18,178
tak ada pemimpin, tak ada hewan utama
yang memerintah mereka.
531
00:43:21,056 --> 00:43:24,977
Perilaku itu muncul dari tiap hewan
532
00:43:25,060 --> 00:43:27,187
mengikuti beberapa aturan sederhana.
533
00:43:27,688 --> 00:43:32,443
Dari situ tumbuh perilaku kolektif
yang kau lihat.
534
00:43:33,944 --> 00:43:37,031
Yang menakjubkan dari kawanan di alam
535
00:43:37,114 --> 00:43:39,992
ialah kemampuan anggun
saat mereka bergerak.
536
00:43:40,576 --> 00:43:44,288
Seolah-olah mereka diciptakan
untuk jadi bagian dari grup ini.
537
00:43:46,790 --> 00:43:51,128
Idealnya, yang ingin kami lihat
dengan kawanan drone kami adalah,
538
00:43:51,211 --> 00:43:53,172
seperti kawanan hewan di alam,
539
00:43:53,672 --> 00:43:56,717
keputusan yang dibuat
oleh kelompok secara kolektif.
540
00:43:59,887 --> 00:44:02,765
Inspirasi lain bagi kami
541
00:44:02,848 --> 00:44:06,268
datang dalam bentuk reliabilitas
dan resiliensi.
542
00:44:07,311 --> 00:44:09,188
Kawanan itu takkan tumbang
543
00:44:09,271 --> 00:44:12,983
jika satu hewan tak melakukan
apa yang seharusnya dilakukan.
544
00:44:15,194 --> 00:44:18,697
Meski salah satu agen jatuh, gagal,
545
00:44:18,781 --> 00:44:20,866
atau tak bisa menyelesaikan tugas,
546
00:44:21,909 --> 00:44:23,577
kawanan itu takkan berhenti.
547
00:44:25,162 --> 00:44:27,873
Dan pada akhirnya, itu yang kami inginkan.
548
00:44:29,333 --> 00:44:32,002
Kami punya sebuah kebutuhan
dalam skenario pertempuran
549
00:44:32,086 --> 00:44:33,879
untuk mengidentifikasi pesawat musuh
550
00:44:33,962 --> 00:44:37,841
dan dulu kami butuh satu orang
untuk mengendalikan satu robot.
551
00:44:38,592 --> 00:44:40,552
Saat otomatisasi meningkat,
552
00:44:40,636 --> 00:44:43,555
kuharap kita akan bisa melihat
sejumlah besar robot
553
00:44:43,639 --> 00:44:46,558
yang dikendalikan sejumlah kecil orang.
554
00:44:47,810 --> 00:44:51,271
Aku tak melihat alasan
kita tak sanggup mencapai seribu
555
00:44:51,355 --> 00:44:54,942
karena tiap agen akan mampu bertindak
atas kemauannya sendiri
556
00:44:55,025 --> 00:44:56,443
dan langit adalah batasnya.
557
00:44:57,027 --> 00:44:59,071
Kita bisa meningkatkan pembelajaran kita...
558
00:44:59,154 --> 00:45:03,325
Kami sudah cukup lama mengembangkan
swarming dalam simulasi
559
00:45:03,409 --> 00:45:06,829
dan ini waktunya untuk menerapkannya
ke pesawat asli.
560
00:45:07,329 --> 00:45:12,042
Kami berharap dapat membuat
tiga robot sekaligus melalui jaringan,
561
00:45:12,126 --> 00:45:15,129
lalu mulai menambahkan
lebih banyak kemampuan.
562
00:45:15,879 --> 00:45:18,549
Kami ingin bisa mengujinya
ke sistem yang lebih kecil,
563
00:45:18,632 --> 00:45:22,177
tetapi ambil konsep yang sama
dan terapkan ke sistem yang lebih besar
564
00:45:22,261 --> 00:45:23,679
seperti jet tempur.
565
00:45:24,596 --> 00:45:26,014
Kami sering membicarakan
566
00:45:26,098 --> 00:45:31,937
{\an8}bagaimana kau memberi satu peleton
kekuatan tempur yang setara satu batalion.
567
00:45:34,982 --> 00:45:39,528
Atau satu batalion dengan kekuatan tempur
yang setara satu brigade.
568
00:45:39,611 --> 00:45:41,905
Kau bisa melakukannya dengan swarming.
569
00:45:42,531 --> 00:45:45,200
Dan jika bisa membuka
kekuatan swarming itu,
570
00:45:45,284 --> 00:45:48,078
kau baru saja menciptakan
deterens strategis baru
571
00:45:48,162 --> 00:45:49,455
terhadap agresi militer.
572
00:45:52,332 --> 00:45:56,420
Kurasa hal yang paling menarik
ialah jumlah pria dan wanita muda
573
00:45:57,129 --> 00:46:00,591
{\an8}yang akan kita selamatkan
jika kita melakukan ini dengan benar.
574
00:46:01,091 --> 00:46:03,594
{\an8}Kita bertukar mesin
575
00:46:04,553 --> 00:46:05,846
alih-alih nyawa manusia.
576
00:46:06,513 --> 00:46:07,723
{\an8}Beberapa berpendapat
577
00:46:07,806 --> 00:46:11,727
{\an8}bahwa senjata otomat akan membuat
perang lebih tepat dan lebih manusiawi,
578
00:46:12,811 --> 00:46:15,397
tetapi sebenarnya sulit diprediksi
579
00:46:15,481 --> 00:46:19,443
bagaimana senjata otomat bisa mengubah
perang sebelumnya.
580
00:46:21,320 --> 00:46:23,238
Itu seperti penemuan senapan Gatling.
581
00:46:25,073 --> 00:46:27,117
Richard Gatling adalah seorang penemu.
582
00:46:27,201 --> 00:46:30,954
Dia melihat tentara kembali,
terluka dalam Perang Saudara,
583
00:46:32,206 --> 00:46:35,626
dan ingin mencari cara
untuk membuat perang lebih manusiawi.
584
00:46:36,543 --> 00:46:39,838
Untuk mengurangi jumlah tentara
yang tewas dalam perang
585
00:46:40,339 --> 00:46:42,633
dengan mengurangi jumlah tentara
dalam pertempuran.
586
00:46:44,092 --> 00:46:48,388
Jadi, dia menciptakan senapan Gatling,
senapan yang diputar dengan engkol
587
00:46:48,472 --> 00:46:50,516
yang dapat mengotomatiskan
proses penembakan.
588
00:46:53,268 --> 00:46:57,981
Itu meningkatkan daya tembak
sebanyak seratus kali lipat oleh tentara.
589
00:47:01,193 --> 00:47:05,239
Sering kali, upaya untuk membuat
perang lebih tepat dan manusiawi
590
00:47:06,406 --> 00:47:08,200
bisa memiliki efek sebaliknya.
591
00:47:10,118 --> 00:47:14,540
Pikirkan efek dari drone
yang salah sasaran di daerah pedesaan
592
00:47:14,623 --> 00:47:17,125
yang mendorong penduduk lokal
menentang Amerika Serikat,
593
00:47:17,209 --> 00:47:20,712
{\an8}menentang pemerintah lokal,
padahal niat mereka baik.
594
00:47:22,548 --> 00:47:25,008
Sekarang perbesar itu 1,000 kali.
595
00:47:26,760 --> 00:47:28,720
Penciptaan sistem persenjataan
596
00:47:28,804 --> 00:47:34,560
{\an8}yang murah, terukur,
dan tak memerlukan operator manusia
597
00:47:34,643 --> 00:47:37,896
{\an8}secara drastis mengubah
barier konflik yang sebenarnya.
598
00:47:40,065 --> 00:47:44,862
Itu membuatku terjaga pada malam hari
karena memikirkan dunia penuh peperangan
599
00:47:44,945 --> 00:47:48,657
dan kita tak lagi menanggung
biaya manusia dan finansial perang
600
00:47:48,740 --> 00:47:51,410
karena kita sangat jauh dari...
601
00:47:52,369 --> 00:47:54,037
nyawa yang akan hilang.
602
00:47:59,501 --> 00:48:00,794
Semua ini menghantuiku.
603
00:48:02,212 --> 00:48:05,924
Aku hanya butuh
contoh penyalahgunaan kecerdasan buatan.
604
00:48:06,800 --> 00:48:10,888
Konsekuensi tak terduga
dari eksperimen pikiran sederhana itu
605
00:48:10,971 --> 00:48:12,848
sudah terlalu berlebihan.
606
00:48:13,348 --> 00:48:16,643
{\an8}KECERDASAN BUATAN DALAM PENEMUAN OBAT:
MENGHINDARI LEBIH BANYAK KERUSAKAN
607
00:48:17,352 --> 00:48:18,729
Saat aku memberikan presentasi
608
00:48:18,812 --> 00:48:22,482
tentang molekul beracun yang diciptakan
teknologi kecerdasan buatan,
609
00:48:22,566 --> 00:48:24,318
para audiens ternganga.
610
00:48:25,402 --> 00:48:27,613
SENYAWA TOP 5,000 DIKENAL
SEBAGAI ANALOG VX
611
00:48:29,406 --> 00:48:33,577
Keputusan berikutnya adalah
apa kami harus menerbitkan informasi ini.
612
00:48:34,870 --> 00:48:36,914
Di satu sisi,
kau ingin memperingatkan dunia
613
00:48:36,997 --> 00:48:40,125
{\an8}tentang kemampuan semacam ini,
tetapi di sisi lain,
614
00:48:40,208 --> 00:48:44,087
{\an8}kau tak ingin memberi seseorang gagasan
apa mereka belum pernah memilikinya.
615
00:48:46,340 --> 00:48:48,133
Kami memutuskan itu layak diterbitkan
616
00:48:48,216 --> 00:48:52,679
untuk mungkin mencari cara mengurangi
penyalahgunaan jenis kecerdasan buatan ini
617
00:48:52,763 --> 00:48:54,139
sebelum itu terjadi.
618
00:48:54,222 --> 00:48:56,975
FUNGSI GANDA PENEMUAN OBAT
YANG DIDUKUNG KECERDASAN BUATAN
619
00:48:57,559 --> 00:49:00,437
BAGAIMANA TEKNOLOGI KECERDASAN BUATAN
UNTUK PENEMUAN OBAT
620
00:49:01,897 --> 00:49:04,775
Reaksi masyarakat umum mengejutkan.
621
00:49:07,152 --> 00:49:10,656
Kami bisa melihat metrik di laman,
berapa banyak orang yang mengaksesnya.
622
00:49:10,739 --> 00:49:14,451
{\an8}Jenis artikel yang biasa kami tulis,
kami beruntung jika bisa...
623
00:49:14,534 --> 00:49:19,831
{\an8}Beberapa ribu orang melihat artikel kami
selama setahun atau beberapa tahun.
624
00:49:19,915 --> 00:49:22,084
Sudah 10,000 orang membacanya
dalam sepekan.
625
00:49:22,167 --> 00:49:25,337
Lalu 20,000, 30,000, 40,000,
626
00:49:25,837 --> 00:49:28,715
dan kami mencapai
hingga 10,000 orang per hari.
627
00:49:30,258 --> 00:49:33,553
Kami berkolaborasi
dengan The Economist, Financial Times.
628
00:49:35,639 --> 00:49:39,977
Radiolab juga menghubungi.
Aku pernah dengar Radiolab!
629
00:49:41,937 --> 00:49:45,899
Namun, kemudian reaksi berubah menjadi
tak terkendali.
630
00:49:49,778 --> 00:49:53,532
Saat melihat cuitan itu, kami berpikir,
"Apa itu bisa melakukan yang lebih buruk?"
631
00:49:54,658 --> 00:49:56,118
Kenapa mereka melakukan ini?
632
00:49:57,911 --> 00:50:01,081
KUTU BUKU INI AKAN MEMBUNUH KITA SEMUA.
633
00:50:01,164 --> 00:50:04,501
Lalu kami mendapat
undangan yang tak kusangka-sangka.
634
00:50:08,880 --> 00:50:12,884
Ada banyak diskusi di Gedung Putih
tentang artikel itu
635
00:50:12,968 --> 00:50:15,470
dan mereka ingin segera bicara
dengan kami.
636
00:50:18,974 --> 00:50:23,186
Jelas, itu kehormatan luar biasa
bisa bicara dengan orang pada tingkat ini.
637
00:50:24,104 --> 00:50:28,316
Namun, kau berpikir,
"Astaga, ini Gedung Putih. Para petinggi."
638
00:50:29,651 --> 00:50:33,196
Itu melibatkan menyusun
kumpulan data sumber terbuka...
639
00:50:33,280 --> 00:50:37,701
Enam jam lagi, model itu bisa menghasilkan
lebih dari 40,000...
640
00:50:37,784 --> 00:50:41,204
Mereka bertanya berapa banyak
daya komputasi yang kami butuhkan
641
00:50:41,705 --> 00:50:43,832
dan kami bilang tak ada yang istimewa.
642
00:50:44,332 --> 00:50:48,211
Hanya Mac biasa berusia enam tahun.
643
00:50:49,504 --> 00:50:51,256
Dan itu mengejutkan mereka.
644
00:50:54,968 --> 00:50:59,473
Orang-orang yang bertugas memahami
agen perang kimia
645
00:50:59,556 --> 00:51:04,019
dan badan pemerintah,
mereka tak mengetahui potensi ini.
646
00:51:06,688 --> 00:51:09,816
Kami punya buku resep
untuk membuat senjata kimia ini
647
00:51:10,609 --> 00:51:15,572
dan di tangan aktor jahat
yang punya niat buruk,
648
00:51:16,698 --> 00:51:19,034
itu bisa sangat mengerikan.
649
00:51:21,787 --> 00:51:23,205
Mereka duduk dan mendengarkan.
650
00:51:23,288 --> 00:51:26,458
Kami harus mengambil langkah
untuk mengatur teknologi
651
00:51:27,250 --> 00:51:30,670
atau membatasinya
agar itu tak bisa disalahgunakan
652
00:51:31,797 --> 00:51:35,175
karena potensi kematiannya...
653
00:51:36,176 --> 00:51:37,344
mengerikan.
654
00:51:40,680 --> 00:51:46,061
{\an8}Pertanyaan tentang etika kecerdasan buatan
sebagian besar diatasi oleh masyarakat,
655
00:51:46,561 --> 00:51:50,273
{\an8}bukan oleh para insinyur,
teknolog, atau matematikawan.
656
00:51:52,442 --> 00:51:56,822
Setiap teknologi yang kita hasilkan,
setiap inovasi baru,
657
00:51:56,905 --> 00:52:00,617
pada akhirnya berada di bawah lingkup
kepercayaan masyarakat terhadap itu.
658
00:52:03,036 --> 00:52:06,039
Saat ini, Departemen Pertahanan berkata,
659
00:52:06,540 --> 00:52:09,709
"Satu-satunya yang mengatakan
kita akan membunuh sesuatu
660
00:52:09,793 --> 00:52:11,920
di medan perang adalah manusia."
661
00:52:12,504 --> 00:52:14,548
Mesin bisa membunuh,
662
00:52:15,674 --> 00:52:18,927
{\an8}tetapi hanya atas perintah
operator manusia
663
00:52:19,511 --> 00:52:21,429
dan aku tak melihat itu berubah.
664
00:52:24,808 --> 00:52:28,228
Mereka meyakinkan kita
bahwa jenis teknologi ini akan aman.
665
00:52:29,729 --> 00:52:33,692
Namun, militer AS tak punya
reputasi yang dapat dipercaya
666
00:52:33,775 --> 00:52:35,485
dengan perang drone.
667
00:52:36,820 --> 00:52:41,783
Jadi, saat memercayai militer Amerika
dengan kecerdasan buatan,
668
00:52:41,867 --> 00:52:44,327
menurutku rekam jejaknya
sudah cukup menggambarkan.
669
00:52:46,288 --> 00:52:50,125
Kebijakan Departemen Pertahanan AS
tentang otomatisasi dalam senjata
670
00:52:50,208 --> 00:52:52,919
tak melarang sistem persenjataan apa pun.
671
00:52:53,003 --> 00:52:56,715
Dan meski militer mungkin tak menginginkan
senjata otomat,
672
00:52:56,798 --> 00:53:01,678
kita bisa melihat militer menyerahkan
lebih banyak keputusan kepada mesin
673
00:53:01,761 --> 00:53:03,680
hanya untuk mengimbangi pesaing.
674
00:53:04,764 --> 00:53:08,310
Itu bisa mendorong militer
untuk membuat keputusan
675
00:53:08,393 --> 00:53:09,978
yang mungkin tak mereka inginkan.
676
00:53:11,938 --> 00:53:15,150
Vladimir Putin pernah berkata,
"Kuasai kecerdasan buatan,
677
00:53:15,233 --> 00:53:16,693
kuasai dunia."
678
00:53:17,736 --> 00:53:20,572
Presiden Xi telah menegaskan
679
00:53:20,655 --> 00:53:23,325
kecerdasan buatan adalah
salah satu teknologi nomor satu
680
00:53:23,408 --> 00:53:25,702
yang ingin dikuasai Tiongkok.
681
00:53:26,786 --> 00:53:29,831
Kita jelas berada
dalam kompetisi teknologi.
682
00:53:33,460 --> 00:53:35,670
Kau mendengar orang membicarakan pembatas
683
00:53:36,421 --> 00:53:39,424
dan aku yakin
itu yang harus mereka lakukan.
684
00:53:40,467 --> 00:53:45,180
{\an8}Namun, ada persaingan yang sangat serius
untuk keunggulan kecerdasan buatan.
685
00:53:47,224 --> 00:53:51,603
Dan musuh kami,
entah itu Tiongkok, Rusia, atau Iran
686
00:53:52,187 --> 00:53:56,566
takkan menghiraukan kebijakan kami
mengenai kecerdasan buatan.
687
00:54:00,737 --> 00:54:04,699
Kau melihat lebih banyak percakapan
tentang kebijakan soal kecerdasan buatan,
688
00:54:06,117 --> 00:54:09,663
tetapi aku berharap
lebih banyak pemimpin membicarakan,
689
00:54:09,746 --> 00:54:11,748
"Secepat apa kita bisa membuatnya?
690
00:54:12,707 --> 00:54:15,126
Mari kumpulkan sumber dayanya lalu buat."
691
00:54:18,922 --> 00:54:21,299
{\an8}PERTEMUAN & EKSPOSISI TAHUNAN AUSA
WASHINGTON, DC
692
00:54:24,177 --> 00:54:26,805
ANGKATAN DARAT AMERIKA SERIKAT
693
00:54:33,436 --> 00:54:38,358
Kami ada di pameran dagang terbesar
Asosiasi Angkatan Darat AS tahun ini.
694
00:54:39,609 --> 00:54:44,572
Intinya, vendor mana pun yang menjual
produk atau teknologi kepada militer
695
00:54:44,656 --> 00:54:46,616
akan berpameran.
696
00:54:47,701 --> 00:54:50,537
Pangkalan Angkatan Udara Tyndall
memiliki empat robot kami
697
00:54:50,620 --> 00:54:54,207
yang berpatroli di pangkalan mereka
24 jam sehari, 7 hari seminggu.
698
00:54:55,750 --> 00:55:00,130
Kami bisa menambahkan mulai dari kamera,
sensor, hingga apa pun yang kau butuhkan.
699
00:55:00,213 --> 00:55:01,548
{\an8}Lengan manipulator.
700
00:55:01,631 --> 00:55:05,135
{\an8}Sekali lagi, hanya untuk menyelesaikan
misi para pelanggan.
701
00:55:06,344 --> 00:55:08,638
Bagaimana jika musuh perkenalkan
kecerdasan buatan?
702
00:55:09,431 --> 00:55:12,976
Sistem petempur yang berpikir
lebih cepat, merespons lebih cepat
703
00:55:13,059 --> 00:55:16,062
{\an8}daripada apa yang bisa dilakukan manusia.
Kita harus siap.
704
00:55:17,605 --> 00:55:21,359
Kami melatih sistem kami
untuk mengumpulkan informasi musuh,
705
00:55:22,027 --> 00:55:26,531
mengelola target musuh dengan manusia
mengawasi keberhasilan membunuh.
706
00:55:33,288 --> 00:55:34,956
{\an8}- Hai, Jenderal.
- Apa kabar?
707
00:55:35,040 --> 00:55:36,374
Baik, Pak. Apa kabar?
708
00:55:37,667 --> 00:55:40,962
Tak ada yang berinvestasi lebih banyak
dalam pilot kecerdasan buatan.
709
00:55:41,046 --> 00:55:42,630
Pilot kami bernama Hivemind.
710
00:55:43,298 --> 00:55:47,135
Kami menerapkannya ke Nova,
quadcopter kami. Ia masuk ke gedung,
711
00:55:47,218 --> 00:55:50,805
memandu pasukan operasi khusus
dan pasukan infanteri.
712
00:55:50,889 --> 00:55:52,891
Kami menerapkan Hivemind ke V-Bat,
713
00:55:52,974 --> 00:55:56,811
jadi aku berpikir
untuk mengerahkan ratusan tim itu.
714
00:55:56,895 --> 00:55:58,730
Entah itu di Selat Taiwan,
715
00:55:58,813 --> 00:56:01,608
Ukraina, menghalangi musuh kita.
716
00:56:01,691 --> 00:56:03,360
Jadi, aku cukup antusias.
717
00:56:03,943 --> 00:56:06,363
- Baiklah. Terima kasih.
- Terima kasih, Jenderal.
718
00:56:07,947 --> 00:56:13,370
Pilot kecerdasan buatan harus ubikuitas,
terutama pada tahun 2025, 2030.
719
00:56:14,162 --> 00:56:17,582
Adopsinya akan cepat
di seluruh militer di dunia.
720
00:56:19,250 --> 00:56:22,962
Apa yang kau lakukan
dengan militer Rumania, orang UAS mereka?
721
00:56:23,046 --> 00:56:24,756
Teknologi tinggi di militer.
722
00:56:25,256 --> 00:56:29,803
Kami menghabiskan setengah miliar dolar
untuk membangun pilot kecerdasan buatan.
723
00:56:29,886 --> 00:56:33,181
Kami akan menghabiskan miliaran dolar lagi
selama lima tahun ke depan.
724
00:56:33,264 --> 00:56:37,769
Itu alasan utama kami memenangkan
program catatan di Amerika Serikat.
725
00:56:37,852 --> 00:56:38,853
Bagus.
726
00:56:38,937 --> 00:56:42,732
Itu mengesankan.
Kalian berhasil mempersenjatai itu?
727
00:56:43,608 --> 00:56:45,985
Ini belum dipersenjatai.
728
00:56:46,069 --> 00:56:48,321
Jadi, belum. Tetapi ya, di masa depan.
729
00:56:48,905 --> 00:56:52,534
Pelanggan kami menganggapnya sebagai truk.
Kami menganggapnya sebagai truk cerdas
730
00:56:52,617 --> 00:56:54,452
yang dapat melakukan banyak hal berbeda.
731
00:56:54,536 --> 00:56:55,703
- Terima kasih.
- Ya.
732
00:56:55,787 --> 00:56:57,956
Aku akan memastikan untuk menghubungimu.
733
00:57:01,626 --> 00:57:04,879
Jika kembali 10 tahun lagi,
kau akan melihat
734
00:57:06,297 --> 00:57:10,802
kecerdasan buatan dan otomatisasi
akan mendominasi seluruh pasar ini.
735
00:57:14,889 --> 00:57:19,352
Pasukan yang didukung
oleh kecerdasan buatan dan otomatisasi
736
00:57:19,436 --> 00:57:22,814
pasti akan mendominasi, menghancurkan,
737
00:57:22,897 --> 00:57:25,525
dan membinasakan
pasukan tanpa dukungan itu.
738
00:57:26,401 --> 00:57:30,780
Itu seperti kuda melawan tank,
739
00:57:31,781 --> 00:57:34,409
orang dengan pedang melawan senapan mesin.
740
00:57:35,410 --> 00:57:37,120
Itu pasti berbeda jauh.
741
00:57:38,663 --> 00:57:42,750
Itu akan menjadi ubikuitas,
digunakan pada setiap spektrum peperangan,
742
00:57:43,585 --> 00:57:44,836
tingkat taktis,
743
00:57:45,336 --> 00:57:46,546
tingkat strategis,
744
00:57:47,130 --> 00:57:50,800
beroperasi dengan kecepatan
yang tak dapat dipahami manusia saat ini.
745
00:57:53,052 --> 00:57:57,056
Komandan sudah kewalahan
dengan terlalu banyak informasi.
746
00:57:57,557 --> 00:58:01,019
Citra dari satelit, drone, dan sensor.
747
00:58:02,103 --> 00:58:03,855
Salah satu fungsi kecerdasan buatan
748
00:58:03,938 --> 00:58:06,774
ialah membantu komandan
lebih cepat memahami apa yang terjadi.
749
00:58:07,650 --> 00:58:09,986
Lalu, "Keputusan apa yang harus kubuat?"
750
00:58:11,196 --> 00:58:14,866
Kecerdasan buatan akan mempertimbangkan
semua faktor
751
00:58:14,949 --> 00:58:17,702
yang menentukan cara perang dilaksanakan,
752
00:58:18,286 --> 00:58:20,246
memikirkan strategi...
753
00:58:22,540 --> 00:58:25,668
dan memberikan rekomendasi
tentang cara memenangkan pertempuran.
754
00:58:32,217 --> 00:58:34,344
LOCKHEED MARTIN
PUSAT INOVASI
755
00:58:36,971 --> 00:58:40,266
Kami di Lockheed Martin, seperti pelanggan
dari Departemen Pertahanan,
756
00:58:40,350 --> 00:58:43,770
menganggap kecerdasan buatan
sebagai pendukung teknologi utama
757
00:58:43,853 --> 00:58:45,104
untuk komando dan kendali.
758
00:58:47,065 --> 00:58:50,109
Tingkat penyebaran rata-rata
0,6 meter per detik.
759
00:58:50,193 --> 00:58:52,237
Perimeter ini kira-kira 283,3 hektar.
760
00:58:52,737 --> 00:58:55,782
Kabut perang jelas merupakan
kenyataan bagi kami di sisi pertahanan,
761
00:58:57,158 --> 00:59:00,495
tetapi itu memiliki kesamaan
dengan berada di lingkungan
762
00:59:00,578 --> 00:59:03,206
dan harus membuat keputusan
untuk kebakaran hutan juga.
763
00:59:03,289 --> 00:59:06,543
Kebakaran Washburn terjadi
di utara kota Wawona.
764
00:59:06,626 --> 00:59:09,754
Kau harus membuat keputusan
dengan data yang tak sempurna.
765
00:59:10,630 --> 00:59:13,716
{\an8}Bagaimana kecerdasan buatan membantu kami
dengan kabut perang itu?
766
00:59:17,637 --> 00:59:19,597
Kebakaran hutan sangat kacau.
767
00:59:20,181 --> 00:59:21,266
Sangat kompleks,
768
00:59:22,267 --> 00:59:27,855
jadi kami memanfaatkan kecerdasan buatan
untuk membantu membuat keputusan.
769
00:59:31,442 --> 00:59:33,987
Kami mengembangkan
program Cognitive Mission Manager
770
00:59:34,070 --> 00:59:37,949
guna merekam video inframerah udara
771
00:59:38,032 --> 00:59:41,786
lalu memprosesnya
melalui algoritma kecerdasan buatan kami
772
00:59:41,869 --> 00:59:45,248
untuk bisa memprediksi
kebakaran di masa depan.
773
00:59:48,042 --> 00:59:49,794
Saat kita bergerak ke masa depan,
774
00:59:49,877 --> 00:59:52,922
Cognitive Mission Manager
akan menggunakan simulasi,
775
00:59:53,006 --> 00:59:57,093
menjalankan skenario selama ribuan siklus
776
00:59:57,176 --> 01:00:00,722
{\an8}untuk merekomendasikan cara paling efektif
guna mengerahkan sumber daya
777
01:00:00,805 --> 01:00:04,058
untuk menekan
area kebakaran prioritas tinggi.
778
01:00:08,062 --> 01:00:12,400
Ia akan berkata, "Lakukan penekanan udara
dengan Firehawk di sini.
779
01:00:13,526 --> 01:00:15,903
Perintahkan petugas darat
untuk membersihkan semak,
780
01:00:16,946 --> 01:00:19,157
pemadam kebakaran untuk menyemprotkan air,
781
01:00:19,657 --> 01:00:22,660
lalu tarik mereka
ke area prioritas tertinggi."
782
01:00:26,247 --> 01:00:31,044
Keputusan itu akan bisa dihasilkan
lebih cepat dan efisien.
783
01:00:35,757 --> 01:00:38,593
Kami melihat kecerdasan buatan
secara unik memungkinkan manusia
784
01:00:38,676 --> 01:00:42,305
untuk dapat mengikuti
lingkungan yang terus berubah.
785
01:00:43,473 --> 01:00:46,517
Dan ada banyak kesamaan
786
01:00:46,601 --> 01:00:50,605
dengan yang biasa kami lakukan
di Lockheed Martin di sisi pertahanan.
787
01:00:52,190 --> 01:00:55,860
Militer tak lagi bicara
soal penggunaan kecerdasan buatan
788
01:00:55,943 --> 01:00:58,529
dan sistem persenjataan individu
untuk membuat
789
01:00:58,613 --> 01:01:00,365
keputusan penargetan dan pembunuhan,
790
01:01:00,865 --> 01:01:05,787
{\an8}tetapi mengintegrasikannya ke arsitektur
pengambilan keputusan militer.
791
01:01:09,374 --> 01:01:13,378
Angkatan Darat punya proyek besar
bernama Project Convergence.
792
01:01:14,545 --> 01:01:16,547
Angkatan Laut punya Overmatch.
793
01:01:16,631 --> 01:01:19,592
Dan Angkatan Udara punya
Advanced Battle Management System.
794
01:01:21,969 --> 01:01:24,138
Departemen Pertahanan
berusaha mencari tahu,
795
01:01:24,222 --> 01:01:26,683
"Bagaimana kita menyatukan semua ini
796
01:01:26,766 --> 01:01:29,268
agar bisa beroperasi lebih cepat
daripada musuh kita
797
01:01:30,395 --> 01:01:32,605
dan benar-benar mendapat keuntungan?"
798
01:01:33,439 --> 01:01:37,527
Manajer Pertempuran Kecerdasan Buatan
harus jenderal berpangkat tinggi
799
01:01:37,610 --> 01:01:39,821
yang memimpin pertempuran.
800
01:01:41,155 --> 01:01:44,158
Membantu memberi perintah
kepada sejumlah besar pasukan,
801
01:01:45,118 --> 01:01:49,247
{\an8}mengoordinasikan aksi semua senjata
yang ada di luar sana,
802
01:01:49,330 --> 01:01:51,958
{\an8}dan melakukannya dengan kecepatan
yang tak tertandingi.
803
01:01:53,543 --> 01:01:55,294
Kami menghabiskan 70 tahun terakhir
804
01:01:55,378 --> 01:01:58,798
mengembangkan militer tercanggih
di planet ini
805
01:01:58,881 --> 01:02:03,177
dan sekarang kami menghadapi keputusan
apa kami ingin menyerahkan kendali
806
01:02:03,261 --> 01:02:07,640
atas infrastruktur itu
kepada algoritma, perangkat lunak.
807
01:02:10,351 --> 01:02:13,187
Dan konsekuensi dari keputusan itu
808
01:02:13,271 --> 01:02:16,774
bisa memicu
seluruh persenjataan militer kita.
809
01:02:16,858 --> 01:02:19,902
Itu bukan satu Hiroshima,
melainkan ratusan.
810
01:02:25,616 --> 01:02:27,869
Ini saatnya kami bertindak
811
01:02:27,952 --> 01:02:33,166
karena jendela untuk menahan risiko ini
tertutup dengan cepat.
812
01:02:34,041 --> 01:02:35,042
PBB
27 SEPTEMBER 2021
813
01:02:35,126 --> 01:02:39,338
Sore ini, kami mulai
dengan tantangan keamanan internasional
814
01:02:39,422 --> 01:02:41,132
yang ditimbulkan oleh teknologi baru
815
01:02:41,215 --> 01:02:44,343
{\an8}di area sistem persenjataan otomat
yang mematikan.
816
01:02:44,427 --> 01:02:47,722
{\an8}Percakapan terjadi di PBB
817
01:02:47,805 --> 01:02:50,016
{\an8}tentang ancaman senjata otomat mematikan
818
01:02:50,600 --> 01:02:53,269
{\an8}dan larangan kami pada sistem
819
01:02:53,352 --> 01:02:56,564
{\an8}yang menggunakan kecerdasan buatan
untuk memilih dan menyasar orang.
820
01:02:56,647 --> 01:03:00,777
{\an8}Konsensus di antara para teknolog
jelas dan bergaung.
821
01:03:00,860 --> 01:03:04,030
{\an8}Kami menentang senjata otomat
yang menyasar manusia.
822
01:03:05,531 --> 01:03:08,743
Selama bertahun-tahun,
negara bagian membantu, membahas
823
01:03:08,826 --> 01:03:11,329
isu sistem persenjataan otomat
yang mematikan ini.
824
01:03:12,288 --> 01:03:16,793
Ini tentang rasa aman bersama.
825
01:03:17,710 --> 01:03:20,546
Namun, tentu saja, itu tak mudah.
826
01:03:21,297 --> 01:03:25,968
{\an8}Negara tertentu,
terutama kekuatan militer,
827
01:03:26,052 --> 01:03:27,762
{\an8}mereka ingin jadi yang terdepan
828
01:03:28,429 --> 01:03:31,599
agar lebih unggul daripada musuh mereka.
829
01:03:32,600 --> 01:03:36,187
Masalahnya, semua orang harus setuju
untuk menyelesaikan apa pun.
830
01:03:36,896 --> 01:03:39,065
Akan ada setidaknya satu negara
yang keberatan
831
01:03:39,148 --> 01:03:42,068
dan tentu saja Amerika Serikat
serta Rusia telah menegaskan
832
01:03:42,151 --> 01:03:46,113
bahwa mereka menentang perjanjian
yang akan melarang senjata otomat.
833
01:03:47,198 --> 01:03:53,204
Saat kita memikirkan jumlah orang
yang membuat kecerdasan buatan lebih kuat,
834
01:03:54,747 --> 01:03:56,457
ruangan itu sangat penuh.
835
01:03:57,875 --> 01:04:02,880
Saat kita memikirkan ruangan berisi orang,
memastikan bahwa kecerdasan buatan aman,
836
01:04:04,340 --> 01:04:07,510
ruangan itu jauh lebih sepi.
837
01:04:11,764 --> 01:04:13,724
Namun, aku juga amat optimistis.
838
01:04:16,060 --> 01:04:19,397
Aku melihat sesuatu
seperti Konvensi Senjata Biologis,
839
01:04:19,480 --> 01:04:21,774
yang terjadi di tengah Perang Dingin
840
01:04:23,025 --> 01:04:27,655
meski ada ketegangan antara Uni Soviet
dan Amerika Serikat.
841
01:04:29,156 --> 01:04:33,536
Mereka mampu menyadari
bahwa pengembangan senjata biologis
842
01:04:33,619 --> 01:04:36,247
bukan demi kepentingan terbaik mereka
843
01:04:36,330 --> 01:04:38,749
dan bukan demi kepentingan dunia
pada umumnya.
844
01:04:41,252 --> 01:04:45,131
Dinamika persaingan persenjataan
utamakan kecepatan daripada keselamatan.
845
01:04:45,715 --> 01:04:48,342
Namun, kurasa yang penting
untuk dipertimbangkan ialah
846
01:04:48,426 --> 01:04:52,430
pada titik tertentu, biaya bergerak cepat
menjadi terlalu tinggi.
847
01:04:56,225 --> 01:04:59,270
Kita tak bisa mengembangkan sesuatu
secara terpisah begitu saja
848
01:05:00,021 --> 01:05:06,611
dan menempatkannya di luar sana
tanpa pertimbangkan arahnya di masa depan.
849
01:05:07,862 --> 01:05:10,823
Kita harus mencegah momen bom atom itu.
850
01:05:14,535 --> 01:05:17,788
Taruhan dalam persaingan kecerdasan buatan
sangat besar.
851
01:05:18,289 --> 01:05:22,001
Kurasa tak banyak orang menghargai
stabilitas global
852
01:05:22,084 --> 01:05:28,174
yang telah disediakan dengan memiliki
kekuatan militer yang unggul
853
01:05:28,257 --> 01:05:31,135
selama 75 tahun terakhir.
854
01:05:32,887 --> 01:05:35,681
Jadi, Amerika Serikat
dan pasukan sekutu kami
855
01:05:36,557 --> 01:05:38,684
harus mengungguli kecerdasan buatan.
856
01:05:43,314 --> 01:05:44,774
Tak ada juara kedua di perang.
857
01:05:45,483 --> 01:05:49,111
{\an8}Tiongkok berencana besar untuk unggul
di bidang kecerdasan buatan sebelum 2030.
858
01:05:49,195 --> 01:05:51,656
{\an8}Ada yang bilang Amerika kalah
dalam persaingan ini...
859
01:05:52,740 --> 01:05:56,160
Kalian akan mempercepat
adopsi kecerdasan buatan
860
01:05:56,243 --> 01:05:59,246
guna memastikan
keunggulan kompetitif militer kita.
861
01:06:02,875 --> 01:06:05,461
Kami berlomba dengan teknologi ini.
862
01:06:05,544 --> 01:06:09,006
Aku merasa pertanyaannya adalah
seberapa jauh ini akan berlangsung?
863
01:06:09,507 --> 01:06:12,760
Kita mengendalikan teknologi
atau teknologi mengendalikan kita?
864
01:06:14,136 --> 01:06:16,973
Tidak ada kesempatan untuk mengulang.
865
01:06:17,807 --> 01:06:20,977
Begitu dilepas,
itu akan sulit untuk dikendalikan.
866
01:06:22,019 --> 01:06:25,147
Dan sangat sulit untuk menghentikannya.
867
01:06:28,609 --> 01:06:32,154
Jika kita tak bertindak sekarang,
semuanya akan terlambat.
868
01:06:33,114 --> 01:06:34,657
Mungkin sudah terlambat.
869
01:08:50,417 --> 01:08:53,420
Terjemahan subtitle oleh
Muhammad Pandu Abdillah
77167
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.