All language subtitles for Unknown.Killer.Robots.2023.NF.WEBRip.DDP5.1.x264-EDITH.id

af Afrikaans
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bn Bengali
bs Bosnian
bg Bulgarian
ca Catalan
ceb Cebuano
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian Download
cs Czech
da Danish
nl Dutch
en English
eo Esperanto
et Estonian
tl Filipino Download
fi Finnish
fr French
fy Frisian
gl Galician
ka Georgian
de German
el Greek
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew Download
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
km Khmer
ko Korean
ku Kurdish (Kurmanji)
ky Kyrgyz
lo Lao
la Latin
lv Latvian
lt Lithuanian
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mn Mongolian
my Myanmar (Burmese)
ne Nepali
no Norwegian
ps Pashto
fa Persian
pl Polish
pt Portuguese
pa Punjabi
ro Romanian Download
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
st Sesotho
sn Shona
sd Sindhi
si Sinhala
sk Slovak
sl Slovenian
so Somali
es Spanish
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
te Telugu
th Thai
tr Turkish
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
or Odia (Oriya)
rw Kinyarwanda
tk Turkmen
tt Tatar
ug Uyghur
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:24,065 --> 00:00:26,818 Bagiku, kecerdasan buatan itu menakjubkan. 2 00:00:28,361 --> 00:00:31,489 Baiklah, berputar-putar. Formasi bagus. 3 00:00:33,116 --> 00:00:36,703 Kecerdasan buatan berpotensi menghapus kemiskinan, 4 00:00:37,287 --> 00:00:38,705 menciptakan obat baru, 5 00:00:39,289 --> 00:00:41,583 dan membuat dunia kita lebih damai. 6 00:00:46,087 --> 00:00:46,921 Kerja bagus. 7 00:00:49,883 --> 00:00:53,428 Namun, ada banyak risiko dalam prosesnya. 8 00:01:04,731 --> 00:01:07,567 Dengan kecerdasan buatan, pada dasarnya kita menciptakan 9 00:01:07,650 --> 00:01:11,279 kecerdasan nonmanusia yang sangat sulit ditebak. 10 00:01:14,365 --> 00:01:16,451 Karena makin kuat kecerdasan buatan, 11 00:01:16,534 --> 00:01:19,746 di mana batasan yang akan kita buat dengan kecerdasan buatan 12 00:01:19,829 --> 00:01:22,665 perihal cara kita ingin memakainya atau sebaliknya? 13 00:01:25,001 --> 00:01:28,505 Tidak ada tempat yang lebih pantas untuk percakapan ini 14 00:01:28,588 --> 00:01:31,049 daripada aplikasi militer. 15 00:01:34,010 --> 00:01:38,890 Medan perang kini telah menjadi wilayah perangkat lunak dan keras. 16 00:01:41,059 --> 00:01:42,936 Target ditemukan... 17 00:01:43,019 --> 00:01:46,022 Dan militer berlomba mengembangkan kecerdasan buatan 18 00:01:46,106 --> 00:01:48,399 lebih cepat daripada musuh mereka. 19 00:01:49,526 --> 00:01:50,360 Aku mati. 20 00:01:53,738 --> 00:01:58,326 Kita bergerak cepat menuju dunia tempat tak hanya militer besar, 21 00:01:58,409 --> 00:02:02,997 tetapi juga aktor nonnegara, industri swasta, 22 00:02:03,081 --> 00:02:06,042 atau bahkan kepolisian setempat di ujung jalan 23 00:02:06,543 --> 00:02:10,046 bisa memakai senjata yang dapat membunuh secara otomat. 24 00:02:12,006 --> 00:02:14,884 Akankah kita menyerahkan keputusan untuk membunuh 25 00:02:14,968 --> 00:02:17,303 kepada algoritma, kepada perangkat lunak komputer? 26 00:02:18,638 --> 00:02:21,599 Itu adalah salah satu isu paling mendesak di zaman kita. 27 00:02:23,893 --> 00:02:26,354 Dan, jika tak digunakan dengan bijak, 28 00:02:26,437 --> 00:02:30,275 itu bisa menimbulkan risiko besar bagi setiap orang di planet ini. 29 00:03:28,291 --> 00:03:30,168 Kerja bagus, Semuanya. 30 00:03:59,864 --> 00:04:02,200 Itu lensa yang jauh lebih lebar daripada sebelumnya. 31 00:04:02,283 --> 00:04:03,117 Sungguh? 32 00:04:03,201 --> 00:04:05,703 - Kalian bisa melihat lebih banyak data. - Keren. 33 00:04:07,538 --> 00:04:11,167 Di Shield AI, kami mengembangkan pilot kecerdasan buatan 34 00:04:11,251 --> 00:04:14,879 memakai teknologi kecerdasan buatan yang dapat terbang sendiri 35 00:04:14,963 --> 00:04:16,631 dan memasangnya di pesawat terbang. 36 00:04:19,300 --> 00:04:21,719 Saat membahas pilot kecerdasan buatan, 37 00:04:21,803 --> 00:04:25,223 kita berpikir untuk memberi pesawat tingkat otomatisasi yang lebih tinggi. 38 00:04:25,723 --> 00:04:27,850 Ia akan memecahkan masalah sendiri. 39 00:04:29,602 --> 00:04:32,355 Nova adalah sebuah quadcopter otomat 40 00:04:32,438 --> 00:04:35,942 yang menjelajah bangunan dan struktur bawah tanah 41 00:04:36,818 --> 00:04:38,611 dan memandu pasukan pengamanan 42 00:04:38,695 --> 00:04:41,322 sebagai pengintai di ruang itu. 43 00:04:41,906 --> 00:04:45,618 Kalian dapat melihat banyak peningkatan sejak terakhir kita melihatnya. 44 00:04:45,702 --> 00:04:47,870 Kami mengerjakan perubahan eksplorasi hari ini. 45 00:04:47,954 --> 00:04:49,789 Kami mengerjakan lantai demi lantai. 46 00:04:50,290 --> 00:04:53,584 Ini akan menyelesaikan satu lantai, semua ruangannya, sebelum lantai dua. 47 00:04:54,294 --> 00:04:56,796 - Luar biasa. - Ada beberapa perubahan baru-baru ini... 48 00:04:56,879 --> 00:04:58,548 Banyak orang sering menanyaiku 49 00:04:58,631 --> 00:05:02,468 {\an8}kenapa kecerdasan buatan merupakan sebuah kemampuan penting. 50 00:05:02,552 --> 00:05:06,973 {\an8}Dan aku mengingat kembali misi yang kujalankan. 51 00:05:09,100 --> 00:05:11,060 Menghabiskan tujuh tahun di Angkatan Laut. 52 00:05:11,561 --> 00:05:15,356 Aku mantan anggota SEAL Angkatan Laut yang dikirim dua kali ke Afganistan, 53 00:05:15,440 --> 00:05:17,233 sekali ke Teater Pasifik. 54 00:05:18,026 --> 00:05:18,943 Dalam sehari, 55 00:05:19,027 --> 00:05:22,947 kami mungkin harus mengamankan 150 kompleks atau bangunan berbeda. 56 00:05:30,997 --> 00:05:34,250 Salah satu kemampuan inti adalah pertempuran jarak dekat. 57 00:05:35,293 --> 00:05:39,172 Baku tembak pada jarak yang sangat dekat di dalam gedung. 58 00:05:41,466 --> 00:05:42,967 Kau ditembaki. 59 00:05:43,468 --> 00:05:46,471 Mungkin ada IED di dalam gedung. 60 00:05:49,015 --> 00:05:55,229 Itu tugas paling berbahaya bagi anggota pasukan operasi khusus 61 00:05:55,313 --> 00:05:58,358 dan anggota infanteri di zona pertempuran. 62 00:05:58,441 --> 00:05:59,567 Tanpa pengecualian. 63 00:06:12,497 --> 00:06:16,334 Selama sisa hidupku, aku bersyukur atas waktuku di Angkatan Laut. 64 00:06:17,168 --> 00:06:22,423 Ada kumpulan momen dan kenangan yang, saat kuingat, 65 00:06:22,507 --> 00:06:24,592 membuatku emosional. 66 00:06:28,346 --> 00:06:32,725 Klise bahwa kebebasan ada harganya, tetapi aku sangat memercayai itu, 67 00:06:33,559 --> 00:06:37,105 aku sudah mengalaminya, dan itu butuh banyak pengorbanan. 68 00:06:38,022 --> 00:06:38,856 Maaf. 69 00:06:41,067 --> 00:06:44,570 Saat hal buruk terjadi kepada salah satu rekan timmu, 70 00:06:44,654 --> 00:06:46,739 entah mereka terluka atau terbunuh, 71 00:06:47,490 --> 00:06:49,700 itu sesuatu yang sangat tragis. 72 00:06:49,784 --> 00:06:52,912 Bagiku sekarang dalam pekerjaan yang kami lakukan, 73 00:06:52,995 --> 00:06:58,835 itu memotivasi untuk dapat mengurangi beberapa kali 74 00:06:58,918 --> 00:07:00,336 itu terjadi lagi. 75 00:07:07,176 --> 00:07:08,886 Pada akhir tahun 2000-an, 76 00:07:08,970 --> 00:07:11,556 ada kebangkitan di Departemen Pertahanan 77 00:07:11,639 --> 00:07:15,393 atas apa yang disebut revolusi robotika tak disengaja. 78 00:07:15,893 --> 00:07:19,564 {\an8}Kami mengerahkan ribuan robot udara dan darat ke Irak dan Afganistan. 79 00:07:21,482 --> 00:07:24,026 Saat aku diminta oleh pemerintahan Obama 80 00:07:24,110 --> 00:07:26,404 untuk menjadi wakil menteri pertahanan, 81 00:07:26,904 --> 00:07:31,117 {\an8}cara perang dihadapi jelas berubah. 82 00:07:32,452 --> 00:07:36,330 Orang-orang menggunakan robot di tempat yang seharusnya. 83 00:07:37,915 --> 00:07:40,376 Sistem robotika awal dikendalikan dari jauh. 84 00:07:40,460 --> 00:07:45,173 Ada manusia yang mengoperasikannya seperti mobil yang dikendalikan dari jauh. 85 00:07:46,632 --> 00:07:51,512 Mereka mulai mengincar alat peledak terimprovisasi. 86 00:07:52,013 --> 00:07:54,223 Jika bom meledak, robot akan meledak. 87 00:07:57,310 --> 00:08:00,396 Lalu kau berkata, "Sayang sekali. Baik, keluarkan robot satunya." 88 00:08:02,273 --> 00:08:04,484 Di Afganistan, ada drone Predator 89 00:08:05,276 --> 00:08:09,739 dan itu menjadi alat yang sangat berguna untuk melakukan serangan udara. 90 00:08:13,117 --> 00:08:16,829 Seiring waktu, perencana militer mulai bertanya-tanya, 91 00:08:16,913 --> 00:08:20,791 "Apa lagi yang bisa robot lakukan?" Ke mana arahnya? 92 00:08:20,875 --> 00:08:24,170 Salah satu tema umumnya adalah tren ke arah otomatisasi yang lebih besar. 93 00:08:26,464 --> 00:08:30,635 Senjata otomat dapat membuat keputusan sendiri 94 00:08:30,718 --> 00:08:33,304 dengan sedikit atau tanpa campur tangan manusia. 95 00:08:33,387 --> 00:08:37,558 {\an8}Jadi, ia memiliki kapasitas mandiri dan mengarahkan sendiri. 96 00:08:38,434 --> 00:08:41,854 Dan apa ia dapat membunuh tergantung apa ia bersenjata atau tidak. 97 00:08:43,314 --> 00:08:47,109 Ketika kau punya lebih banyak otomatisasi di seluruh sistemmu, 98 00:08:47,193 --> 00:08:49,779 semuanya mulai bergerak pada kecepatan yang lebih tinggi. 99 00:08:51,948 --> 00:08:56,911 Dan ketika kau beroperasi lebih cepat daripada musuhmu, 100 00:08:57,411 --> 00:09:01,165 itu keuntungan yang luar biasa besar dalam pertempuran. 101 00:09:03,960 --> 00:09:06,254 Fokus kami terkait otomatisasi adalah 102 00:09:07,255 --> 00:09:09,966 sistem intelijen yang sangat tangguh. 103 00:09:11,968 --> 00:09:15,304 Sistem yang dapat membaca dan bereaksi berdasarkan lingkungan 104 00:09:15,805 --> 00:09:19,642 serta membuat keputusan tentang cara bermanuver di dunia tersebut. 105 00:09:24,981 --> 00:09:29,151 Fasilitas yang kami miliki saat ini awalnya dibangun sebagai studio film 106 00:09:29,235 --> 00:09:30,611 yang diubah 107 00:09:30,695 --> 00:09:34,490 guna menciptakan lingkungan pelatihan militer yang realistis ini. 108 00:09:39,537 --> 00:09:43,291 Kami di sini untuk mengevaluasi pilot kecerdasan buatan kami. 109 00:09:44,625 --> 00:09:49,297 Misi untuk mencari ancaman. Ini tentang pasukan pengamanan. 110 00:09:49,380 --> 00:09:52,800 Ia dapat membuat keputusan tentang cara menyerang masalah itu. 111 00:09:55,428 --> 00:09:59,390 Kami menyebut ini "jalur fatal". Kau harus melewati sebuah pintu. 112 00:10:01,684 --> 00:10:03,311 Di sanalah kami paling rentan. 113 00:10:03,811 --> 00:10:05,146 Yang ini lebih baik. 114 00:10:07,148 --> 00:10:10,151 Nova memberi tahu kami, apa ada penembak di balik pintu itu, 115 00:10:10,818 --> 00:10:12,737 apa ada keluarga di balik pintu itu? 116 00:10:15,072 --> 00:10:18,451 {\an8}Itu memungkinkan kami membuat keputusan lebih baik dan jauhkan bahaya. 117 00:10:57,114 --> 00:10:59,367 Kami menggunakan sensor penglihatan 118 00:10:59,450 --> 00:11:03,162 agar dapat memahami seperti apa sebuah lingkungan. 119 00:11:05,081 --> 00:11:06,415 Ini gedung bertingkat. 120 00:11:07,291 --> 00:11:08,459 Ini petanya. 121 00:11:08,542 --> 00:11:11,671 Saat aku menjelajah, ini yang kulihat dan di mana aku melihatnya. 122 00:11:19,887 --> 00:11:22,098 Pendeteksi manusia. Luar biasa. 123 00:11:23,974 --> 00:11:27,061 Salah satu sensor lain pada Nova adalah pemindai termal. 124 00:11:27,561 --> 00:11:30,690 Jika suhunya 37 derajat Celsius, mungkin itu manusia. 125 00:11:32,441 --> 00:11:35,444 Manusia dianggap ancaman sampai dianggap sebaliknya. 126 00:11:38,823 --> 00:11:43,244 Ini soal menghilangkan kabut perang untuk membuat keputusan yang lebih baik. 127 00:11:44,704 --> 00:11:46,539 Dan saat melihat ke masa depan, 128 00:11:47,039 --> 00:11:50,793 kami berantisipasi untuk mengembangkan tim pesawat otomat. 129 00:11:53,754 --> 00:11:55,631 Dengan kendaraan swakemudi, 130 00:11:55,715 --> 00:11:59,802 {\an8}pada akhirnya orang bisa berkata, "Pergilah dari titik A ke titik B." 131 00:12:02,930 --> 00:12:06,434 Sistem kami diminta untuk tak pergi dari titik A ke titik B, 132 00:12:06,517 --> 00:12:07,893 tetapi mencapai tujuan. 133 00:12:10,312 --> 00:12:13,274 Itu lebih seperti, "Aku butuh susu." 134 00:12:13,774 --> 00:12:17,486 Lalu robot harus mencari tahu toko kelontong mana yang dituju, 135 00:12:17,570 --> 00:12:20,239 mendapatkan susu itu, lalu membawanya kembali. 136 00:12:20,740 --> 00:12:22,074 Lebih daripada itu, 137 00:12:22,158 --> 00:12:26,996 mungkin lebih tepat dinyatakan sebagai, "Penuhi lemari esnya." 138 00:12:27,496 --> 00:12:29,165 Jadi, ini adalah tingkat kecerdasan 139 00:12:29,248 --> 00:12:32,168 dalam hal mencari tahu apa yang dibutuhkan dan cara melakukannya. 140 00:12:32,251 --> 00:12:34,211 Jika ada tantangan, kesulitan, 141 00:12:34,295 --> 00:12:37,381 atau isu yang muncul, cari cara untuk meringankannya. 142 00:12:40,760 --> 00:12:45,431 Saat memutuskan untuk meninggalkan Angkatan Laut, aku mulai berpikir, 143 00:12:45,514 --> 00:12:47,558 "Baiklah. Apa selanjutnya?" 144 00:12:49,059 --> 00:12:52,021 Aku besar dengan Internet. Melihat perkembangannya. 145 00:12:53,189 --> 00:12:56,025 Dan bagian dari kesimpulan yang kucapai ialah 146 00:12:56,108 --> 00:12:58,861 kecerdasan buatan pada tahun 2015 147 00:12:58,944 --> 00:13:02,907 sama seperti Internet pada tahun 1991. 148 00:13:03,991 --> 00:13:06,368 Dan kecerdasan buatan siap untuk lepas landas 149 00:13:06,452 --> 00:13:09,747 dan menjadi salah satu teknologi terkuat di dunia. 150 00:13:11,791 --> 00:13:16,045 Bekerja dengan itu setiap hari, aku bisa melihat kemajuan yang dibuat. 151 00:13:19,006 --> 00:13:20,466 Namun, bagi banyak orang, 152 00:13:20,549 --> 00:13:22,468 saat mereka memikirkan "kecerdasan buatan", 153 00:13:22,551 --> 00:13:25,221 pikiran mereka langsung tertuju ke Hollywood. 154 00:13:28,057 --> 00:13:29,975 Mau bermain gim? 155 00:13:30,559 --> 00:13:35,314 Bagaimana kalau Perang Termonuklir Global? 156 00:13:35,898 --> 00:13:36,816 Baik. 157 00:13:38,275 --> 00:13:40,861 Saat orang memikirkan kecerdasan buatan, 158 00:13:40,945 --> 00:13:44,824 mereka mungkin memikirkan The Terminator atau I, Robot. 159 00:13:45,574 --> 00:13:46,700 Nonaktifkan. 160 00:13:46,784 --> 00:13:48,160 Aku ini apa? 161 00:13:48,244 --> 00:13:49,620 Atau The Matrix. 162 00:13:51,080 --> 00:13:53,749 Berdasarkan yang kau lihat di film fiksi ilmiah, 163 00:13:53,833 --> 00:13:57,878 bagaimana kau tahu aku manusia? Bisa jadi aku kecerdasan buatan komputer. 164 00:13:58,379 --> 00:14:02,132 Replicant itu seperti mesin biasa. Bisa menguntungkan atau membahayakan. 165 00:14:02,716 --> 00:14:06,095 Namun, ada banyak jenis kecerdasan buatan yang lebih primitif, 166 00:14:06,178 --> 00:14:08,097 {\an8}yang masih akan mengubah hidup kita 167 00:14:08,180 --> 00:14:11,851 {\an8}sebelum kita mencapai tahap robot yang berpikir dan berbicara. 168 00:14:12,643 --> 00:14:15,771 Robot sudah ada. Robot membuat keputusan. 169 00:14:15,855 --> 00:14:18,816 {\an8}Revolusi robot telah tiba, 170 00:14:18,899 --> 00:14:22,319 {\an8}tetapi tak seperti bayangan orang-orang. 171 00:14:23,320 --> 00:14:26,740 Terminator adalah unit penyusup. Separuh manusia, separuh mesin. 172 00:14:27,950 --> 00:14:31,370 {\an8}Kita tak membicarakan robot pembunuh ala Terminator. 173 00:14:31,871 --> 00:14:35,332 {\an8}Kita membicarakan kecerdasan buatan yang dapat melaksanakan tugas manusia. 174 00:14:36,041 --> 00:14:39,879 Namun, kekhawatirannya adalah apakah sistem ini dapat diandalkan. 175 00:14:40,462 --> 00:14:45,426 {\an8}Detail baru dalam kecelakaan maut semalam yang melibatkan Uber SUV swakemudi. 176 00:14:45,509 --> 00:14:48,762 {\an8}Perusahaan menciptakan bot obrolan kecerdasan buatan. 177 00:14:48,846 --> 00:14:51,181 {\an8}Dia bicara agak rasis... 178 00:14:51,265 --> 00:14:55,394 Dua puluh enam legislator negara bagian salah diidentifikasi sebagai penjahat. 179 00:14:57,438 --> 00:14:58,480 Pertanyaannya adalah 180 00:14:58,564 --> 00:15:01,984 apakah mereka dapat menangani kerumitan dunia nyata. 181 00:15:22,212 --> 00:15:24,006 Dunia fisik sangat kacau. 182 00:15:25,174 --> 00:15:27,426 Ada banyak hal yang tak kita ketahui, 183 00:15:27,927 --> 00:15:30,930 membuatnya lebih sulit untuk melatih sistem kecerdasan buatan. 184 00:15:33,057 --> 00:15:36,977 {\an8}Di situlah sistem pembelajaran mesin mulai ada. 185 00:15:38,520 --> 00:15:41,440 Pembelajaran mesin telah mengalami kemajuan besar 186 00:15:42,024 --> 00:15:45,611 {\an8}karena itu berarti kita tak perlu ajarkan komputer segalanya. 187 00:15:47,905 --> 00:15:52,409 Kau memberi komputer jutaan informasi 188 00:15:52,493 --> 00:15:54,453 dan mesin mulai belajar. 189 00:15:55,245 --> 00:15:57,289 Itu dapat diterapkan kepada apa pun. 190 00:16:00,167 --> 00:16:02,962 Proyek Anjing Robot kami, kami mencoba menunjukkan 191 00:16:03,045 --> 00:16:09,009 bahwa anjing kami bisa berjalan melintasi banyak medan yang beragam. 192 00:16:10,052 --> 00:16:14,098 Manusia telah berevolusi selama miliaran tahun untuk berjalan, 193 00:16:14,932 --> 00:16:17,935 tetapi ada banyak kecerdasan dalam beradaptasi 194 00:16:18,018 --> 00:16:20,688 dengan medan yang berbeda ini. 195 00:16:21,939 --> 00:16:24,316 Yang masih jadi pertanyaan soal sistem robot adalah 196 00:16:24,400 --> 00:16:27,069 bisakah robot juga beradaptasi seperti hewan dan manusia? 197 00:16:35,953 --> 00:16:37,413 Dengan pembelajaran mesin, 198 00:16:37,496 --> 00:16:40,582 kami mengumpulkan banyak data dalam simulasi. 199 00:16:42,626 --> 00:16:45,838 Simulasi adalah kembaran digital dari realitas. 200 00:16:46,588 --> 00:16:52,052 Kita bisa membuat banyak contoh kenyataan berjalan di komputer yang berbeda. 201 00:16:53,137 --> 00:16:56,974 Ia membuat sampel ribuan aksi dalam simulasi. 202 00:16:58,892 --> 00:17:02,229 Permukaan yang mereka hadapi memiliki kelicinan yang berbeda. 203 00:17:02,312 --> 00:17:03,981 Ada kelembutan yang berbeda. 204 00:17:04,857 --> 00:17:08,318 Kami mengambil semua pengalaman ribuan robot ini 205 00:17:08,402 --> 00:17:13,282 dari simulasi dan mengunduh ini ke sistem robot nyata. 206 00:17:15,492 --> 00:17:20,122 Tes hari ini bertujuan untuk melihat apa ia bisa beradaptasi dengan medan baru. 207 00:17:53,197 --> 00:17:55,491 Saat robot berjalan melewati busa, 208 00:17:55,574 --> 00:17:58,577 gerakan kakinya mengentak tanah. 209 00:17:59,411 --> 00:18:02,206 Dibandingkan saat berjalan di permukaan poliester, 210 00:18:03,248 --> 00:18:06,502 ia mencoba menyesuaikan gerakannya agar tak tergelincir. 211 00:18:08,670 --> 00:18:10,672 Saat itulah kau sadar, 212 00:18:10,756 --> 00:18:13,717 "Inilah yang ditawarkan pembelajaran mesin." 213 00:18:41,120 --> 00:18:44,123 Kami berpikir Anjing Robot bisa sangat membantu 214 00:18:44,206 --> 00:18:46,166 dalam skenario tanggap bencana 215 00:18:46,250 --> 00:18:49,670 ketika kau harus menavigasi berbagai jenis medan. 216 00:18:52,631 --> 00:18:57,469 Atau memerintahkan anjing-anjing ini untuk mengawasi di lingkungan ekstrem. 217 00:19:15,696 --> 00:19:19,575 Namun, sebagian besar teknologi menghadapi tantangan 218 00:19:19,658 --> 00:19:22,369 bahwa ada hal baik dan buruk yang dapat mereka lakukan. 219 00:19:24,037 --> 00:19:27,875 Misalnya, kita dapat menggunakan teknologi nuklir untuk energi... 220 00:19:30,377 --> 00:19:33,881 tetapi kita juga dapat mengembangkan bom atom dan itu sangat buruk. 221 00:19:35,048 --> 00:19:38,468 Inilah yang dikenal sebagai masalah fungsi ganda. 222 00:19:39,052 --> 00:19:40,929 {\an8}Api adalah fungsi ganda. 223 00:19:41,722 --> 00:19:44,308 {\an8}Kecerdasan manusia adalah fungsi ganda. 224 00:19:44,391 --> 00:19:48,645 Jadi, tentu saja, kecerdasan buatan juga fungsi ganda. 225 00:19:49,354 --> 00:19:53,984 Sangat penting untuk memikirkan penggunaan kecerdasan buatan dalam konteks 226 00:19:54,693 --> 00:19:59,114 karena, ya, luar biasa bahwa ada robot pencari dan penyelamat 227 00:19:59,198 --> 00:20:02,284 yang dapat membantu menemukan seseorang setelah longsor, 228 00:20:02,868 --> 00:20:05,871 tetapi robot itu juga dapat dipersenjatai. 229 00:20:15,088 --> 00:20:21,094 Saat kau melihat perusahaan memakai robot bersenjata, 230 00:20:21,178 --> 00:20:22,930 sebagian dirimu jadi marah. 231 00:20:23,931 --> 00:20:28,435 Sebagiannya lagi adalah kesadaran bahwa saat kita menggunakan teknologi, 232 00:20:28,518 --> 00:20:30,145 inilah yang akan terjadi. 233 00:20:31,021 --> 00:20:34,441 Ini adalah teknologi transformatif nyata. 234 00:20:36,235 --> 00:20:38,028 Ini adalah sistem persenjataan 235 00:20:38,111 --> 00:20:43,617 yang dapat mengubah keselamatan dan keamanan kita secara dramatis. 236 00:20:46,161 --> 00:20:52,417 {\an8}Saat ini, kita tak yakin mesin dapat benar-benar membedakan 237 00:20:52,501 --> 00:20:54,962 {\an8}antara warga sipil dan petempur. 238 00:21:01,760 --> 00:21:05,597 Di awal peperangan di Afganistan, aku dulu bagian dari tim penembak runduk Ranger AS, 239 00:21:05,681 --> 00:21:08,016 mengawasi musuh yang melewati perbatasan. 240 00:21:09,643 --> 00:21:12,688 Mereka mengirim gadis kecil untuk mengintai posisi kami. 241 00:21:13,939 --> 00:21:17,067 Satu hal yang tak pernah terpikirkan ialah menembak gadis ini. 242 00:21:19,695 --> 00:21:22,864 Di bawah hukum perang, itu seharusnya legal. 243 00:21:24,950 --> 00:21:27,369 Mereka tak menetapkan usia bagi petempur musuh. 244 00:21:29,079 --> 00:21:33,417 Jika kau menciptakan robot untuk mematuhi hukum perang, 245 00:21:33,500 --> 00:21:35,335 ia akan menembak gadis kecil ini. 246 00:21:36,420 --> 00:21:41,091 {\an8}Bagaimana robot tahu perbedaan antara apa yang legal dan benar? 247 00:21:43,385 --> 00:21:46,054 Saat itu menyangkut perang drone otomat, 248 00:21:46,138 --> 00:21:49,933 {\an8}mereka ingin menghilangkan bahaya yang ditimbulkannya pada tentara Amerika 249 00:21:50,017 --> 00:21:51,601 {\an8}dan jiwa Amerika, 250 00:21:52,602 --> 00:21:57,149 {\an8}tetapi peningkatan korban sipil terjadi kepada warga Afganistan, 251 00:21:57,232 --> 00:21:58,775 Irak, dan Somalia. 252 00:22:09,578 --> 00:22:14,416 Aku akan menanyai mereka yang mendukung kecerdasan buatan pada drone, 253 00:22:15,292 --> 00:22:17,627 "Bagaimana jika desa kalian jadi korban?" 254 00:22:23,550 --> 00:22:26,094 Kecerdasan buatan adalah pedang bermata dua. 255 00:22:26,595 --> 00:22:30,724 Itu dapat digunakan untuk kebaikan, yang biasanya kami manfaatkan untuk itu, 256 00:22:31,558 --> 00:22:33,477 dan dalam sekejap, 257 00:22:34,561 --> 00:22:38,023 teknologi berpotensi menjadi sesuatu yang bisa mematikan. 258 00:22:38,106 --> 00:22:40,233 RALEIGH CAROLINA UTARA 259 00:22:46,948 --> 00:22:48,533 Aku seorang farmasis klinis. 260 00:22:49,576 --> 00:22:50,994 Aku punya tim 261 00:22:51,078 --> 00:22:54,247 yang menggunakan kecerdasan buatan untuk menemukan obat 262 00:22:54,331 --> 00:22:57,834 yang akan menyembuhkan penyakit yang tak mendapat perhatian. 263 00:22:59,711 --> 00:23:04,132 Dahulu dengan penemuan obat, kau mengambil molekul yang ada 264 00:23:04,216 --> 00:23:06,885 dan mengembangkannya untuk mendapatkan obat baru. 265 00:23:08,220 --> 00:23:13,392 Kini kami mengembangkan kecerdasan buatan yang dapat memberi kami jutaan ide, 266 00:23:13,892 --> 00:23:15,227 jutaan molekul, 267 00:23:16,186 --> 00:23:19,231 dan itu membuka begitu banyak kemungkinan 268 00:23:19,314 --> 00:23:22,567 {\an8}untuk mengobati penyakit yang belum pernah diobati. 269 00:23:25,153 --> 00:23:28,448 Namun, jelas ada sisi gelap yang tak pernah terpikirkan 270 00:23:28,532 --> 00:23:29,741 untuk kulakukan. 271 00:23:33,161 --> 00:23:35,872 Semua ini dimulai saat aku diundang 272 00:23:35,956 --> 00:23:40,043 oleh organisasi dari Swiss bernama Spiez Laboratory 273 00:23:40,544 --> 00:23:44,423 untuk mempresentasikan potensi penyalahgunaan kecerdasan buatan. 274 00:23:48,385 --> 00:23:51,221 Sean baru saja mengirimiku surel berisi gagasan 275 00:23:51,304 --> 00:23:55,308 tentang beberapa cara penyalahgunaan kecerdasan buatan. 276 00:23:56,059 --> 00:24:00,355 Alih-alih meminta model kami untuk membuat molekul mirip obat, 277 00:24:00,439 --> 00:24:02,274 untuk mengobati penyakit, 278 00:24:02,774 --> 00:24:06,403 {\an8}mari lihat apa kami bisa menghasilkan molekul paling beracun. 279 00:24:10,115 --> 00:24:13,243 Aku ingin menegaskan, bisakah kami memakai teknologi kecerdasan buatan 280 00:24:13,326 --> 00:24:15,620 untuk merancang molekul yang mematikan? 281 00:24:17,414 --> 00:24:20,083 Sejujurnya, kami berpikir itu akan gagal 282 00:24:20,167 --> 00:24:24,504 karena yang kami lakukan hanyalah mengubah angka nol menjadi satu. 283 00:24:26,673 --> 00:24:30,385 Dan dengan mengubahnya, alih-alih menjauh dari racun, 284 00:24:30,469 --> 00:24:32,220 kini kami menuju ke arahnya. 285 00:24:32,721 --> 00:24:33,555 Begitulah. 286 00:24:37,517 --> 00:24:40,729 Saat aku di rumah, komputer bekerja. 287 00:24:41,480 --> 00:24:44,816 Ia melakukan tugasnya, menghasilkan ribuan molekul, 288 00:24:45,609 --> 00:24:49,529 dan kami tak perlu melakukan apa pun selain hanya menekan "mulai". 289 00:24:54,493 --> 00:24:58,330 Keesokan paginya, ada sebuah fail di komputerku 290 00:24:59,080 --> 00:25:03,376 dan di dalamnya ada sekitar 40,000 molekul 291 00:25:03,460 --> 00:25:05,253 yang bisa jadi 292 00:25:05,337 --> 00:25:08,882 beberapa molekul paling beracun yang diketahui oleh manusia. 293 00:25:10,217 --> 00:25:12,761 Bulu-bulu di belakang leherku berdiri. 294 00:25:13,345 --> 00:25:14,346 Aku terkejut. 295 00:25:15,388 --> 00:25:18,308 Komputer membuat puluhan ribu ide 296 00:25:19,017 --> 00:25:20,685 untuk senjata kimia baru. 297 00:25:21,645 --> 00:25:26,274 Jelas, kita punya molekul yang serupa dan merupakan analog VX dan VX 298 00:25:26,775 --> 00:25:27,609 di kumpulan data. 299 00:25:28,360 --> 00:25:31,363 VX adalah salah satu senjata kimia terkuat di dunia. 300 00:25:31,863 --> 00:25:33,573 Klaim baru dari polisi 301 00:25:33,657 --> 00:25:37,786 bahwa wanita yang terlihat menyerang Kim Jong-nam dalam pembunuhan di bandara 302 00:25:37,869 --> 00:25:41,206 menggunakan agen saraf mematikan yang disebut VX. 303 00:25:41,706 --> 00:25:44,543 Itu bisa menyebabkan kematian karena sesak napas. 304 00:25:45,043 --> 00:25:47,629 Itu adalah molekul yang sangat kuat 305 00:25:47,712 --> 00:25:52,092 dan sebagian besar molekul ini diprediksi lebih mematikan daripada VX. 306 00:25:53,385 --> 00:25:56,972 Sebagian besar molekul tersebut, sepengetahuan kami, belum pernah dilihat. 307 00:25:57,472 --> 00:26:02,310 Jadi, saat Sean dan aku menyadari ini, kami berpikir, "Apa yang kami lakukan?" 308 00:26:04,771 --> 00:26:09,192 Aku segera menyadari bahwa kami telah membuka kotak Pandora 309 00:26:09,859 --> 00:26:12,696 dan aku berkata, "Berhenti. Jangan lakukan apa pun lagi. Cukup. 310 00:26:13,905 --> 00:26:17,158 Buat salindia yang kubutuhkan untuk presentasi." 311 00:26:19,202 --> 00:26:23,623 Dalam eksperimen ini, aku berpikir, "Apa hal terburuk yang mungkin terjadi?" 312 00:26:26,209 --> 00:26:30,297 Namun, sekarang aku berkata, "Kami naif. Kami sangat naif dalam melakukannya." 313 00:26:33,383 --> 00:26:37,012 Yang paling kutakutkan ialah siapa pun bisa melakukan apa yang kami lakukan. 314 00:26:38,930 --> 00:26:40,765 Hanya perlu mengubahnya. 315 00:26:42,892 --> 00:26:46,187 Bagaimana kita mengendalikan teknologi ini sebelum digunakan 316 00:26:46,271 --> 00:26:50,942 untuk mungkin melakukan sesuatu yang sangat merusak? 317 00:26:55,780 --> 00:27:00,285 Inti pembahasan seputar kecerdasan buatan 318 00:27:00,368 --> 00:27:03,538 dan bagaimana kita menggunakannya di masyarakat 319 00:27:04,289 --> 00:27:06,791 {\an8}ialah persaingan antara kekuatan, 320 00:27:06,875 --> 00:27:08,835 {\an8}yang dengannya kita mengembangkan teknologi 321 00:27:08,918 --> 00:27:11,379 dan kebijaksanaan yang kita miliki untuk mengaturnya. 322 00:27:13,298 --> 00:27:16,843 Ada implikasi moral dan etika yang jelas 323 00:27:16,926 --> 00:27:20,138 dari hal yang sama yang menggerakkan ponsel cerdas kita 324 00:27:20,221 --> 00:27:23,433 dipercayakan dengan keputusan moral untuk merenggut nyawa. 325 00:27:25,644 --> 00:27:28,146 Aku bekerja dengan Future of Life Institute, 326 00:27:28,229 --> 00:27:31,274 sebuah komunitas aktivis ilmuwan. 327 00:27:31,775 --> 00:27:33,443 Kami berusaha menunjukkan 328 00:27:33,526 --> 00:27:38,698 bahwa ada sisi lain guna mempercepat dan meningkatkan otomatisasi. 329 00:27:38,782 --> 00:27:42,619 Namun, kami berusaha memastikan bahwa teknologi yang kami ciptakan 330 00:27:42,702 --> 00:27:45,038 digunakan secara aman dan etis. 331 00:27:46,247 --> 00:27:51,211 Mari bahas aturan keterlibatan dan kode etik 332 00:27:51,294 --> 00:27:54,297 dalam kecerdasan buatan di seluruh sistem persenjataan kita. 333 00:27:54,798 --> 00:27:59,135 Karena kita sekarang melihat teknologi "masuk ke medan perang" 334 00:27:59,219 --> 00:28:01,680 yang dapat digunakan untuk membunuh secara otomat. 335 00:28:10,230 --> 00:28:15,110 Pada tahun 2021, PBB merilis laporan tentang potensi penggunaan 336 00:28:15,193 --> 00:28:19,364 {\an8}senjata otomat mematikan di medan perang di Libya. 337 00:28:20,073 --> 00:28:23,910 {\an8}Panel PBB mengatakan drone yang terbang dalam perang saudara Libya tahun lalu 338 00:28:23,993 --> 00:28:27,330 telah diprogram untuk menyerang target secara otomat. 339 00:28:28,289 --> 00:28:31,209 Jika laporan PBB akurat, 340 00:28:31,292 --> 00:28:34,921 ini akan menjadi titik balik bagi umat manusia 341 00:28:35,004 --> 00:28:37,090 karena itu menandai kasus penggunaan 342 00:28:37,173 --> 00:28:42,137 ketika kecerdasan buatan membuat keputusan untuk membunuh tanpa kontrol manusia. 343 00:28:49,686 --> 00:28:51,688 Kau melihat senjata otomat canggih 344 00:28:51,771 --> 00:28:55,150 mulai digunakan di berbagai tempat di seluruh dunia. 345 00:28:56,276 --> 00:28:58,278 Ada laporan dari Israel. 346 00:29:00,280 --> 00:29:05,702 {\an8}Azerbaijan menggunakan sistem otomat guna menyasar pertahanan udara Armenia. 347 00:29:07,370 --> 00:29:09,998 Ia mampu terbang di medan perang selama berjam-jam, 348 00:29:10,081 --> 00:29:12,459 mencari target untuk diserang secara otomat, 349 00:29:12,542 --> 00:29:16,087 lalu menyerang mereka tanpa campur tangan manusia. 350 00:29:16,796 --> 00:29:21,760 Dan baru-baru ini kita melihat video berbeda yang diunggah di Ukraina. 351 00:29:23,094 --> 00:29:26,848 Tidak jelas mode apa yang mereka gunakan saat beroperasi. 352 00:29:26,931 --> 00:29:30,393 Apa ada campur tangan manusia, yang memilih target serangan, 353 00:29:30,477 --> 00:29:32,604 atau apa mesin melakukannya sendiri? 354 00:29:33,104 --> 00:29:36,524 Namun, pasti akan tiba saatnya, 355 00:29:36,608 --> 00:29:40,195 entah itu sudah terjadi di Libya, Ukraina, atau di tempat lain, 356 00:29:40,779 --> 00:29:44,449 saat mesin membuat keputusan sendiri untuk bunuh target tertentu saat perang. 357 00:29:47,035 --> 00:29:50,997 Mesin menggunakan kekuatan mematikan terhadap manusia 358 00:29:51,080 --> 00:29:53,374 {\an8}tanpa campur tangan manusia 359 00:29:53,458 --> 00:29:57,337 {\an8}secara politik tidak dapat diterima dan secara moral ditentang. 360 00:29:59,047 --> 00:30:04,969 Apakah komunitas internasional akan cukup untuk mengatasi tantangan itu 361 00:30:05,053 --> 00:30:06,888 adalah tanda tanya besar. 362 00:30:08,932 --> 00:30:12,685 Jika kita melihat ke masa depan, bahkan hanya beberapa tahun dari sekarang, 363 00:30:12,769 --> 00:30:15,730 seperti apa pemandangannya sangatlah menakutkan, 364 00:30:16,564 --> 00:30:20,485 mengingat jumlah sumber daya modal dan manusia 365 00:30:20,568 --> 00:30:23,404 untuk membuat kecerdasan buatan lebih kuat 366 00:30:23,488 --> 00:30:26,950 dan menerapkannya ke berbagai hal sangatlah besar. 367 00:30:39,254 --> 00:30:41,256 Astaga, orang ini. 368 00:30:41,756 --> 00:30:43,550 Dia tahu dia tak bisa menang. 369 00:30:46,636 --> 00:30:51,099 Saat aku melihat kecerdasan buatan menang di berbagai masalah, itu menginspirasi. 370 00:30:51,683 --> 00:30:53,393 Hanya bisa berdoa dan pasrah. 371 00:30:54,352 --> 00:30:59,524 Dan kau bisa menerapkan taktik, teknik, dan prosedur serupa ke pesawat sungguhan. 372 00:31:01,401 --> 00:31:02,318 Permainan bagus. 373 00:31:02,402 --> 00:31:03,987 Baiklah, permainan yang bagus. 374 00:31:08,658 --> 00:31:09,909 Bagiku, itu mengejutkan 375 00:31:09,993 --> 00:31:14,080 {\an8}bahwa orang terus menyatakan apa yang tak bisa dilakukan kecerdasan buatan, 376 00:31:14,163 --> 00:31:16,583 {\an8}misal, "Ia takkan bisa mengalahkan juara dunia catur." 377 00:31:20,211 --> 00:31:22,672 Sebuah komputer IBM membalikkan keadaan 378 00:31:22,755 --> 00:31:25,925 dalam permainan kedua melawan juara catur dunia, Garry Kasparov. 379 00:31:28,136 --> 00:31:30,847 Kasparov menyerah! 380 00:31:31,598 --> 00:31:34,642 Saat melihat sesuatu di luar pemahamanku, 381 00:31:34,726 --> 00:31:38,062 aku takut. Itu sesuatu di luar pemahamanku. 382 00:31:39,355 --> 00:31:41,107 Lalu orang-orang berkata, 383 00:31:41,190 --> 00:31:44,402 "Ia takkan pernah bisa mengalahkan juara dunia go." 384 00:31:44,485 --> 00:31:50,700 Aku percaya intuisi manusia lebih baik dibanding kecerdasan buatan 385 00:31:50,783 --> 00:31:52,827 untuk mengejar ketinggalan. 386 00:31:55,288 --> 00:31:58,416 Go adalah salah satu permainan tersulit yang bisa dipelajari siapa pun 387 00:31:58,499 --> 00:32:02,211 {\an8}karena jumlah langkah di papan, ketika kau menghitungnya, 388 00:32:02,295 --> 00:32:05,256 {\an8}sama dengan lebih banyak atom daripada di seluruh alam semesta. 389 00:32:06,799 --> 00:32:08,968 Ada sebuah tim di Google bernama DeepMind 390 00:32:09,052 --> 00:32:11,471 dan mereka menciptakan program bernama AlphaGo 391 00:32:11,554 --> 00:32:14,265 untuk bisa mengalahkan pemain terbaik dunia. 392 00:32:16,559 --> 00:32:18,394 Selamat kepada... 393 00:32:18,478 --> 00:32:19,437 - AlphaGo. - AlphaGo. 394 00:32:19,520 --> 00:32:22,815 Program komputer baru saja mengalahkan profesional 9 dan. 395 00:32:25,610 --> 00:32:31,532 Lalu DeepMind memilih StarCraft sebagai tantangan kecerdasan buatan. 396 00:32:33,701 --> 00:32:38,081 StarCraft mungkin gim strategi waktu nyata paling populer sepanjang masa. 397 00:32:40,333 --> 00:32:44,712 AlphaStar menjadi terkenal saat mulai mengalahkan para juara dunia. 398 00:32:45,338 --> 00:32:48,800 AlphaStar benar-benar menghancurkan Immortal Arc. 399 00:32:48,883 --> 00:32:49,717 Kau tahu? 400 00:32:49,801 --> 00:32:52,553 Ini bukan peperangan yang dapat dimenangkan para profesional. 401 00:32:53,680 --> 00:32:54,806 Ini agak konyol. 402 00:32:57,642 --> 00:33:00,895 Pemain gim profesional berkata, "Aku takkan pernah mencoba taktik itu. 403 00:33:00,979 --> 00:33:04,816 Aku takkan pernah mencoba strategi itu. Itu sesuatu yang bukan manusia." 404 00:33:07,151 --> 00:33:10,655 Dan itu mungkin adalah momen yang mencelikkan bagiku. 405 00:33:13,574 --> 00:33:16,661 Aku pun sadar inilah waktunya. 406 00:33:17,412 --> 00:33:21,082 Ada sebuah teknologi penting dan peluang untuk membuat perbedaan. 407 00:33:24,502 --> 00:33:29,382 Aku hanya tahu masalah yang kuhadapi sebagai anggota petempur jarak dekat SEAL, 408 00:33:30,383 --> 00:33:34,470 tetapi salah satu kawan baikku, seorang pilot F-18, berkata, 409 00:33:35,054 --> 00:33:37,724 "Kami punya masalah yang sama di komunitas jet tempur. 410 00:33:37,807 --> 00:33:39,434 Mereka mengganggu komunikasi. 411 00:33:39,517 --> 00:33:44,439 Ada banyak situs rudal darat-ke-udara yang membuat operasi terlalu berbahaya." 412 00:33:47,483 --> 00:33:50,987 Bayangkan jika kita punya jet tempur yang diperintah kecerdasan buatan. 413 00:33:51,070 --> 00:33:52,739 Selamat datang di uji AlphaDogfight. 414 00:33:52,822 --> 00:33:56,159 Kita beberapa menit sebelum semifinal pertama. 415 00:33:56,242 --> 00:33:59,871 DARPA, Defense Advanced Research Projects Agency, 416 00:33:59,954 --> 00:34:03,624 telah melihat AlphaGo dan AlphaStar 417 00:34:04,292 --> 00:34:08,171 sehingga gagasan kompetisi AlphaDogfight menjadi nyata. 418 00:34:09,088 --> 00:34:11,466 Ini pilot pesawat tempur yang ingin kau lihat. 419 00:34:11,549 --> 00:34:13,593 Ini seperti dogfighting manusia. 420 00:34:15,595 --> 00:34:19,057 Dogfighting adalah adu pesawat tempur. 421 00:34:19,849 --> 00:34:23,269 Kau bisa menganggapnya sebagai pertandingan tinju di langit. 422 00:34:23,853 --> 00:34:26,314 Mungkin orang-orang sudah menonton Top Gun. 423 00:34:26,397 --> 00:34:27,815 Bisa lebih cepat dari mereka? 424 00:34:28,649 --> 00:34:30,068 Bukan misil dan senjata mereka. 425 00:34:30,151 --> 00:34:31,277 Kalau begitu dogfight. 426 00:34:35,531 --> 00:34:38,201 Belajar menguasai dogfighting bisa memakan waktu 427 00:34:38,284 --> 00:34:39,786 delapan sampai sepuluh tahun. 428 00:34:42,288 --> 00:34:46,375 Itu tantangan yang sangat rumit untuk mengembangkan kecerdasan buatan. 429 00:34:54,008 --> 00:34:58,721 Pendekatan sebelumnya terhadap otomatisasi dan dogfighting cenderung rapuh. 430 00:34:59,222 --> 00:35:03,017 Kami baru mengetahui pembelajaran mesin mungkin cara untuk memecahkan masalah ini. 431 00:35:04,435 --> 00:35:08,189 Awalnya kecerdasan buatan tak tahu apa-apa tentang dunia tempat ia ditempatkan. 432 00:35:08,272 --> 00:35:11,025 Ia tak tahu ia terbang atau apa itu pertempuran udara. 433 00:35:11,109 --> 00:35:12,735 Ia tak tahu apa itu F-16. 434 00:35:13,236 --> 00:35:16,155 {\an8}Yang ia tahu hanyalah tindakan yang bisa ia ambil 435 00:35:16,239 --> 00:35:18,407 {\an8}dan ia akan mulai menjelajah itu secara acak. 436 00:35:19,325 --> 00:35:23,204 Pesawat biru baru berlatih sebentar. 437 00:35:23,287 --> 00:35:25,832 Kau bisa melihatnya bergerak maju mundur, 438 00:35:26,541 --> 00:35:30,545 terbang dengan sangat tak menentu, umumnya menjauh dari musuhnya. 439 00:35:31,587 --> 00:35:32,755 Selama pertempuran, 440 00:35:32,839 --> 00:35:36,259 kita bisa melihat biru mulai membuat rencana permainannya. 441 00:35:36,759 --> 00:35:38,678 Ia mulai membuat posisi menembak. 442 00:35:39,178 --> 00:35:41,305 Sesekali, algoritma pembelajaran berkata, 443 00:35:41,389 --> 00:35:43,891 "Ambil kukis ini. Terus lakukan itu." 444 00:35:45,226 --> 00:35:49,147 Kita bisa memanfaatkan kekuatan komputer dan melatih para agen berkali-kali 445 00:35:49,230 --> 00:35:50,064 secara paralel. 446 00:35:51,357 --> 00:35:52,775 Seperti tim basket. 447 00:35:53,276 --> 00:35:55,778 Alih-alih terus-menerus memainkan tim yang sama, 448 00:35:55,862 --> 00:35:59,198 kita berkeliling dunia memainkan 523 tim berbeda, 449 00:35:59,699 --> 00:36:00,992 semua bersamaan. 450 00:36:01,492 --> 00:36:03,578 Kau bisa jadi sangat pandai, sangat cepat. 451 00:36:04,162 --> 00:36:07,456 Kami bisa menjalankan simulasi itu 24/7 452 00:36:07,540 --> 00:36:11,919 dan mendapatkan waktu pelatihan pilot selama 30 tahun dalam 10 bulan. 453 00:36:12,879 --> 00:36:15,673 Kami berubah dari nyaris tak bisa mengendalikan pesawat 454 00:36:15,756 --> 00:36:17,717 menjadi pembunuh keji. 455 00:36:19,010 --> 00:36:23,139 Di bawah pelatihan, kami hanya bersaing dengan kecerdasan buatan lain. 456 00:36:24,473 --> 00:36:28,561 Namun, bersaing melawan manusia secara langsung adalah target utama. 457 00:36:34,192 --> 00:36:35,610 Namaku Mike Benitez. 458 00:36:36,110 --> 00:36:38,487 Aku Letnan Kolonel Angkatan Udara AS 459 00:36:39,155 --> 00:36:41,157 {\an8}dan aktif sekitar 25 tahun. 460 00:36:42,825 --> 00:36:44,869 Aku punya 250 misi tempur 461 00:36:45,536 --> 00:36:47,538 dan lulusan sekolah pelatihan senjata, 462 00:36:48,039 --> 00:36:49,832 Top Gun versi Angkatan Udara. 463 00:36:52,627 --> 00:36:55,171 Aku tak pernah terbang melawan kecerdasan buatan. 464 00:36:55,254 --> 00:36:58,549 Aku antusias untuk menujukkan kebolehanku. 465 00:36:59,634 --> 00:37:03,054 Ada serangan langsung jarak 1,800 meter. 466 00:37:04,388 --> 00:37:05,223 Baik, mulai. 467 00:37:14,732 --> 00:37:16,651 Ya, itu sangat menarik. 468 00:37:20,780 --> 00:37:23,658 - Mati. - Kena. Kemenangan sempurna. 469 00:37:25,910 --> 00:37:27,453 Baiklah, babak kedua. 470 00:37:35,419 --> 00:37:40,508 Kecerdasan buatan bermanuver dengan presisi yang begitu menakjubkan 471 00:37:41,342 --> 00:37:43,219 sampai aku tak bisa mengikutinya. 472 00:37:48,474 --> 00:37:49,725 Saling berhadapan. 473 00:37:50,768 --> 00:37:51,769 Mati kau. 474 00:37:53,145 --> 00:37:53,980 Kena! 475 00:37:54,063 --> 00:37:55,022 Masih kena. 476 00:37:58,567 --> 00:38:00,236 Kecerdasan buatan tak pernah takut. 477 00:38:00,736 --> 00:38:03,781 Ada elemen emosional manusia di kokpit yang tak dimilikinya. 478 00:38:04,991 --> 00:38:08,077 Salah satu strategi menarik yang dikembangkan kecerdasan buatan kami 479 00:38:08,160 --> 00:38:10,121 disebut menembak dari depan. 480 00:38:10,621 --> 00:38:13,958 Biasanya manusia ingin menembak dari belakang 481 00:38:14,041 --> 00:38:16,544 karena sulit bagi musuh untuk melepaskanmu. 482 00:38:17,044 --> 00:38:20,423 Mereka tak mencoba menembak dari depan karena kau bermain seperti pengecut. 483 00:38:21,424 --> 00:38:25,469 Saat kita menghampiri secara langsung, jarak 900 hingga 150 meter 484 00:38:25,553 --> 00:38:27,096 bisa terjadi dalam sekejap. 485 00:38:27,596 --> 00:38:31,183 Kau berisiko tinggi bertabrakan, jadi manusia tak mencobanya. 486 00:38:32,727 --> 00:38:35,938 {\an8}Kecerdasan buatan, kecuali disuruh untuk takut mati, takkan takut mati. 487 00:38:37,857 --> 00:38:40,109 Aku seperti bertempur melawan manusia, 488 00:38:40,776 --> 00:38:44,113 tetapi manusia yang nekat mengabaikan keselamatan. 489 00:38:45,406 --> 00:38:47,325 Yang terakhir ini, dia takkan selamat. 490 00:38:57,168 --> 00:38:58,294 Waktunya tak cukup. 491 00:39:01,964 --> 00:39:02,965 Selamat malam. 492 00:39:04,091 --> 00:39:04,925 Aku mati. 493 00:39:16,771 --> 00:39:17,980 Aku jadi tahu diri 494 00:39:18,064 --> 00:39:20,941 bahwa aku mungkin bukan yang terbaik untuk misi ini 495 00:39:21,442 --> 00:39:24,320 dan teknologi itu bisa menggantikanku suatu hari nanti. 496 00:39:25,696 --> 00:39:26,906 6 CAV sama. 497 00:39:27,615 --> 00:39:28,824 Seribu ofset. 498 00:39:29,367 --> 00:39:32,078 Dengan pilot kecerdasan buatan yang perintah pesawat tempur, 499 00:39:32,745 --> 00:39:34,830 kemenangannya tanpa henti, dominan. 500 00:39:34,914 --> 00:39:37,249 Bukan hanya menang jauh. 501 00:39:37,333 --> 00:39:41,545 Itu, "Bagaimana kita bisa memasangnya di pesawat?" Itu sangat kuat. 502 00:39:43,589 --> 00:39:47,802 Sangat realistis untuk berharap kecerdasan buatan akan menerbangkan F-16 503 00:39:47,885 --> 00:39:49,970 {\an8}dan itu takkan lama lagi. 504 00:39:51,305 --> 00:39:56,769 Jika melawan pilot kecerdasan buatan yang punya tingkat kemenangan 99,99999%, 505 00:39:56,852 --> 00:39:58,062 kau tak punya peluang. 506 00:39:59,605 --> 00:40:02,733 Saat memikirkan pilot kecerdasan buatan yang tak terkalahkan, 507 00:40:02,817 --> 00:40:06,737 aku memikirkan bagaimana satu tim dengan 50, 100, 508 00:40:07,363 --> 00:40:12,493 atau 1,000 pilot kecerdasan buatan bisa terus berhasil. 509 00:40:13,702 --> 00:40:18,791 Swarming adalah tim pesawat sangat cerdas yang bekerja sama. 510 00:40:19,291 --> 00:40:23,838 Mereka berbagi informasi tentang apa yang harus dilakukan, memecahkan masalah. 511 00:40:25,172 --> 00:40:30,469 Swarming akan menjadi kemampuan inovatif dan transformasional 512 00:40:30,553 --> 00:40:32,054 bagi militer dan sekutu kami. 513 00:41:42,750 --> 00:41:47,379 Target telah ditemukan dan drone mengikutinya. 514 00:42:02,019 --> 00:42:03,479 Baik, waktunya mendarat. 515 00:42:07,525 --> 00:42:10,402 Tujuan utama dari penelitian swarming yang sedang kami garap 516 00:42:11,153 --> 00:42:13,697 ialah mengerahkan sejumlah besar drone 517 00:42:13,781 --> 00:42:17,910 {\an8}ke area yang sulit dijangkau atau berbahaya. 518 00:42:21,664 --> 00:42:26,085 Army Research Lab mendukung proyek penelitian ini. 519 00:42:26,919 --> 00:42:28,963 Jika kau ingin mengetahui sebuah lokasi, 520 00:42:29,046 --> 00:42:32,883 tetapi sulit untuk mencapai area itu atau areanya sangat luas, 521 00:42:33,676 --> 00:42:35,886 mengerahkan swarm adalah cara yang sangat natural 522 00:42:35,970 --> 00:42:38,389 guna memperluas jangkauan individu 523 00:42:38,472 --> 00:42:41,934 dan mengumpulkan informasi yang penting bagi misi. 524 00:42:46,647 --> 00:42:48,983 Jadi, saat ini dalam pengerahan swarm kami, 525 00:42:49,066 --> 00:42:53,904 pada dasarnya kami memberi satu perintah untuk melacak target yang diinginkan. 526 00:42:54,488 --> 00:42:57,283 Lalu drone terbang dan melakukan semua itu sendiri. 527 00:42:59,493 --> 00:43:04,081 Kecerdasan buatan memungkinkan robot bergerak kolektif sebagai kawanan 528 00:43:04,164 --> 00:43:05,708 secara terdesentralisasi. 529 00:43:10,671 --> 00:43:12,506 Dalam kawanan di alam yang kita lihat, 530 00:43:13,299 --> 00:43:18,178 tak ada pemimpin, tak ada hewan utama yang memerintah mereka. 531 00:43:21,056 --> 00:43:24,977 Perilaku itu muncul dari tiap hewan 532 00:43:25,060 --> 00:43:27,187 mengikuti beberapa aturan sederhana. 533 00:43:27,688 --> 00:43:32,443 Dari situ tumbuh perilaku kolektif yang kau lihat. 534 00:43:33,944 --> 00:43:37,031 Yang menakjubkan dari kawanan di alam 535 00:43:37,114 --> 00:43:39,992 ialah kemampuan anggun saat mereka bergerak. 536 00:43:40,576 --> 00:43:44,288 Seolah-olah mereka diciptakan untuk jadi bagian dari grup ini. 537 00:43:46,790 --> 00:43:51,128 Idealnya, yang ingin kami lihat dengan kawanan drone kami adalah, 538 00:43:51,211 --> 00:43:53,172 seperti kawanan hewan di alam, 539 00:43:53,672 --> 00:43:56,717 keputusan yang dibuat oleh kelompok secara kolektif. 540 00:43:59,887 --> 00:44:02,765 Inspirasi lain bagi kami 541 00:44:02,848 --> 00:44:06,268 datang dalam bentuk reliabilitas dan resiliensi. 542 00:44:07,311 --> 00:44:09,188 Kawanan itu takkan tumbang 543 00:44:09,271 --> 00:44:12,983 jika satu hewan tak melakukan apa yang seharusnya dilakukan. 544 00:44:15,194 --> 00:44:18,697 Meski salah satu agen jatuh, gagal, 545 00:44:18,781 --> 00:44:20,866 atau tak bisa menyelesaikan tugas, 546 00:44:21,909 --> 00:44:23,577 kawanan itu takkan berhenti. 547 00:44:25,162 --> 00:44:27,873 Dan pada akhirnya, itu yang kami inginkan. 548 00:44:29,333 --> 00:44:32,002 Kami punya sebuah kebutuhan dalam skenario pertempuran 549 00:44:32,086 --> 00:44:33,879 untuk mengidentifikasi pesawat musuh 550 00:44:33,962 --> 00:44:37,841 dan dulu kami butuh satu orang untuk mengendalikan satu robot. 551 00:44:38,592 --> 00:44:40,552 Saat otomatisasi meningkat, 552 00:44:40,636 --> 00:44:43,555 kuharap kita akan bisa melihat sejumlah besar robot 553 00:44:43,639 --> 00:44:46,558 yang dikendalikan sejumlah kecil orang. 554 00:44:47,810 --> 00:44:51,271 Aku tak melihat alasan kita tak sanggup mencapai seribu 555 00:44:51,355 --> 00:44:54,942 karena tiap agen akan mampu bertindak atas kemauannya sendiri 556 00:44:55,025 --> 00:44:56,443 dan langit adalah batasnya. 557 00:44:57,027 --> 00:44:59,071 Kita bisa meningkatkan pembelajaran kita... 558 00:44:59,154 --> 00:45:03,325 Kami sudah cukup lama mengembangkan swarming dalam simulasi 559 00:45:03,409 --> 00:45:06,829 dan ini waktunya untuk menerapkannya ke pesawat asli. 560 00:45:07,329 --> 00:45:12,042 Kami berharap dapat membuat tiga robot sekaligus melalui jaringan, 561 00:45:12,126 --> 00:45:15,129 lalu mulai menambahkan lebih banyak kemampuan. 562 00:45:15,879 --> 00:45:18,549 Kami ingin bisa mengujinya ke sistem yang lebih kecil, 563 00:45:18,632 --> 00:45:22,177 tetapi ambil konsep yang sama dan terapkan ke sistem yang lebih besar 564 00:45:22,261 --> 00:45:23,679 seperti jet tempur. 565 00:45:24,596 --> 00:45:26,014 Kami sering membicarakan 566 00:45:26,098 --> 00:45:31,937 {\an8}bagaimana kau memberi satu peleton kekuatan tempur yang setara satu batalion. 567 00:45:34,982 --> 00:45:39,528 Atau satu batalion dengan kekuatan tempur yang setara satu brigade. 568 00:45:39,611 --> 00:45:41,905 Kau bisa melakukannya dengan swarming. 569 00:45:42,531 --> 00:45:45,200 Dan jika bisa membuka kekuatan swarming itu, 570 00:45:45,284 --> 00:45:48,078 kau baru saja menciptakan deterens strategis baru 571 00:45:48,162 --> 00:45:49,455 terhadap agresi militer. 572 00:45:52,332 --> 00:45:56,420 Kurasa hal yang paling menarik ialah jumlah pria dan wanita muda 573 00:45:57,129 --> 00:46:00,591 {\an8}yang akan kita selamatkan jika kita melakukan ini dengan benar. 574 00:46:01,091 --> 00:46:03,594 {\an8}Kita bertukar mesin 575 00:46:04,553 --> 00:46:05,846 alih-alih nyawa manusia. 576 00:46:06,513 --> 00:46:07,723 {\an8}Beberapa berpendapat 577 00:46:07,806 --> 00:46:11,727 {\an8}bahwa senjata otomat akan membuat perang lebih tepat dan lebih manusiawi, 578 00:46:12,811 --> 00:46:15,397 tetapi sebenarnya sulit diprediksi 579 00:46:15,481 --> 00:46:19,443 bagaimana senjata otomat bisa mengubah perang sebelumnya. 580 00:46:21,320 --> 00:46:23,238 Itu seperti penemuan senapan Gatling. 581 00:46:25,073 --> 00:46:27,117 Richard Gatling adalah seorang penemu. 582 00:46:27,201 --> 00:46:30,954 Dia melihat tentara kembali, terluka dalam Perang Saudara, 583 00:46:32,206 --> 00:46:35,626 dan ingin mencari cara untuk membuat perang lebih manusiawi. 584 00:46:36,543 --> 00:46:39,838 Untuk mengurangi jumlah tentara yang tewas dalam perang 585 00:46:40,339 --> 00:46:42,633 dengan mengurangi jumlah tentara dalam pertempuran. 586 00:46:44,092 --> 00:46:48,388 Jadi, dia menciptakan senapan Gatling, senapan yang diputar dengan engkol 587 00:46:48,472 --> 00:46:50,516 yang dapat mengotomatiskan proses penembakan. 588 00:46:53,268 --> 00:46:57,981 Itu meningkatkan daya tembak sebanyak seratus kali lipat oleh tentara. 589 00:47:01,193 --> 00:47:05,239 Sering kali, upaya untuk membuat perang lebih tepat dan manusiawi 590 00:47:06,406 --> 00:47:08,200 bisa memiliki efek sebaliknya. 591 00:47:10,118 --> 00:47:14,540 Pikirkan efek dari drone yang salah sasaran di daerah pedesaan 592 00:47:14,623 --> 00:47:17,125 yang mendorong penduduk lokal menentang Amerika Serikat, 593 00:47:17,209 --> 00:47:20,712 {\an8}menentang pemerintah lokal, padahal niat mereka baik. 594 00:47:22,548 --> 00:47:25,008 Sekarang perbesar itu 1,000 kali. 595 00:47:26,760 --> 00:47:28,720 Penciptaan sistem persenjataan 596 00:47:28,804 --> 00:47:34,560 {\an8}yang murah, terukur, dan tak memerlukan operator manusia 597 00:47:34,643 --> 00:47:37,896 {\an8}secara drastis mengubah barier konflik yang sebenarnya. 598 00:47:40,065 --> 00:47:44,862 Itu membuatku terjaga pada malam hari karena memikirkan dunia penuh peperangan 599 00:47:44,945 --> 00:47:48,657 dan kita tak lagi menanggung biaya manusia dan finansial perang 600 00:47:48,740 --> 00:47:51,410 karena kita sangat jauh dari... 601 00:47:52,369 --> 00:47:54,037 nyawa yang akan hilang. 602 00:47:59,501 --> 00:48:00,794 Semua ini menghantuiku. 603 00:48:02,212 --> 00:48:05,924 Aku hanya butuh contoh penyalahgunaan kecerdasan buatan. 604 00:48:06,800 --> 00:48:10,888 Konsekuensi tak terduga dari eksperimen pikiran sederhana itu 605 00:48:10,971 --> 00:48:12,848 sudah terlalu berlebihan. 606 00:48:13,348 --> 00:48:16,643 {\an8}KECERDASAN BUATAN DALAM PENEMUAN OBAT: MENGHINDARI LEBIH BANYAK KERUSAKAN 607 00:48:17,352 --> 00:48:18,729 Saat aku memberikan presentasi 608 00:48:18,812 --> 00:48:22,482 tentang molekul beracun yang diciptakan teknologi kecerdasan buatan, 609 00:48:22,566 --> 00:48:24,318 para audiens ternganga. 610 00:48:25,402 --> 00:48:27,613 SENYAWA TOP 5,000 DIKENAL SEBAGAI ANALOG VX 611 00:48:29,406 --> 00:48:33,577 Keputusan berikutnya adalah apa kami harus menerbitkan informasi ini. 612 00:48:34,870 --> 00:48:36,914 Di satu sisi, kau ingin memperingatkan dunia 613 00:48:36,997 --> 00:48:40,125 {\an8}tentang kemampuan semacam ini, tetapi di sisi lain, 614 00:48:40,208 --> 00:48:44,087 {\an8}kau tak ingin memberi seseorang gagasan apa mereka belum pernah memilikinya. 615 00:48:46,340 --> 00:48:48,133 Kami memutuskan itu layak diterbitkan 616 00:48:48,216 --> 00:48:52,679 untuk mungkin mencari cara mengurangi penyalahgunaan jenis kecerdasan buatan ini 617 00:48:52,763 --> 00:48:54,139 sebelum itu terjadi. 618 00:48:54,222 --> 00:48:56,975 FUNGSI GANDA PENEMUAN OBAT YANG DIDUKUNG KECERDASAN BUATAN 619 00:48:57,559 --> 00:49:00,437 BAGAIMANA TEKNOLOGI KECERDASAN BUATAN UNTUK PENEMUAN OBAT 620 00:49:01,897 --> 00:49:04,775 Reaksi masyarakat umum mengejutkan. 621 00:49:07,152 --> 00:49:10,656 Kami bisa melihat metrik di laman, berapa banyak orang yang mengaksesnya. 622 00:49:10,739 --> 00:49:14,451 {\an8}Jenis artikel yang biasa kami tulis, kami beruntung jika bisa... 623 00:49:14,534 --> 00:49:19,831 {\an8}Beberapa ribu orang melihat artikel kami selama setahun atau beberapa tahun. 624 00:49:19,915 --> 00:49:22,084 Sudah 10,000 orang membacanya dalam sepekan. 625 00:49:22,167 --> 00:49:25,337 Lalu 20,000, 30,000, 40,000, 626 00:49:25,837 --> 00:49:28,715 dan kami mencapai hingga 10,000 orang per hari. 627 00:49:30,258 --> 00:49:33,553 Kami berkolaborasi dengan The Economist, Financial Times. 628 00:49:35,639 --> 00:49:39,977 Radiolab juga menghubungi. Aku pernah dengar Radiolab! 629 00:49:41,937 --> 00:49:45,899 Namun, kemudian reaksi berubah menjadi tak terkendali. 630 00:49:49,778 --> 00:49:53,532 Saat melihat cuitan itu, kami berpikir, "Apa itu bisa melakukan yang lebih buruk?" 631 00:49:54,658 --> 00:49:56,118 Kenapa mereka melakukan ini? 632 00:49:57,911 --> 00:50:01,081 KUTU BUKU INI AKAN MEMBUNUH KITA SEMUA. 633 00:50:01,164 --> 00:50:04,501 Lalu kami mendapat undangan yang tak kusangka-sangka. 634 00:50:08,880 --> 00:50:12,884 Ada banyak diskusi di Gedung Putih tentang artikel itu 635 00:50:12,968 --> 00:50:15,470 dan mereka ingin segera bicara dengan kami. 636 00:50:18,974 --> 00:50:23,186 Jelas, itu kehormatan luar biasa bisa bicara dengan orang pada tingkat ini. 637 00:50:24,104 --> 00:50:28,316 Namun, kau berpikir, "Astaga, ini Gedung Putih. Para petinggi." 638 00:50:29,651 --> 00:50:33,196 Itu melibatkan menyusun kumpulan data sumber terbuka... 639 00:50:33,280 --> 00:50:37,701 Enam jam lagi, model itu bisa menghasilkan lebih dari 40,000... 640 00:50:37,784 --> 00:50:41,204 Mereka bertanya berapa banyak daya komputasi yang kami butuhkan 641 00:50:41,705 --> 00:50:43,832 dan kami bilang tak ada yang istimewa. 642 00:50:44,332 --> 00:50:48,211 Hanya Mac biasa berusia enam tahun. 643 00:50:49,504 --> 00:50:51,256 Dan itu mengejutkan mereka. 644 00:50:54,968 --> 00:50:59,473 Orang-orang yang bertugas memahami agen perang kimia 645 00:50:59,556 --> 00:51:04,019 dan badan pemerintah, mereka tak mengetahui potensi ini. 646 00:51:06,688 --> 00:51:09,816 Kami punya buku resep untuk membuat senjata kimia ini 647 00:51:10,609 --> 00:51:15,572 dan di tangan aktor jahat yang punya niat buruk, 648 00:51:16,698 --> 00:51:19,034 itu bisa sangat mengerikan. 649 00:51:21,787 --> 00:51:23,205 Mereka duduk dan mendengarkan. 650 00:51:23,288 --> 00:51:26,458 Kami harus mengambil langkah untuk mengatur teknologi 651 00:51:27,250 --> 00:51:30,670 atau membatasinya agar itu tak bisa disalahgunakan 652 00:51:31,797 --> 00:51:35,175 karena potensi kematiannya... 653 00:51:36,176 --> 00:51:37,344 mengerikan. 654 00:51:40,680 --> 00:51:46,061 {\an8}Pertanyaan tentang etika kecerdasan buatan sebagian besar diatasi oleh masyarakat, 655 00:51:46,561 --> 00:51:50,273 {\an8}bukan oleh para insinyur, teknolog, atau matematikawan. 656 00:51:52,442 --> 00:51:56,822 Setiap teknologi yang kita hasilkan, setiap inovasi baru, 657 00:51:56,905 --> 00:52:00,617 pada akhirnya berada di bawah lingkup kepercayaan masyarakat terhadap itu. 658 00:52:03,036 --> 00:52:06,039 Saat ini, Departemen Pertahanan berkata, 659 00:52:06,540 --> 00:52:09,709 "Satu-satunya yang mengatakan kita akan membunuh sesuatu 660 00:52:09,793 --> 00:52:11,920 di medan perang adalah manusia." 661 00:52:12,504 --> 00:52:14,548 Mesin bisa membunuh, 662 00:52:15,674 --> 00:52:18,927 {\an8}tetapi hanya atas perintah operator manusia 663 00:52:19,511 --> 00:52:21,429 dan aku tak melihat itu berubah. 664 00:52:24,808 --> 00:52:28,228 Mereka meyakinkan kita bahwa jenis teknologi ini akan aman. 665 00:52:29,729 --> 00:52:33,692 Namun, militer AS tak punya reputasi yang dapat dipercaya 666 00:52:33,775 --> 00:52:35,485 dengan perang drone. 667 00:52:36,820 --> 00:52:41,783 Jadi, saat memercayai militer Amerika dengan kecerdasan buatan, 668 00:52:41,867 --> 00:52:44,327 menurutku rekam jejaknya sudah cukup menggambarkan. 669 00:52:46,288 --> 00:52:50,125 Kebijakan Departemen Pertahanan AS tentang otomatisasi dalam senjata 670 00:52:50,208 --> 00:52:52,919 tak melarang sistem persenjataan apa pun. 671 00:52:53,003 --> 00:52:56,715 Dan meski militer mungkin tak menginginkan senjata otomat, 672 00:52:56,798 --> 00:53:01,678 kita bisa melihat militer menyerahkan lebih banyak keputusan kepada mesin 673 00:53:01,761 --> 00:53:03,680 hanya untuk mengimbangi pesaing. 674 00:53:04,764 --> 00:53:08,310 Itu bisa mendorong militer untuk membuat keputusan 675 00:53:08,393 --> 00:53:09,978 yang mungkin tak mereka inginkan. 676 00:53:11,938 --> 00:53:15,150 Vladimir Putin pernah berkata, "Kuasai kecerdasan buatan, 677 00:53:15,233 --> 00:53:16,693 kuasai dunia." 678 00:53:17,736 --> 00:53:20,572 Presiden Xi telah menegaskan 679 00:53:20,655 --> 00:53:23,325 kecerdasan buatan adalah salah satu teknologi nomor satu 680 00:53:23,408 --> 00:53:25,702 yang ingin dikuasai Tiongkok. 681 00:53:26,786 --> 00:53:29,831 Kita jelas berada dalam kompetisi teknologi. 682 00:53:33,460 --> 00:53:35,670 Kau mendengar orang membicarakan pembatas 683 00:53:36,421 --> 00:53:39,424 dan aku yakin itu yang harus mereka lakukan. 684 00:53:40,467 --> 00:53:45,180 {\an8}Namun, ada persaingan yang sangat serius untuk keunggulan kecerdasan buatan. 685 00:53:47,224 --> 00:53:51,603 Dan musuh kami, entah itu Tiongkok, Rusia, atau Iran 686 00:53:52,187 --> 00:53:56,566 takkan menghiraukan kebijakan kami mengenai kecerdasan buatan. 687 00:54:00,737 --> 00:54:04,699 Kau melihat lebih banyak percakapan tentang kebijakan soal kecerdasan buatan, 688 00:54:06,117 --> 00:54:09,663 tetapi aku berharap lebih banyak pemimpin membicarakan, 689 00:54:09,746 --> 00:54:11,748 "Secepat apa kita bisa membuatnya? 690 00:54:12,707 --> 00:54:15,126 Mari kumpulkan sumber dayanya lalu buat." 691 00:54:18,922 --> 00:54:21,299 {\an8}PERTEMUAN & EKSPOSISI TAHUNAN AUSA WASHINGTON, DC 692 00:54:24,177 --> 00:54:26,805 ANGKATAN DARAT AMERIKA SERIKAT 693 00:54:33,436 --> 00:54:38,358 Kami ada di pameran dagang terbesar Asosiasi Angkatan Darat AS tahun ini. 694 00:54:39,609 --> 00:54:44,572 Intinya, vendor mana pun yang menjual produk atau teknologi kepada militer 695 00:54:44,656 --> 00:54:46,616 akan berpameran. 696 00:54:47,701 --> 00:54:50,537 Pangkalan Angkatan Udara Tyndall memiliki empat robot kami 697 00:54:50,620 --> 00:54:54,207 yang berpatroli di pangkalan mereka 24 jam sehari, 7 hari seminggu. 698 00:54:55,750 --> 00:55:00,130 Kami bisa menambahkan mulai dari kamera, sensor, hingga apa pun yang kau butuhkan. 699 00:55:00,213 --> 00:55:01,548 {\an8}Lengan manipulator. 700 00:55:01,631 --> 00:55:05,135 {\an8}Sekali lagi, hanya untuk menyelesaikan misi para pelanggan. 701 00:55:06,344 --> 00:55:08,638 Bagaimana jika musuh perkenalkan kecerdasan buatan? 702 00:55:09,431 --> 00:55:12,976 Sistem petempur yang berpikir lebih cepat, merespons lebih cepat 703 00:55:13,059 --> 00:55:16,062 {\an8}daripada apa yang bisa dilakukan manusia. Kita harus siap. 704 00:55:17,605 --> 00:55:21,359 Kami melatih sistem kami untuk mengumpulkan informasi musuh, 705 00:55:22,027 --> 00:55:26,531 mengelola target musuh dengan manusia mengawasi keberhasilan membunuh. 706 00:55:33,288 --> 00:55:34,956 {\an8}- Hai, Jenderal. - Apa kabar? 707 00:55:35,040 --> 00:55:36,374 Baik, Pak. Apa kabar? 708 00:55:37,667 --> 00:55:40,962 Tak ada yang berinvestasi lebih banyak dalam pilot kecerdasan buatan. 709 00:55:41,046 --> 00:55:42,630 Pilot kami bernama Hivemind. 710 00:55:43,298 --> 00:55:47,135 Kami menerapkannya ke Nova, quadcopter kami. Ia masuk ke gedung, 711 00:55:47,218 --> 00:55:50,805 memandu pasukan operasi khusus dan pasukan infanteri. 712 00:55:50,889 --> 00:55:52,891 Kami menerapkan Hivemind ke V-Bat, 713 00:55:52,974 --> 00:55:56,811 jadi aku berpikir untuk mengerahkan ratusan tim itu. 714 00:55:56,895 --> 00:55:58,730 Entah itu di Selat Taiwan, 715 00:55:58,813 --> 00:56:01,608 Ukraina, menghalangi musuh kita. 716 00:56:01,691 --> 00:56:03,360 Jadi, aku cukup antusias. 717 00:56:03,943 --> 00:56:06,363 - Baiklah. Terima kasih. - Terima kasih, Jenderal. 718 00:56:07,947 --> 00:56:13,370 Pilot kecerdasan buatan harus ubikuitas, terutama pada tahun 2025, 2030. 719 00:56:14,162 --> 00:56:17,582 Adopsinya akan cepat di seluruh militer di dunia. 720 00:56:19,250 --> 00:56:22,962 Apa yang kau lakukan dengan militer Rumania, orang UAS mereka? 721 00:56:23,046 --> 00:56:24,756 Teknologi tinggi di militer. 722 00:56:25,256 --> 00:56:29,803 Kami menghabiskan setengah miliar dolar untuk membangun pilot kecerdasan buatan. 723 00:56:29,886 --> 00:56:33,181 Kami akan menghabiskan miliaran dolar lagi selama lima tahun ke depan. 724 00:56:33,264 --> 00:56:37,769 Itu alasan utama kami memenangkan program catatan di Amerika Serikat. 725 00:56:37,852 --> 00:56:38,853 Bagus. 726 00:56:38,937 --> 00:56:42,732 Itu mengesankan. Kalian berhasil mempersenjatai itu? 727 00:56:43,608 --> 00:56:45,985 Ini belum dipersenjatai. 728 00:56:46,069 --> 00:56:48,321 Jadi, belum. Tetapi ya, di masa depan. 729 00:56:48,905 --> 00:56:52,534 Pelanggan kami menganggapnya sebagai truk. Kami menganggapnya sebagai truk cerdas 730 00:56:52,617 --> 00:56:54,452 yang dapat melakukan banyak hal berbeda. 731 00:56:54,536 --> 00:56:55,703 - Terima kasih. - Ya. 732 00:56:55,787 --> 00:56:57,956 Aku akan memastikan untuk menghubungimu. 733 00:57:01,626 --> 00:57:04,879 Jika kembali 10 tahun lagi, kau akan melihat 734 00:57:06,297 --> 00:57:10,802 kecerdasan buatan dan otomatisasi akan mendominasi seluruh pasar ini. 735 00:57:14,889 --> 00:57:19,352 Pasukan yang didukung oleh kecerdasan buatan dan otomatisasi 736 00:57:19,436 --> 00:57:22,814 pasti akan mendominasi, menghancurkan, 737 00:57:22,897 --> 00:57:25,525 dan membinasakan pasukan tanpa dukungan itu. 738 00:57:26,401 --> 00:57:30,780 Itu seperti kuda melawan tank, 739 00:57:31,781 --> 00:57:34,409 orang dengan pedang melawan senapan mesin. 740 00:57:35,410 --> 00:57:37,120 Itu pasti berbeda jauh. 741 00:57:38,663 --> 00:57:42,750 Itu akan menjadi ubikuitas, digunakan pada setiap spektrum peperangan, 742 00:57:43,585 --> 00:57:44,836 tingkat taktis, 743 00:57:45,336 --> 00:57:46,546 tingkat strategis, 744 00:57:47,130 --> 00:57:50,800 beroperasi dengan kecepatan yang tak dapat dipahami manusia saat ini. 745 00:57:53,052 --> 00:57:57,056 Komandan sudah kewalahan dengan terlalu banyak informasi. 746 00:57:57,557 --> 00:58:01,019 Citra dari satelit, drone, dan sensor. 747 00:58:02,103 --> 00:58:03,855 Salah satu fungsi kecerdasan buatan 748 00:58:03,938 --> 00:58:06,774 ialah membantu komandan lebih cepat memahami apa yang terjadi. 749 00:58:07,650 --> 00:58:09,986 Lalu, "Keputusan apa yang harus kubuat?" 750 00:58:11,196 --> 00:58:14,866 Kecerdasan buatan akan mempertimbangkan semua faktor 751 00:58:14,949 --> 00:58:17,702 yang menentukan cara perang dilaksanakan, 752 00:58:18,286 --> 00:58:20,246 memikirkan strategi... 753 00:58:22,540 --> 00:58:25,668 dan memberikan rekomendasi tentang cara memenangkan pertempuran. 754 00:58:32,217 --> 00:58:34,344 LOCKHEED MARTIN PUSAT INOVASI 755 00:58:36,971 --> 00:58:40,266 Kami di Lockheed Martin, seperti pelanggan dari Departemen Pertahanan, 756 00:58:40,350 --> 00:58:43,770 menganggap kecerdasan buatan sebagai pendukung teknologi utama 757 00:58:43,853 --> 00:58:45,104 untuk komando dan kendali. 758 00:58:47,065 --> 00:58:50,109 Tingkat penyebaran rata-rata 0,6 meter per detik. 759 00:58:50,193 --> 00:58:52,237 Perimeter ini kira-kira 283,3 hektar. 760 00:58:52,737 --> 00:58:55,782 Kabut perang jelas merupakan kenyataan bagi kami di sisi pertahanan, 761 00:58:57,158 --> 00:59:00,495 tetapi itu memiliki kesamaan dengan berada di lingkungan 762 00:59:00,578 --> 00:59:03,206 dan harus membuat keputusan untuk kebakaran hutan juga. 763 00:59:03,289 --> 00:59:06,543 Kebakaran Washburn terjadi di utara kota Wawona. 764 00:59:06,626 --> 00:59:09,754 Kau harus membuat keputusan dengan data yang tak sempurna. 765 00:59:10,630 --> 00:59:13,716 {\an8}Bagaimana kecerdasan buatan membantu kami dengan kabut perang itu? 766 00:59:17,637 --> 00:59:19,597 Kebakaran hutan sangat kacau. 767 00:59:20,181 --> 00:59:21,266 Sangat kompleks, 768 00:59:22,267 --> 00:59:27,855 jadi kami memanfaatkan kecerdasan buatan untuk membantu membuat keputusan. 769 00:59:31,442 --> 00:59:33,987 Kami mengembangkan program Cognitive Mission Manager 770 00:59:34,070 --> 00:59:37,949 guna merekam video inframerah udara 771 00:59:38,032 --> 00:59:41,786 lalu memprosesnya melalui algoritma kecerdasan buatan kami 772 00:59:41,869 --> 00:59:45,248 untuk bisa memprediksi kebakaran di masa depan. 773 00:59:48,042 --> 00:59:49,794 Saat kita bergerak ke masa depan, 774 00:59:49,877 --> 00:59:52,922 Cognitive Mission Manager akan menggunakan simulasi, 775 00:59:53,006 --> 00:59:57,093 menjalankan skenario selama ribuan siklus 776 00:59:57,176 --> 01:00:00,722 {\an8}untuk merekomendasikan cara paling efektif guna mengerahkan sumber daya 777 01:00:00,805 --> 01:00:04,058 untuk menekan area kebakaran prioritas tinggi. 778 01:00:08,062 --> 01:00:12,400 Ia akan berkata, "Lakukan penekanan udara dengan Firehawk di sini. 779 01:00:13,526 --> 01:00:15,903 Perintahkan petugas darat untuk membersihkan semak, 780 01:00:16,946 --> 01:00:19,157 pemadam kebakaran untuk menyemprotkan air, 781 01:00:19,657 --> 01:00:22,660 lalu tarik mereka ke area prioritas tertinggi." 782 01:00:26,247 --> 01:00:31,044 Keputusan itu akan bisa dihasilkan lebih cepat dan efisien. 783 01:00:35,757 --> 01:00:38,593 Kami melihat kecerdasan buatan secara unik memungkinkan manusia 784 01:00:38,676 --> 01:00:42,305 untuk dapat mengikuti lingkungan yang terus berubah. 785 01:00:43,473 --> 01:00:46,517 Dan ada banyak kesamaan 786 01:00:46,601 --> 01:00:50,605 dengan yang biasa kami lakukan di Lockheed Martin di sisi pertahanan. 787 01:00:52,190 --> 01:00:55,860 Militer tak lagi bicara soal penggunaan kecerdasan buatan 788 01:00:55,943 --> 01:00:58,529 dan sistem persenjataan individu untuk membuat 789 01:00:58,613 --> 01:01:00,365 keputusan penargetan dan pembunuhan, 790 01:01:00,865 --> 01:01:05,787 {\an8}tetapi mengintegrasikannya ke arsitektur pengambilan keputusan militer. 791 01:01:09,374 --> 01:01:13,378 Angkatan Darat punya proyek besar bernama Project Convergence. 792 01:01:14,545 --> 01:01:16,547 Angkatan Laut punya Overmatch. 793 01:01:16,631 --> 01:01:19,592 Dan Angkatan Udara punya Advanced Battle Management System. 794 01:01:21,969 --> 01:01:24,138 Departemen Pertahanan berusaha mencari tahu, 795 01:01:24,222 --> 01:01:26,683 "Bagaimana kita menyatukan semua ini 796 01:01:26,766 --> 01:01:29,268 agar bisa beroperasi lebih cepat daripada musuh kita 797 01:01:30,395 --> 01:01:32,605 dan benar-benar mendapat keuntungan?" 798 01:01:33,439 --> 01:01:37,527 Manajer Pertempuran Kecerdasan Buatan harus jenderal berpangkat tinggi 799 01:01:37,610 --> 01:01:39,821 yang memimpin pertempuran. 800 01:01:41,155 --> 01:01:44,158 Membantu memberi perintah kepada sejumlah besar pasukan, 801 01:01:45,118 --> 01:01:49,247 {\an8}mengoordinasikan aksi semua senjata yang ada di luar sana, 802 01:01:49,330 --> 01:01:51,958 {\an8}dan melakukannya dengan kecepatan yang tak tertandingi. 803 01:01:53,543 --> 01:01:55,294 Kami menghabiskan 70 tahun terakhir 804 01:01:55,378 --> 01:01:58,798 mengembangkan militer tercanggih di planet ini 805 01:01:58,881 --> 01:02:03,177 dan sekarang kami menghadapi keputusan apa kami ingin menyerahkan kendali 806 01:02:03,261 --> 01:02:07,640 atas infrastruktur itu kepada algoritma, perangkat lunak. 807 01:02:10,351 --> 01:02:13,187 Dan konsekuensi dari keputusan itu 808 01:02:13,271 --> 01:02:16,774 bisa memicu seluruh persenjataan militer kita. 809 01:02:16,858 --> 01:02:19,902 Itu bukan satu Hiroshima, melainkan ratusan. 810 01:02:25,616 --> 01:02:27,869 Ini saatnya kami bertindak 811 01:02:27,952 --> 01:02:33,166 karena jendela untuk menahan risiko ini tertutup dengan cepat. 812 01:02:34,041 --> 01:02:35,042 PBB 27 SEPTEMBER 2021 813 01:02:35,126 --> 01:02:39,338 Sore ini, kami mulai dengan tantangan keamanan internasional 814 01:02:39,422 --> 01:02:41,132 yang ditimbulkan oleh teknologi baru 815 01:02:41,215 --> 01:02:44,343 {\an8}di area sistem persenjataan otomat yang mematikan. 816 01:02:44,427 --> 01:02:47,722 {\an8}Percakapan terjadi di PBB 817 01:02:47,805 --> 01:02:50,016 {\an8}tentang ancaman senjata otomat mematikan 818 01:02:50,600 --> 01:02:53,269 {\an8}dan larangan kami pada sistem 819 01:02:53,352 --> 01:02:56,564 {\an8}yang menggunakan kecerdasan buatan untuk memilih dan menyasar orang. 820 01:02:56,647 --> 01:03:00,777 {\an8}Konsensus di antara para teknolog jelas dan bergaung. 821 01:03:00,860 --> 01:03:04,030 {\an8}Kami menentang senjata otomat yang menyasar manusia. 822 01:03:05,531 --> 01:03:08,743 Selama bertahun-tahun, negara bagian membantu, membahas 823 01:03:08,826 --> 01:03:11,329 isu sistem persenjataan otomat yang mematikan ini. 824 01:03:12,288 --> 01:03:16,793 Ini tentang rasa aman bersama. 825 01:03:17,710 --> 01:03:20,546 Namun, tentu saja, itu tak mudah. 826 01:03:21,297 --> 01:03:25,968 {\an8}Negara tertentu, terutama kekuatan militer, 827 01:03:26,052 --> 01:03:27,762 {\an8}mereka ingin jadi yang terdepan 828 01:03:28,429 --> 01:03:31,599 agar lebih unggul daripada musuh mereka. 829 01:03:32,600 --> 01:03:36,187 Masalahnya, semua orang harus setuju untuk menyelesaikan apa pun. 830 01:03:36,896 --> 01:03:39,065 Akan ada setidaknya satu negara yang keberatan 831 01:03:39,148 --> 01:03:42,068 dan tentu saja Amerika Serikat serta Rusia telah menegaskan 832 01:03:42,151 --> 01:03:46,113 bahwa mereka menentang perjanjian yang akan melarang senjata otomat. 833 01:03:47,198 --> 01:03:53,204 Saat kita memikirkan jumlah orang yang membuat kecerdasan buatan lebih kuat, 834 01:03:54,747 --> 01:03:56,457 ruangan itu sangat penuh. 835 01:03:57,875 --> 01:04:02,880 Saat kita memikirkan ruangan berisi orang, memastikan bahwa kecerdasan buatan aman, 836 01:04:04,340 --> 01:04:07,510 ruangan itu jauh lebih sepi. 837 01:04:11,764 --> 01:04:13,724 Namun, aku juga amat optimistis. 838 01:04:16,060 --> 01:04:19,397 Aku melihat sesuatu seperti Konvensi Senjata Biologis, 839 01:04:19,480 --> 01:04:21,774 yang terjadi di tengah Perang Dingin 840 01:04:23,025 --> 01:04:27,655 meski ada ketegangan antara Uni Soviet dan Amerika Serikat. 841 01:04:29,156 --> 01:04:33,536 Mereka mampu menyadari bahwa pengembangan senjata biologis 842 01:04:33,619 --> 01:04:36,247 bukan demi kepentingan terbaik mereka 843 01:04:36,330 --> 01:04:38,749 dan bukan demi kepentingan dunia pada umumnya. 844 01:04:41,252 --> 01:04:45,131 Dinamika persaingan persenjataan utamakan kecepatan daripada keselamatan. 845 01:04:45,715 --> 01:04:48,342 Namun, kurasa yang penting untuk dipertimbangkan ialah 846 01:04:48,426 --> 01:04:52,430 pada titik tertentu, biaya bergerak cepat menjadi terlalu tinggi. 847 01:04:56,225 --> 01:04:59,270 Kita tak bisa mengembangkan sesuatu secara terpisah begitu saja 848 01:05:00,021 --> 01:05:06,611 dan menempatkannya di luar sana tanpa pertimbangkan arahnya di masa depan. 849 01:05:07,862 --> 01:05:10,823 Kita harus mencegah momen bom atom itu. 850 01:05:14,535 --> 01:05:17,788 Taruhan dalam persaingan kecerdasan buatan sangat besar. 851 01:05:18,289 --> 01:05:22,001 Kurasa tak banyak orang menghargai stabilitas global 852 01:05:22,084 --> 01:05:28,174 yang telah disediakan dengan memiliki kekuatan militer yang unggul 853 01:05:28,257 --> 01:05:31,135 selama 75 tahun terakhir. 854 01:05:32,887 --> 01:05:35,681 Jadi, Amerika Serikat dan pasukan sekutu kami 855 01:05:36,557 --> 01:05:38,684 harus mengungguli kecerdasan buatan. 856 01:05:43,314 --> 01:05:44,774 Tak ada juara kedua di perang. 857 01:05:45,483 --> 01:05:49,111 {\an8}Tiongkok berencana besar untuk unggul di bidang kecerdasan buatan sebelum 2030. 858 01:05:49,195 --> 01:05:51,656 {\an8}Ada yang bilang Amerika kalah dalam persaingan ini... 859 01:05:52,740 --> 01:05:56,160 Kalian akan mempercepat adopsi kecerdasan buatan 860 01:05:56,243 --> 01:05:59,246 guna memastikan keunggulan kompetitif militer kita. 861 01:06:02,875 --> 01:06:05,461 Kami berlomba dengan teknologi ini. 862 01:06:05,544 --> 01:06:09,006 Aku merasa pertanyaannya adalah seberapa jauh ini akan berlangsung? 863 01:06:09,507 --> 01:06:12,760 Kita mengendalikan teknologi atau teknologi mengendalikan kita? 864 01:06:14,136 --> 01:06:16,973 Tidak ada kesempatan untuk mengulang. 865 01:06:17,807 --> 01:06:20,977 Begitu dilepas, itu akan sulit untuk dikendalikan. 866 01:06:22,019 --> 01:06:25,147 Dan sangat sulit untuk menghentikannya. 867 01:06:28,609 --> 01:06:32,154 Jika kita tak bertindak sekarang, semuanya akan terlambat. 868 01:06:33,114 --> 01:06:34,657 Mungkin sudah terlambat. 869 01:08:50,417 --> 01:08:53,420 Terjemahan subtitle oleh Muhammad Pandu Abdillah 77167

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.