All language subtitles for The.Social.Dilemma.2020.720p.NF.WEBRip.800MB.x264-GalaxyRG

af Afrikaans
ak Akan
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bem Bemba
bn Bengali
bh Bihari
bs Bosnian
br Breton
bg Bulgarian
km Cambodian
ca Catalan
ceb Cebuano
chr Cherokee
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English Download
eo Esperanto
et Estonian
ee Ewe
fo Faroese
tl Filipino
fi Finnish
fr French
fy Frisian
gaa Ga
gl Galician
ka Georgian
de German
el Greek
gn Guarani
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian Download
ia Interlingua
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
rw Kinyarwanda
rn Kirundi
kg Kongo
ko Korean
kri Krio (Sierra Leone)
ku Kurdish
ckb Kurdish (Soranî)
ky Kyrgyz
lo Laothian
la Latin
lv Latvian
ln Lingala
lt Lithuanian
loz Lozi
lg Luganda
ach Luo
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mfe Mauritian Creole
mo Moldavian
mn Mongolian
my Myanmar (Burmese)
sr-ME Montenegrin
ne Nepali
pcm Nigerian Pidgin
nso Northern Sotho
no Norwegian
nn Norwegian (Nynorsk)
oc Occitan
or Oriya
om Oromo
ps Pashto
fa Persian
pl Polish
pt-BR Portuguese (Brazil)
pt Portuguese (Portugal)
pa Punjabi
qu Quechua
ro Romanian
rm Romansh
nyn Runyakitara
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
sh Serbo-Croatian
st Sesotho
tn Setswana
crs Seychellois Creole
sn Shona
sd Sindhi
si Sinhalese
sk Slovak
sl Slovenian
so Somali
es Spanish
es-419 Spanish (Latin American)
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
tt Tatar
te Telugu
th Thai
ti Tigrinya
to Tonga
lua Tshiluba
tum Tumbuka
tr Turkish
tk Turkmen
tw Twi
ug Uighur
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
wo Wolof
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:06,000 --> 00:00:12,074 Iklankan produk atau merek dagang Anda di sini dengan menghubungi www.OpenSubtitles.org sekarang 2 00:00:19,978 --> 00:00:24,774 "TAK ADA HAL BESAR YANG MEMASUKI KEHIDUPAN MANUSIA TANPA KUTUKAN." 3 00:00:24,858 --> 00:00:27,861 SOPHOKLES 4 00:00:31,156 --> 00:00:34,659 Ya, mulailah. Silakan duduk dan buat dirimu nyaman. 5 00:00:37,579 --> 00:00:39,497 - Kau baik-baik saja? - Ya. 6 00:00:43,043 --> 00:00:44,627 Pengambilan gambar pertama, tandai! 7 00:00:46,880 --> 00:00:48,923 Mau mulai dengan memperkenalkan dirimu? 8 00:00:50,467 --> 00:00:53,636 Halo, Dunia. Aku Bailey. Pengambilan gambar ketiga. 9 00:00:54,179 --> 00:00:56,264 - Kau baik-baik saja? - Ini bagian terburuk. 10 00:00:57,515 --> 00:00:58,516 Aku tak suka ini. 11 00:00:59,851 --> 00:01:02,228 Aku bekerja di Facebook pada tahun 2011 dan 2012. 12 00:01:02,312 --> 00:01:05,190 Aku salah satu pegawai awal Instagram. 13 00:01:05,273 --> 00:01:08,693 Aku bekerja di Google, YouTube. 14 00:01:08,777 --> 00:01:11,696 Apple, Google, Twitter, Palm. 15 00:01:12,739 --> 00:01:15,533 Aku membantu merintis Mozilla Labs dan beralih ke Firefox. 16 00:01:15,617 --> 00:01:17,994 Sudah siap? Semuanya... 17 00:01:18,078 --> 00:01:18,953 Bagus. 18 00:01:21,206 --> 00:01:22,582 Aku bekerja di Twitter. 19 00:01:22,999 --> 00:01:26,169 Pekerjaan terakhirku di sana adalah Wakil Presiden Senior Perekayasaan. 20 00:01:27,462 --> 00:01:29,255 Aku mantan Presiden Pinterest. 21 00:01:29,339 --> 00:01:32,717 Sebelum itu, aku Direktur Monetisasi 22 00:01:32,801 --> 00:01:34,260 di Facebook selama lima tahun. 23 00:01:34,344 --> 00:01:37,972 Saat di Twitter, kuhabiskan beberapa tahun mengelola platform pengembang mereka, 24 00:01:38,056 --> 00:01:40,225 lalu aku menjadi Kepala Produk Pelanggan. 25 00:01:40,308 --> 00:01:44,270 Aku penemu bersama Google Drive, Gmail Chat, 26 00:01:44,354 --> 00:01:46,856 Halaman Facebook, dan tombol "Suka" Facebook. 27 00:01:47,440 --> 00:01:50,777 Ya. Ini sebabnya kuhabiskan delapan bulan 28 00:01:50,860 --> 00:01:52,779 berbicara berulang kali dengan pengacara. 29 00:01:54,030 --> 00:01:55,406 Ini membuatku takut. 30 00:01:58,409 --> 00:02:02,914 Saat di sana, aku selalu merasa, pada dasarnya, itu demi kebaikan. 31 00:02:03,373 --> 00:02:05,375 Entah apa aku merasa seperti itu lagi. 32 00:02:05,458 --> 00:02:10,588 Aku meninggalkan Google pada Juni 2017 karena masalah etika. 33 00:02:10,672 --> 00:02:14,134 Bukan hanya di Google, tapi industri ini secara umum. 34 00:02:14,217 --> 00:02:15,426 Aku sangat khawatir. 35 00:02:16,719 --> 00:02:17,679 Sangat khawatir. 36 00:02:19,097 --> 00:02:21,808 Saat ini mudah untuk melupakan fakta 37 00:02:21,891 --> 00:02:27,814 bahwa alat ini telah menciptakan hal-hal indah di dunia. 38 00:02:27,897 --> 00:02:30,233 Mereka mempertemukan anggota keluarga yang hilang 39 00:02:30,316 --> 00:02:31,943 dan menemukan donor organ. 40 00:02:32,026 --> 00:02:35,613 Maksudku, ada perubahan sistemik berarti 41 00:02:35,697 --> 00:02:37,866 yang terjadi di seluruh dunia 42 00:02:37,949 --> 00:02:40,201 karena semua platform positif ini. 43 00:02:41,035 --> 00:02:42,954 Kurasa kita naif 44 00:02:43,329 --> 00:02:44,914 soal sisi lain dari koin itu. 45 00:02:45,540 --> 00:02:48,585 Ya, setelah semua ini dirilis, mereka membentuk hidup sendiri. 46 00:02:48,668 --> 00:02:52,005 Cara mereka digunakan tak sesuai dengan harapan kita. 47 00:02:52,088 --> 00:02:56,509 Aku sangat percaya tak ada yang berniat menimbulkan semua konsekuensi ini. 48 00:02:56,801 --> 00:02:59,554 Tak ada orang jahat. Sama sekali tidak. 49 00:03:01,639 --> 00:03:03,600 Lantas apa masalahnya? 50 00:03:09,230 --> 00:03:11,357 Apa ada masalah dan apa itu? 51 00:03:18,406 --> 00:03:20,158 Sulit memberi satu jawaban ringkas... 52 00:03:20,241 --> 00:03:22,118 Aku mencoba membahas beragam masalah. 53 00:03:22,577 --> 00:03:23,578 Apa masalahnya? 54 00:03:28,208 --> 00:03:32,253 DOKUMENTER NETFLIX ORIGINAL 55 00:03:33,588 --> 00:03:35,340 Meski menghadapi lonjakan kritik, 56 00:03:35,423 --> 00:03:37,675 perusahaan teknologi besar makin berkembang. 57 00:03:37,759 --> 00:03:40,929 Seluruh industri teknologi berada di bawah pengawasan tingkat baru. 58 00:03:41,012 --> 00:03:43,723 Studi baru mengungkap kaitan 59 00:03:43,806 --> 00:03:46,142 antara kesehatan mental dan penggunaan media sosial. 60 00:03:46,226 --> 00:03:48,478 Hadir untuk membahas riset terbaru... 61 00:03:49,187 --> 00:03:51,397 ...yang terjadi tanpa diliput sama sekali. 62 00:03:51,481 --> 00:03:54,025 Puluhan juta warga Amerika sangat kecanduan 63 00:03:54,108 --> 00:03:56,319 terhadap perangkat elektronik mereka. 64 00:03:56,402 --> 00:03:59,364 Itu diperparah oleh fakta kini kita bisa mengasingkan diri... 65 00:03:59,447 --> 00:04:00,698 KAWANMU MENANDAIMU DI FOTO 66 00:04:00,782 --> 00:04:02,742 ...dalam gelembung, berkat teknologi kami. 67 00:04:02,825 --> 00:04:04,577 Berita palsu menjadi lebih maju 68 00:04:04,661 --> 00:04:06,788 dan mengancam masyarakat di seluruh dunia. 69 00:04:06,871 --> 00:04:10,333 Kami tak menduga ini saat membuat Twitter lebih dari 12 tahun lalu. 70 00:04:10,416 --> 00:04:12,502 Pemerintah mengatakan mereka tak yakin 71 00:04:12,585 --> 00:04:14,754 serangan siber Rusia akan berhenti. 72 00:04:14,837 --> 00:04:18,132 YouTube dipaksa berfokus membersihkan situsnya. 73 00:04:18,216 --> 00:04:21,552 TikTok, jika Anda berbicara dengan remaja di luar sana, 74 00:04:21,636 --> 00:04:24,013 mustahil mereka akan menghapusnya... 75 00:04:24,097 --> 00:04:26,349 Hei, Isla, bisa tolong siapkan meja? 76 00:04:26,432 --> 00:04:27,517 Ada pertanyaan serius 77 00:04:27,600 --> 00:04:29,978 soal apakah media sosial membuat anak kita depresi. 78 00:04:30,061 --> 00:04:32,105 Isla, bisa tolong siapkan mejanya? 79 00:04:32,188 --> 00:04:35,316 Prosedur kosmetik ini menjadi sangat populer di kalangan remaja 80 00:04:35,400 --> 00:04:37,944 hingga ahli bedah plastik menamai sindrom baru untuk itu, 81 00:04:38,027 --> 00:04:40,822 Dismorfia Snapchat, dengan pasien muda yang ingin operasi 82 00:04:40,905 --> 00:04:43,741 agar mereka bisa mirip dengan swafoto berfilter mereka. 83 00:04:43,825 --> 00:04:45,910 Aku masih bingung kenapa kau memberinya itu. 84 00:04:45,994 --> 00:04:49,580 Aku harus bagaimana? Setiap anak lain di kelasnya punya. 85 00:04:50,164 --> 00:04:51,165 Usianya baru 11 tahun. 86 00:04:51,249 --> 00:04:55,086 Cass, tak ada yang memaksamu memilikinya. Kau bisa tak terhubung selama kau mau. 87 00:04:55,169 --> 00:04:59,340 Hei, aku terhubung tanpa ponsel. Aku sedang mengakses internet. 88 00:04:59,424 --> 00:05:03,094 Lagi pula, itu bukan koneksi nyata. Itu hanya omong kosong... 89 00:05:03,177 --> 00:05:04,971 Kapitalisme pengawasan telah membentuk 90 00:05:05,054 --> 00:05:07,765 politik dan budaya dalam cara yang tak banyak orang pahami. 91 00:05:07,849 --> 00:05:10,101 ISIS mengilhami para pengikutnya lewat internet 92 00:05:10,184 --> 00:05:12,812 dan kini penganut supremasi kulit putih melakukannya juga. 93 00:05:12,895 --> 00:05:14,147 Baru-baru ini di India, 94 00:05:14,230 --> 00:05:17,442 massa hakim jalanan di internet telah membunuh lusinan orang... 95 00:05:17,525 --> 00:05:20,361 Ini bukan sekadar berita palsu, tapi juga berkonsekuensi. 96 00:05:20,445 --> 00:05:24,073 Bagaimana cara menangani wabah di era maraknya berita palsu? 97 00:05:24,157 --> 00:05:26,993 Bisakah kita tertular virus korona dengan memakan makanan Cina? 98 00:05:27,535 --> 00:05:32,540 Kita telah berubah dari era informasi menjadi era disinformasi. 99 00:05:32,623 --> 00:05:34,667 Demokrasi kita sedang diserang. 100 00:05:34,751 --> 00:05:38,504 Maksudku adalah, "Kurasa alat yang telah diciptakan hari ini  101 00:05:38,588 --> 00:05:41,799 mulai mengikis struktur sosial dari cara kerja masyarakat." 102 00:06:00,151 --> 00:06:03,446 Asa memberi ucapan sambutan. Kita putar videonya. 103 00:06:04,197 --> 00:06:07,325 Lalu, "Hadirin, sambutlah Tristan Harris." 104 00:06:07,408 --> 00:06:08,826 - Benar. - Bagus. 105 00:06:08,951 --> 00:06:09,952 Jadi, aku naik... 106 00:06:11,204 --> 00:06:12,038 dan... 107 00:06:12,121 --> 00:06:13,748 MANUSIAWI AGENDA BARU TEKNOLOGI 108 00:06:13,831 --> 00:06:16,042 Intinya katakan, "Terima kasih sudah datang." 109 00:06:17,919 --> 00:06:22,048 Jadi, hari ini, aku ingin membahas agenda baru untuk teknologi. 110 00:06:22,131 --> 00:06:25,468 Alasan kami ingin melakukannya adalah karena jika kita tanyai orang, 111 00:06:25,551 --> 00:06:27,804 "Apa yang salah di industri teknologi saat ini?" 112 00:06:28,346 --> 00:06:31,641 Ada banyak keluhan, skandal, 113 00:06:31,724 --> 00:06:33,893 pencurian data, kecanduan teknologi, 114 00:06:33,976 --> 00:06:35,978 berita palsu, polarisasi, 115 00:06:36,062 --> 00:06:37,688 dan beberapa pemilu yang diretas. 116 00:06:38,189 --> 00:06:41,609 Namun, adakah sesuatu di balik semua masalah ini 117 00:06:41,692 --> 00:06:44,654 yang menyebabkan semua ini terjadi sekaligus? 118 00:06:46,447 --> 00:06:48,658 - Itu sudah bagus? - Bagus sekali. Ya. 119 00:06:50,827 --> 00:06:52,954 Aku hanya mencoba... Aku mau orang melihat... 120 00:06:53,037 --> 00:06:55,206 ada masalah yang terjadi di industri teknologi. 121 00:06:55,289 --> 00:07:00,211 Itu tak bernama dan itu terkait dengan satu sumber... 122 00:07:05,091 --> 00:07:06,801 Saat kita melihat sekeliling, 123 00:07:07,218 --> 00:07:09,387 rasanya dunia menjadi gila. 124 00:07:12,765 --> 00:07:15,184 Kita harus menanyai diri, apa ini normal? 125 00:07:16,102 --> 00:07:18,896 Atau kita semua terpengaruh semacam mantra? 126 00:07:22,316 --> 00:07:25,153 MANTAN PAKAR ETIKA DESAIN GOOGLE 127 00:07:25,236 --> 00:07:27,905 PENDIRI BERSAMA CENTER FOR HUMANE TECHNOLOGY 128 00:07:27,989 --> 00:07:30,491 Kuharap lebih banyak orang bisa memahami cara kerjanya 129 00:07:30,575 --> 00:07:34,036 karena ini seharusnya bukan hal yang hanya diketahui industri teknologi. 130 00:07:34,120 --> 00:07:36,289 Itu hal yang seharusnya semua orang tahu. 131 00:07:47,383 --> 00:07:48,301 - Halo! - Hai. 132 00:07:48,759 --> 00:07:50,595 - Tristan. Senang bertemu kau. - Tristan? 133 00:07:50,678 --> 00:07:51,721 - Ya. - Bagus. 134 00:07:53,181 --> 00:07:55,933 Tristan Harris adalah mantan pakar etika desain Google 135 00:07:56,017 --> 00:07:59,353 dan dijuluki sebagai hal paling mirip dengan nurani bagi Silicon Valley. 136 00:07:59,437 --> 00:08:01,189 Dia meminta industri teknologi membawa 137 00:08:01,272 --> 00:08:04,192 hal yang dia sebut "desain etis" pada produknya. 138 00:08:04,275 --> 00:08:06,903 Jarang ada orang dalam teknologi yang sejujur itu, 139 00:08:06,986 --> 00:08:10,281 tapi Tristan Harris percaya seseorang harus melakukannya. 140 00:08:11,324 --> 00:08:12,700 Dulu di Google, 141 00:08:12,783 --> 00:08:16,037 aku ada di tim Gmail dan mulai kelelahan 142 00:08:16,120 --> 00:08:18,581 karena kami begitu sering membahas... 143 00:08:19,457 --> 00:08:23,169 harus seperti apa bentuk kotak masuk dan warnanya. 144 00:08:23,252 --> 00:08:25,880 Aku merasa kecanduan surel 145 00:08:26,297 --> 00:08:27,715 dan kuanggap itu menarik 146 00:08:27,798 --> 00:08:31,511 bahwa tak ada orang di Gmail yang mencoba membuatnya tak begitu adiktif. 147 00:08:31,969 --> 00:08:34,514 Kupikir, "Apa ada lagi yang memikirkan ini? 148 00:08:34,597 --> 00:08:36,390 Belum kudengar ada yang membahas ini." 149 00:08:36,849 --> 00:08:41,229 Aku merasa frustrasi dengan industri teknologi secara umum 150 00:08:41,312 --> 00:08:43,272 karena kita seolah-olah tersesat. 151 00:08:46,984 --> 00:08:49,820 Aku berjuang untuk mencari tahu 152 00:08:49,904 --> 00:08:52,573 cara kami bisa mengubahnya dari dalam. 153 00:08:55,201 --> 00:08:59,497 Saat itulah kuputuskan membuat presentasi, semacam ajakan untuk bergerak. 154 00:09:00,998 --> 00:09:04,961 Setiap hari, aku pulang dan mengerjakannya selama beberapa jam setiap malam. 155 00:09:06,170 --> 00:09:11,884 Pada dasarnya tertulis, belum pernah ada 50 desainer, 156 00:09:12,426 --> 00:09:15,263 dari pria kulit putih berusia 20-35 tahun di California, 157 00:09:15,888 --> 00:09:19,725 membuat keputusan yang akan berdampak pada dua miliar orang. 158 00:09:21,018 --> 00:09:24,438 Dua miliar orang akan mendapat ide yang tak mereka niatkan 159 00:09:24,522 --> 00:09:28,401 karena desainer di Google berkata, "Ini cara notifikasi bekerja 160 00:09:28,484 --> 00:09:30,778 di layar yang kau lihat saat bangun pagi." 161 00:09:30,861 --> 00:09:35,283 Kami punya tanggung jawab moral sebagai Google untuk pecahkan masalah ini. 162 00:09:36,075 --> 00:09:37,743 Aku mengirim presentasi ini 163 00:09:37,827 --> 00:09:41,789 ke 15 hingga 20 rekan terdekatku di Google. 164 00:09:41,872 --> 00:09:44,959 Aku sangat gugup dan tak yakin bagaimana reaksinya. 165 00:09:46,460 --> 00:09:48,045 Saat bekerja keesokan harinya, 166 00:09:48,129 --> 00:09:50,464 mayoritas laptop menampilkan presentasi itu. 167 00:09:50,548 --> 00:09:52,049 PERHATIAN 168 00:09:52,133 --> 00:09:54,552 Kemudian pada hari itu, ada 400 penonton serentak, 169 00:09:54,635 --> 00:09:57,972 jadi, itu terus menyebar. Aku menerima surel dari seisi perusahaan. 170 00:09:58,180 --> 00:10:00,266 Orang-orang di setiap departemen berkata, 171 00:10:00,349 --> 00:10:02,852 "Aku setuju. Kulihat ini memengaruhi anak-anakku 172 00:10:02,935 --> 00:10:06,856 dan orang-orang di sekitarku. Kita harus melakukan sesuatu." 173 00:10:07,481 --> 00:10:10,818 Rasanya seperti aku meluncurkan revolusi atau semacamnya. 174 00:10:11,861 --> 00:10:15,197 Kemudian, aku tahu Larry Page diberi tahu soal presentasi ini 175 00:10:15,281 --> 00:10:17,116 dalam tiga pertemuan terpisah hari itu. 176 00:10:17,950 --> 00:10:20,286 Itu menciptakan semacam momen budaya 177 00:10:20,870 --> 00:10:23,205 yang harus Google anggap serius. 178 00:10:26,000 --> 00:10:26,917 Lalu... 179 00:10:28,461 --> 00:10:29,295 sirna. 180 00:10:34,300 --> 00:10:36,135 Semua orang pada tahun 2006... 181 00:10:37,345 --> 00:10:39,221 termasuk kami di Facebook, 182 00:10:39,305 --> 00:10:43,392 sangat mengagumi Google dan apa yang telah Google bangun, 183 00:10:43,476 --> 00:10:47,396 yaitu sebuah layanan yang sangat berguna, 184 00:10:47,480 --> 00:10:51,442 yang sejauh kami tahu, memberi banyak kebaikan bagi dunia. 185 00:10:51,525 --> 00:10:55,196 Mereka pun membangun mesin penghasil uang paralel. 186 00:10:55,696 --> 00:11:00,034 Kami sangat iri dengan itu. Bagi kami, itu tampak sangat elegan 187 00:11:00,826 --> 00:11:02,161 dan sempurna. 188 00:11:03,037 --> 00:11:05,206 Facebook sudah ada selama dua tahun 189 00:11:05,873 --> 00:11:08,376 dan aku direkrut untuk mencari tahu 190 00:11:08,459 --> 00:11:10,586 model bisnis untuk perusahaan. 191 00:11:10,670 --> 00:11:13,422 Aku Direktur Monetisasi. Intinya adalah, 192 00:11:13,506 --> 00:11:17,051 "Kau yang akan mencari tahu cara hal ini menghasilkan uang." 193 00:11:17,134 --> 00:11:19,804 Ada banyak orang yang melakukan banyak pekerjaan, 194 00:11:19,887 --> 00:11:25,643 tapi aku jelas salah satu orang yang menunjukkan... 195 00:11:26,769 --> 00:11:28,604 kami harus menghasilkan uang... 196 00:11:29,313 --> 00:11:33,651 dan kurasa model pengiklanan ini mungkin cara yang paling elegan. 197 00:11:43,077 --> 00:11:44,453 Video apa yang baru Ibu kirim? 198 00:11:44,537 --> 00:11:47,790 Itu dari gelar wicara, tapi cukup bagus. Pria itu genius. 199 00:11:47,873 --> 00:11:50,668 Dia membahas penghapusan media sosial, yang harus kau lakukan. 200 00:11:50,751 --> 00:11:52,878 Aku mungkin harus mulai memblokir surelnya. 201 00:11:52,962 --> 00:11:56,048 Sungguh, aku tak paham ucapannya. Dia lebih buruk dariku. 202 00:11:56,132 --> 00:11:58,467 - Dia hanya memakainya untuk resep. - Juga bekerja. 203 00:11:58,551 --> 00:12:00,636 - Serta video olahraga. - Juga tahu kabar kita. 204 00:12:00,720 --> 00:12:03,305 Serta kabar semua orang yang pernah dia temui di hidupnya. 205 00:12:04,932 --> 00:12:07,893 Jika Anda memeriksa umpan berita media sosial 206 00:12:07,977 --> 00:12:11,731 sambil menonton kami, Anda harus taruh ponselnya dan dengarkan 207 00:12:11,814 --> 00:12:14,817 karena tamu kita berikutnya telah menulis buku yang luar biasa 208 00:12:14,900 --> 00:12:18,112 soal betapa itu menghancurkan hidup kita. 209 00:12:18,195 --> 00:12:19,447 Tolong sambut penulis 210 00:12:19,530 --> 00:12:24,452 Ten Arguments For Deleting Your Social Media Accounts Right Now, 211 00:12:24,535 --> 00:12:25,786 Jaron Lanier. 212 00:12:26,287 --> 00:12:27,288 Itu benar. 213 00:12:27,997 --> 00:12:31,834 Perusahaan seperti Google dan Facebook adalah yang terkaya 214 00:12:31,917 --> 00:12:33,627 dan tersukses sepanjang masa. 215 00:12:34,295 --> 00:12:36,839 Mereka punya pegawai yang relatif sedikit. 216 00:12:36,922 --> 00:12:40,760 Mereka punya komputer raksasa yang mudah menghasilkan uang, bukan? 217 00:12:41,510 --> 00:12:45,222 Untuk apa mereka dibayar? Itu pertanyaan yang sangat penting. 218 00:12:47,308 --> 00:12:50,186 Aku sudah menjadi investor di bidang teknologi selama 35 tahun. 219 00:12:51,020 --> 00:12:54,356 Pada 50 tahun pertama Silicon Valley, industri ini membuat produk, 220 00:12:54,440 --> 00:12:56,525 perangkat keras dan lunak, dijual ke pelanggan. 221 00:12:56,609 --> 00:12:58,402 Itu bisnis yang sederhana. 222 00:12:58,486 --> 00:13:01,530 Selama sepuluh tahun terakhir, perusahaan terbesar di Silicon Valley 223 00:13:01,614 --> 00:13:03,866 berbisnis dengan menjual penggunanya. 224 00:13:03,949 --> 00:13:05,910 Bahkan kini agak basi untuk mengatakannya, 225 00:13:05,993 --> 00:13:09,205 tapi karena kita tak membayar produk yang kita gunakan, 226 00:13:09,288 --> 00:13:12,166 pengiklan membayar produk yang kita gunakan. 227 00:13:12,249 --> 00:13:14,084 Pengiklan adalah pelanggannya. 228 00:13:14,710 --> 00:13:16,086 Kitalah yang dijual. 229 00:13:16,170 --> 00:13:17,630 Pepatah klasiknya adalah, 230 00:13:17,713 --> 00:13:21,592 "Jika kau tak membayar produknya, berarti kaulah produknya." 231 00:13:21,675 --> 00:13:23,302 KAULAH PRODUKNYA 232 00:13:23,385 --> 00:13:27,139 Banyak orang berpikir, "Google hanyalah kotak pencarian 233 00:13:27,223 --> 00:13:29,850 dan Facebook hanya tempat untuk melihat kabar teman-temanku 234 00:13:29,934 --> 00:13:31,101 dan melihat foto mereka." 235 00:13:31,185 --> 00:13:35,481 Namun, mereka tak sadar mereka bersaing memikat perhatianmu. 236 00:13:36,524 --> 00:13:41,111 Jadi, Facebook, Snapchat, Twitter, Instagram, YouTube, 237 00:13:41,195 --> 00:13:45,491 model bisnis perusahaan seperti ini adalah membuat orang terpaku di layar. 238 00:13:46,283 --> 00:13:49,578 Mari kita cari tahu cara mendapatkan perhatian orang ini 239 00:13:49,662 --> 00:13:50,955 sebanyak mungkin. 240 00:13:51,455 --> 00:13:53,541 Kami bisa membuatmu habiskan waktu selama apa? 241 00:13:53,916 --> 00:13:56,794 Kami bisa membuatmu memberi hidupmu sebanyak apa kepada kami? 242 00:13:58,671 --> 00:14:01,090 Saat memikirkan cara kerja beberapa perusahaan ini, 243 00:14:01,173 --> 00:14:02,508 itu mulai menjadi masuk akal. 244 00:14:03,050 --> 00:14:06,095 Ada banyak layanan di internet yang kita anggap gratis. 245 00:14:06,178 --> 00:14:09,473 Namun, itu tak gratis. Semua itu dibayar oleh pengiklan. 246 00:14:09,557 --> 00:14:11,559 Kenapa pengiklan membayar perusahaan itu? 247 00:14:11,642 --> 00:14:14,687 Mereka membayar untuk menampilkan iklan kepada kita. 248 00:14:14,770 --> 00:14:15,729 Kitalah produknya. 249 00:14:15,813 --> 00:14:18,357 Perhatian kita adalah produk yang dijual ke pengiklan. 250 00:14:18,816 --> 00:14:20,442 Itu agak terlalu sederhana. 251 00:14:20,818 --> 00:14:23,654 Perubahan perlahan, kecil, dan tak terlihat 252 00:14:23,737 --> 00:14:26,073 dalam perilaku dan persepsi kita, itulah produknya. 253 00:14:26,156 --> 00:14:27,575 PERUBAHAN PERILAKU DAN PERSEPSI 254 00:14:27,658 --> 00:14:30,244 Itulah produknya. Hanya itu produk yang mungkin. 255 00:14:30,327 --> 00:14:34,081 Tak ada kemungkinan lain yang bisa disebut produk. 256 00:14:34,164 --> 00:14:37,251 Hanya itu sumber uang mereka. 257 00:14:37,668 --> 00:14:39,253 Mengubah perilaku, 258 00:14:39,336 --> 00:14:41,714 cara berpikir, dan jati diri kita. 259 00:14:42,631 --> 00:14:45,301 Perubahannya perlahan dan kecil. 260 00:14:45,384 --> 00:14:48,971 Jika bisa datangi seseorang dan berkata, "Beri aku sepuluh juta dolar 261 00:14:49,054 --> 00:14:54,310 dan akan kuubah dunia satu persen ke arah yang kau mau..." 262 00:14:54,894 --> 00:14:58,188 Itu dunia! Itu bisa luar biasa dan harganya mahal. 263 00:14:59,315 --> 00:15:00,149 Baiklah. 264 00:15:00,691 --> 00:15:04,570 Inilah yang selalu diimpikan semua bisnis, 265 00:15:04,653 --> 00:15:10,910 untuk memiliki jaminan keberhasilan saat iklannya dipasang. 266 00:15:11,285 --> 00:15:12,786 Itulah bisnis mereka. 267 00:15:12,995 --> 00:15:14,788 Mereka menjual kepastian. 268 00:15:14,997 --> 00:15:17,625 Agar sukses dalam bisnis itu, 269 00:15:17,708 --> 00:15:19,752 kita harus punya prediksi bagus. 270 00:15:20,044 --> 00:15:24,173 Prediksi besar dimulai dengan satu hal penting. 271 00:15:25,215 --> 00:15:26,926 Kita butuh banyak data. 272 00:15:27,009 --> 00:15:29,011 KITA BUTUH BANYAK DATA 273 00:15:29,136 --> 00:15:31,555 Banyak orang menyebut ini kapitalisme pengawasan. 274 00:15:31,639 --> 00:15:34,350 Kapitalisme yang mengambil untung dari jejak tak terbatas 275 00:15:34,433 --> 00:15:38,062 dari semua tempat yang semua orang datangi oleh perusahaan teknologi besar 276 00:15:38,145 --> 00:15:40,397 yang model bisnisnya adalah memastikan 277 00:15:40,481 --> 00:15:42,858 pengiklan bisa sesukses mungkin. 278 00:15:43,150 --> 00:15:45,569 Inilah jenis lokapasar baru saat ini. 279 00:15:45,653 --> 00:15:48,072 Ini lokapasar yang belum pernah ada. 280 00:15:48,822 --> 00:15:55,371 Ini lokapasar yang hanya memperdagangkan prediksi nilai saham manusia. 281 00:15:56,330 --> 00:15:58,499 Seperti pasar yang memperdagangkan 282 00:15:58,582 --> 00:16:01,585 prediksi nilai saham perut babi atau minyak. 283 00:16:02,127 --> 00:16:04,713 Kini kita punya pasar yang memperdagangkan 284 00:16:04,797 --> 00:16:07,591 prediksi nilai saham manusia dalam skala besar 285 00:16:08,175 --> 00:16:13,472 dan pasar itu telah menghasilkan triliunan dolar 286 00:16:14,014 --> 00:16:19,269 yang menjadikan perusahaan internet sebagai perusahaan terkaya 287 00:16:19,353 --> 00:16:22,564 dalam sejarah kemanusiaan. 288 00:16:27,444 --> 00:16:31,073 Aku ingin orang tahu semua yang mereka lakukan di internet 289 00:16:31,156 --> 00:16:34,326 diawasi, dilacak, dan diukur. 290 00:16:35,035 --> 00:16:39,623 Setiap tindakan yang kita lakukan dipantau dan direkam dengan hati-hati. 291 00:16:39,707 --> 00:16:43,836 Misalnya, gambar yang kita lihat dan berapa lama kita melihatnya. 292 00:16:43,919 --> 00:16:45,796 Ya, sungguh, berapa lama kau melihatnya. 293 00:16:45,879 --> 00:16:47,548 NAVIYA_R WAKTU KETERLIBATAN 294 00:16:47,631 --> 00:16:49,216 RYAN_M WAKTU KETERLIBATAN 295 00:16:49,299 --> 00:16:50,426 WREN_F WAKTU KETERLIBATAN 296 00:16:50,509 --> 00:16:53,804 Mereka tahu saat orang kesepian, depresi, 297 00:16:53,887 --> 00:16:57,099 dan tahu saat orang melihat foto mantan pasanganmu. 298 00:16:57,182 --> 00:17:00,853 Mereka tahu yang kau lakukan saat larut malam. Mereka tahu semuanya. 299 00:17:01,228 --> 00:17:03,230 Entah kau introver, ekstrover, 300 00:17:03,313 --> 00:17:06,942 jenis neurosis yang kau punya, atau seperti apa kepribadianmu. 301 00:17:08,193 --> 00:17:11,613 Mereka punya lebih banyak informasi soal kita 302 00:17:11,697 --> 00:17:14,324 daripada yang pernah dibayangkan dalam sejarah manusia. 303 00:17:14,950 --> 00:17:16,452 Ini belum pernah terjadi. 304 00:17:18,579 --> 00:17:22,791 Jadi, semua data yang kita berikan setiap saat 305 00:17:22,875 --> 00:17:26,754 dimasukkan ke sistem yang nyaris tak diawasi manusia, 306 00:17:27,463 --> 00:17:30,883 yang terus membuat prediksi yang makin membaik 307 00:17:30,966 --> 00:17:33,552 tentang apa yang akan kita lakukan dan siapa kita. 308 00:17:34,887 --> 00:17:36,346 DIREKOMENDASIKAN UNTUKMU 309 00:17:36,430 --> 00:17:39,683 Banyak orang salah memahami bahwa data kita yang dijual. 310 00:17:40,350 --> 00:17:43,187 Memberi data secara gratis bukanlah minat bisnis Facebook. 311 00:17:45,522 --> 00:17:47,107 Mereka apakan data itu? 312 00:17:51,070 --> 00:17:54,490 Mereka membuat model yang memprediksi tindakan kita. 313 00:17:54,573 --> 00:17:57,618 Siapa pun yang punya model terbaik akan menang. 314 00:18:02,706 --> 00:18:04,041 Kecepatan gulungnya melambat. 315 00:18:04,124 --> 00:18:06,919 Mendekati akhir rata-rata durasi sesinya, mengurangi iklan. 316 00:18:07,002 --> 00:18:08,337 Tampilkan teman dan keluarga. 317 00:18:09,671 --> 00:18:11,340 Di sisi lain layar, 318 00:18:11,423 --> 00:18:15,469 mereka seperti punya model boneka voodoo yang menyerupai kita. 319 00:18:16,762 --> 00:18:18,180 Semua yang pernah kita lakukan, 320 00:18:18,263 --> 00:18:19,473 semua klik yang kita buat, 321 00:18:19,556 --> 00:18:21,683 semua video yang kita tonton, semua tombol suka. 322 00:18:21,767 --> 00:18:25,354 Semua itu diolah untuk membangun model yang lebih akurat. 323 00:18:25,896 --> 00:18:27,481 Setelah modelnya ada, 324 00:18:27,564 --> 00:18:29,858 kita bisa memprediksi hal-hal yang dilakukan orang. 325 00:18:30,150 --> 00:18:31,944 Baiklah, coba aku tes. 326 00:18:32,569 --> 00:18:34,404 Ke mana kau akan pergi, bisa kuprediksi 327 00:18:34,488 --> 00:18:36,198 video apa yang akan terus kau tonton. 328 00:18:36,281 --> 00:18:39,159 Aku bisa memprediksi emosi macam apa yang memicumu. 329 00:18:39,243 --> 00:18:40,410 Ya, sempurna. 330 00:18:41,578 --> 00:18:43,372 Kegagalan terhebat tahun ini. 331 00:18:43,747 --> 00:18:44,665 KEGAGALAN HEBAT! 332 00:18:48,627 --> 00:18:51,088 - Sempurna, itu berhasil. - Disusul video lain. 333 00:18:51,171 --> 00:18:54,049 Bagus. Mari selipkan iklan sepatu sebelum videonya diputar. 334 00:18:56,426 --> 00:18:59,721 Ada tiga tujuan utama di banyak perusahaan teknologi ini. 335 00:18:59,805 --> 00:19:03,517 Ada tujuan keterlibatan untuk menaikkan penggunaanmu, agar terus gulirkan layar. 336 00:19:04,601 --> 00:19:06,145 Ada tujuan pertumbuhan 337 00:19:06,228 --> 00:19:08,689 untuk membuatmu kembali, mengundang banyak teman, 338 00:19:08,772 --> 00:19:10,816 dan agar mereka mengundang lebih banyak teman. 339 00:19:11,650 --> 00:19:14,987 Lalu ada tujuan iklan untuk memastikan bahwa seiring semua itu terjadi, 340 00:19:15,070 --> 00:19:17,406 kami menghasilkan uang sebanyak mungkin dari iklan. 341 00:19:19,366 --> 00:19:21,952 Masing-masing tujuan ini ditenagai oleh algoritme 342 00:19:22,035 --> 00:19:24,454 yang bertugas mencari tahu apa yang harus ditunjukkan 343 00:19:24,538 --> 00:19:26,165 agar jumlahnya terus naik. 344 00:19:26,623 --> 00:19:29,918 Di Facebook, kami sering membahas ide 345 00:19:30,002 --> 00:19:34,006 untuk bisa mengaturnya sesuai kebutuhan. 346 00:19:34,673 --> 00:19:38,594 Kami membahas soal meminta Mark mengaturnya. 347 00:19:41,305 --> 00:19:44,600 "Hei, aku ingin lebih banyak pengguna di Korea hari ini." 348 00:19:45,684 --> 00:19:46,768 Putar pengaturnya. 349 00:19:47,436 --> 00:19:49,271 "Mari tambah iklannya sedikit." 350 00:19:49,980 --> 00:19:51,815 "Tambah monetisasinya sedikit." 351 00:19:53,150 --> 00:19:55,444 Jadi, itu... 352 00:19:55,527 --> 00:19:59,239 Di semua perusahaan ini, ada tingkat presisi sebesar itu. 353 00:19:59,990 --> 00:20:02,409 - Bung... - Entah kenapa aku tak diberi kartu. 354 00:20:02,492 --> 00:20:05,704 - Wasit itu payah. - Kau benar-benar... 355 00:20:05,787 --> 00:20:08,040 - Itu Rebecca. Bicaralah. - Aku tahu siapa dia. 356 00:20:08,123 --> 00:20:10,834 - Kau saja yang bicara. - Sedang kuusahakan. 357 00:20:10,918 --> 00:20:14,171 Menurut kalendernya, dia sedang istirahat. Seharusnya kita sudah mulai. 358 00:20:15,464 --> 00:20:16,465 Mau kudorong dia? 359 00:20:17,132 --> 00:20:18,050 Lakukanlah. 360 00:20:21,720 --> 00:20:24,181 "Temanmu, Tyler, baru bergabung. Beri lambaian." 361 00:20:26,016 --> 00:20:27,184 Ayolah. 362 00:20:27,267 --> 00:20:28,769 Kirimkan lambaian tangan. 363 00:20:29,394 --> 00:20:31,647 Kau bahkan tidak... Hei, bicaralah dengannya. 364 00:20:31,730 --> 00:20:34,900 TEMANMU, TYLER, BARU BERGABUNG! BERI LAMBAIAN! 365 00:20:36,902 --> 00:20:37,986 KONEKSI JARINGAN 366 00:20:38,070 --> 00:20:40,572 Koneksi baru! Baiklah, kita masuk. 367 00:20:40,948 --> 00:20:46,078 Lanjutkan dengan pos dari pengguna 079044238820, Rebecca. 368 00:20:46,161 --> 00:20:49,790 Ide bagus. Koordinat GPS menunjukkan jarak mereka berdekatan. 369 00:20:52,167 --> 00:20:55,837 REBECCA_G KUTEMUKAN BELAHAN JIWAKU! 370 00:20:55,921 --> 00:20:57,172 Dia siap untuk iklan. 371 00:20:57,631 --> 00:20:58,632 Waktu lelang. 372 00:20:58,715 --> 00:21:00,050 PRATINJAU IKLAN 373 00:21:00,509 --> 00:21:02,803 Terjual! Untuk lilin rambut Deep Fade. 374 00:21:03,387 --> 00:21:04,846 Ada 468 penawar yang berminat. 375 00:21:04,930 --> 00:21:08,225 Kita menjual Ben seharga 3,262 sen untuk satu impresi. 376 00:21:17,109 --> 00:21:21,530 Kita telah menciptakan dunia tempat koneksi daring menjadi hal utama, 377 00:21:22,072 --> 00:21:23,907 khususnya bagi generasi muda. 378 00:21:23,991 --> 00:21:28,328 Namun, di dunia itu, setiap dua orang terhubung, 379 00:21:29,162 --> 00:21:33,250 itu hanya bisa didanai oleh orang ketiga yang licik 380 00:21:33,333 --> 00:21:35,627 yang membayar untuk memanipulasi dua orang itu. 381 00:21:36,128 --> 00:21:39,381 Jadi, kita menciptakan seluruh generasi global 382 00:21:39,464 --> 00:21:44,011 yang dibesarkan dalam konteks bahwa makna sebenarnya dari komunikasi 383 00:21:44,094 --> 00:21:47,431 dan budaya adalah manipulasi. 384 00:21:47,514 --> 00:21:49,725 Kita telah menempatkan penipuan dan kelicikan 385 00:21:49,808 --> 00:21:52,311 di tengah-tengah dari semua usaha kita. 386 00:21:56,732 --> 00:22:01,153 "SEMUA TEKNOLOGI YANG CANGGIH 387 00:22:01,236 --> 00:22:05,657 TIDAKLAH BERBEDA DARI SULAP." ARTHUR C. CLARKE 388 00:22:05,741 --> 00:22:07,159 - Pegang sisi lainnya... - Baik. 389 00:22:07,242 --> 00:22:09,369 - Di mana tempat menaruh yang baik? - Itu bagus. 390 00:22:09,453 --> 00:22:10,620 - Di sini? - Ya. 391 00:22:10,704 --> 00:22:13,707 Seperti apa ini tampil di kamera jika kulakukan... 392 00:22:13,790 --> 00:22:15,500 - Sebenarnya, kami... - Seperti itu? 393 00:22:15,584 --> 00:22:16,835 - Apa? - Ya. 394 00:22:16,918 --> 00:22:18,545 - Bisa lakukan lagi? - Baik. 395 00:22:19,046 --> 00:22:20,589 Ya. Itu mungkin tidak... 396 00:22:20,672 --> 00:22:21,965 Ya. 397 00:22:22,466 --> 00:22:23,884 Yang satu ini kurang... 398 00:22:31,016 --> 00:22:33,268 Chris benar-benar kebingungan di sini. 399 00:22:34,728 --> 00:22:35,562 Apa itu bagus? 400 00:22:35,645 --> 00:22:37,773 SULAP! 401 00:22:37,856 --> 00:22:41,068 Usiaku lima tahun saat belajar sulap. 402 00:22:41,151 --> 00:22:45,781 Aku bisa membodohi para orang dewasa yang bergelar doktor. 403 00:22:55,040 --> 00:22:58,919 Pesulap itu hampir seperti ahli saraf dan psikolog pertama. 404 00:22:59,002 --> 00:23:03,382 Mereka yang pertama memahami cara kerja pikiran orang. 405 00:23:04,216 --> 00:23:07,677 Mereka secara langsung menguji banyak hal pada orang-orang. 406 00:23:09,137 --> 00:23:11,139 Seorang pesulap memahami sesuatu, 407 00:23:11,223 --> 00:23:14,017 sebagian dari pikiranmu yang tak kita sadari. 408 00:23:14,101 --> 00:23:15,936 Itulah yang membuat ilusi berhasil. 409 00:23:16,269 --> 00:23:17,687 Dokter, pengacara, 410 00:23:17,771 --> 00:23:20,607 orang yang tahu cara membuat Boeing 747 atau misil nuklir, 411 00:23:20,690 --> 00:23:24,361 mereka tak lebih tahu soal betapa rentannya pikiran mereka. 412 00:23:24,444 --> 00:23:26,154 Itu bidang ilmu yang berbeda. 413 00:23:26,571 --> 00:23:28,990 Itulah bidang ilmu yang berlaku untuk semua manusia. 414 00:23:29,074 --> 00:23:30,909 UNIVERSITAS STANFORD 415 00:23:30,992 --> 00:23:34,079 Dari sudut pandang itu, kita bisa memiliki pemahaman sangat berbeda 416 00:23:34,162 --> 00:23:35,705 soal hal yang teknologi lakukan. 417 00:23:36,873 --> 00:23:39,584 Saat belajar di Lab Teknologi Persuasif Stanford, 418 00:23:39,668 --> 00:23:41,044 inilah yang kami pelajari. 419 00:23:41,586 --> 00:23:43,505 Bagaimana memanfaatkan semua yang kita tahu 420 00:23:43,588 --> 00:23:45,882 tentang psikologi dari cara membujuk orang 421 00:23:45,966 --> 00:23:48,385 dan menjadikannya teknologi? 422 00:23:48,468 --> 00:23:50,762 Banyak dari kalian yang hadir yang sudah genius. 423 00:23:50,846 --> 00:23:53,682 Kurasa itu benar, tapi tujuanku adalah menjadikan kalian 424 00:23:53,765 --> 00:23:55,892 genius dalam perubahan perilaku. 425 00:23:56,852 --> 00:24:01,148 Ada banyak tokoh ternama di Silicon Valley yang mengikuti kelas itu, 426 00:24:01,231 --> 00:24:05,485 tokoh kunci pertumbuhan di Facebook, Uber, juga perusahaan lain, 427 00:24:05,569 --> 00:24:09,197 dan belajar membuat teknologi lebih persuasif, 428 00:24:09,614 --> 00:24:10,949 Tristan salah satunya. 429 00:24:12,242 --> 00:24:14,619 Teknologi persuasif itu semacam desain 430 00:24:14,703 --> 00:24:16,580 yang sengaja diterapkan secara ekstrem, 431 00:24:16,663 --> 00:24:18,874 agar kami bisa mengubah perilaku seseorang. 432 00:24:18,957 --> 00:24:20,542 Kami ingin mereka melakukan sesuatu 433 00:24:20,625 --> 00:24:23,336 dan terus melakukan ini dengan jari mereka. 434 00:24:23,420 --> 00:24:26,256 Jika tarik layar dan segarkan, akan muncul hal baru di atas. 435 00:24:26,339 --> 00:24:28,508 Tarik dan segarkan lagi, hal baru. Setiap kali. 436 00:24:28,592 --> 00:24:33,722 Dalam psikologi, itu disebut penguat intermiten positif. 437 00:24:33,805 --> 00:24:37,142 Kita tak tahu kapan atau apakah kita akan mendapatkannya. 438 00:24:37,225 --> 00:24:40,061 Itu bekerja seperti mesin slot di Vegas. 439 00:24:40,145 --> 00:24:42,189 Bukan hanya memakai produknya secara sadar, 440 00:24:42,272 --> 00:24:44,024 tapi aku mau masuk jauh ke batang otak 441 00:24:44,107 --> 00:24:47,652 dan menanamkan kebiasaan secara tak sadar di dalam dirimu 442 00:24:47,736 --> 00:24:50,780 agar kau diprogram secara lebih mendalam. 443 00:24:50,864 --> 00:24:52,115 Kau bahkan tak sadar. 444 00:24:52,407 --> 00:24:53,867 Pria bernama James Marshall... 445 00:24:53,950 --> 00:24:56,286 Setiap itu tampak di atas meja, 446 00:24:56,369 --> 00:24:59,789 kau melihatnya dan tahu jika kau mengambilnya, 447 00:24:59,873 --> 00:25:01,333 mungkin ada sesuatu untukmu. 448 00:25:01,416 --> 00:25:03,877 Jadi, kau memainkannya untuk melihat kau dapat apa. 449 00:25:04,211 --> 00:25:06,046 Itu bukan kebetulan, tapi teknik desain. 450 00:25:06,129 --> 00:25:11,134 Dia membawa bungkal emas ke perwira AD di San Francisco. 451 00:25:12,219 --> 00:25:15,388 Ingatlah, populasi San Francisco hanya... 452 00:25:15,472 --> 00:25:17,432 Contoh lainnya adalah penandaan foto. 453 00:25:19,726 --> 00:25:24,064 Jadi, jika menerima surel yang menyebutkan temanmu baru saja menandaimu di foto, 454 00:25:24,147 --> 00:25:28,568 tentu kau akan membuka surel itu dan melihat fotonya. 455 00:25:29,152 --> 00:25:31,947 Itu bukan hal yang bisa kau abaikan begitu saja. 456 00:25:32,364 --> 00:25:36,326 Ini adalah kepribadian mendalam manusia yang mereka manfaatkan. 457 00:25:36,409 --> 00:25:37,994 Yang harus kau tanyakan adalah, 458 00:25:38,078 --> 00:25:40,288 "Kenapa surel itu tak berisi fotonya? 459 00:25:40,372 --> 00:25:42,457 Maka akan lebih mudah melihat fotonya." 460 00:25:42,707 --> 00:25:45,919 Saat Facebook menemukan fitur itu, mereka memaksimalkannya 461 00:25:46,002 --> 00:25:48,505 karena itu dianggap bagus untuk menumbuhkan aktivitas. 462 00:25:48,588 --> 00:25:51,091 Mari buat orang saling menandai foto sepanjang hari." 463 00:25:56,263 --> 00:25:58,890 SETIDAKNYA SALAH SATU DARI KITA TAMPAK BAGUS 464 00:25:59,349 --> 00:26:00,475 Dia berkomentar. 465 00:26:00,559 --> 00:26:01,434 Bagus. 466 00:26:01,935 --> 00:26:04,688 Rebecca menerimanya dan dia merespons. 467 00:26:04,771 --> 00:26:07,566 Beri tahu Ben Rebecca mengetik agar kita tak kehilangan dia. 468 00:26:07,649 --> 00:26:08,900 Mengaktifkan elipsis. 469 00:26:09,234 --> 00:26:13,613 SETIDAKNYA SALAH SATU DARI KITA TAMPAK BAGUS 470 00:26:19,411 --> 00:26:20,787 Bagus, dia menjawab. 471 00:26:21,538 --> 00:26:24,249 Dia mengomentari komentarnya soal komentarnya di posnya. 472 00:26:25,041 --> 00:26:26,418 Tunggu, dia berhenti mengetik. 473 00:26:26,751 --> 00:26:27,752 Beri isi otomatis. 474 00:26:28,420 --> 00:26:30,005 Emoji. Dia suka emoji. 475 00:26:31,381 --> 00:26:33,758 ISI OTOMATIS KETERLIBATAN 476 00:26:33,842 --> 00:26:34,676 Dia memilih api. 477 00:26:35,427 --> 00:26:36,803 Tadi kuharap terung. 478 00:26:38,597 --> 00:26:42,726 Ada disiplin dan bidang ilmu yang disebut "peretasan pertumbuhan". 479 00:26:42,809 --> 00:26:47,147 Tim teknisi yang bertugas meretas psikologi orang 480 00:26:47,230 --> 00:26:48,565 agar dapat pertumbuhan lebih. 481 00:26:48,648 --> 00:26:51,026 Mendapat pendaftaran pengguna dan keterlibatan lebih, 482 00:26:51,109 --> 00:26:52,861 juga membuat kita mengajak orang lagi. 483 00:26:52,944 --> 00:26:55,989 Setelah semua tes, iterasi, dan semua ini, 484 00:26:56,072 --> 00:26:57,907 tahu hal terbesar yang kami sadari? 485 00:26:57,991 --> 00:27:00,994 Buat orang ajak tujuh teman dalam sepuluh hari. 486 00:27:01,953 --> 00:27:02,871 Itu saja. 487 00:27:02,954 --> 00:27:05,498 Dulu Chamath adalah kepala pertumbuhan Facebook 488 00:27:05,582 --> 00:27:08,251 dan dia sangat terkenal di industri teknologi 489 00:27:08,335 --> 00:27:11,004 karena memelopori banyak taktik pertumbuhan 490 00:27:11,087 --> 00:27:14,758 yang digunakan untuk menumbuhkan Facebook dengan sangat cepat. 491 00:27:14,841 --> 00:27:18,511 Taktik pertumbuhan itu lalu menjadi standar untuk Silicon Valley. 492 00:27:18,595 --> 00:27:21,222 Itu digunakan di Uber dan beberapa perusahaan lain. 493 00:27:21,306 --> 00:27:27,062 Salah satu yang dia pelopori adalah penggunaan uji A/B ilmiah 494 00:27:27,145 --> 00:27:28,480 dari perubahan fitur kecil. 495 00:27:29,022 --> 00:27:30,940 Perusahaan seperti Google dan Facebook 496 00:27:31,024 --> 00:27:34,569 akan mengeluarkan banyak eksperimen kecil 497 00:27:34,653 --> 00:27:36,821 yang terus mereka lakukan pada pengguna. 498 00:27:36,905 --> 00:27:39,866 Seiring waktu, dengan terus menjalankan eksperimen ini, 499 00:27:39,949 --> 00:27:42,994 mereka mengembangkan cara paling maksimal 500 00:27:43,078 --> 00:27:45,288 untuk membuat pengguna melakukan yang mereka mau. 501 00:27:45,372 --> 00:27:46,790 Itu manipulasi. 502 00:27:47,332 --> 00:27:49,417 Kau membuatku merasa seperti kelinci percobaan. 503 00:27:49,834 --> 00:27:51,961 Kau memang kelinci percobaan. Kita semua begitu. 504 00:27:52,545 --> 00:27:55,548 Namun, bukan kelinci percobaan untuk mengembangkan obat kanker. 505 00:27:55,632 --> 00:27:58,134 Mereka bukan mencoba memperalat kita. 506 00:27:58,218 --> 00:28:01,513 Kita hanya zombi dan mereka ingin kita melihat lebih banyak iklan 507 00:28:01,596 --> 00:28:03,264 agar mereka dapat lebih banyak uang. 508 00:28:03,556 --> 00:28:08,228 Facebook melakukan hal yang mereka sebut "eksperimen penularan skala besar". 509 00:28:08,311 --> 00:28:09,145 Baiklah. 510 00:28:09,229 --> 00:28:12,857 Bagaimana gunakan petunjuk bawah sadar di halaman Facebook 511 00:28:13,400 --> 00:28:17,570 agar lebih banyak orang memilih di pemilu paruh waktu? 512 00:28:17,987 --> 00:28:20,824 Mereka mendapati mereka mampu melakukan itu. 513 00:28:20,907 --> 00:28:24,160 Satu hal yang mereka simpulkan adalah kini kita tahu 514 00:28:24,744 --> 00:28:28,915 kita bisa memengaruhi perilaku dan emosi dunia nyata 515 00:28:28,998 --> 00:28:32,877 tanpa memicu kesadaran pengguna. 516 00:28:33,503 --> 00:28:37,382 Mereka sama sekali tak tahu. 517 00:28:38,049 --> 00:28:40,427 Kita mengarahkan mesin inteligensi artifisial ini 518 00:28:40,510 --> 00:28:41,970 pada diri kita 519 00:28:42,053 --> 00:28:46,224 untuk merekayasa balik pemicu respons kita. 520 00:28:47,100 --> 00:28:49,602 Hampir seperti menstimulasi sel saraf laba-laba 521 00:28:49,686 --> 00:28:51,479 untuk melihat pemicu respons kakinya. 522 00:28:51,938 --> 00:28:53,940 Ini sungguh semacam eksperimen penjara 523 00:28:54,023 --> 00:28:56,735 tempat kita memaksa orang memasuki matriks 524 00:28:56,818 --> 00:29:00,530 lalu kita mengambil semua uang dan data dari semua aktivitas mereka 525 00:29:00,613 --> 00:29:01,489 sebagai keuntungan. 526 00:29:01,573 --> 00:29:03,450 Kita bahkan tak tahu itu sedang terjadi. 527 00:29:04,117 --> 00:29:07,912 Kami ingin secara psikologis tahu cara memanipulasimu secepat mungkin 528 00:29:07,996 --> 00:29:10,081 lalu membalasnya dengan stimulasi dopamin. 529 00:29:10,165 --> 00:29:12,542 Kami melakukannya dengan sangat baik di Facebook. 530 00:29:12,625 --> 00:29:14,919 Instagram dan WhatsApp melakukannya. 531 00:29:15,003 --> 00:29:17,380 Snapchat dan Twitter melakukannya. 532 00:29:17,672 --> 00:29:19,424 Maksudku, itu persis ide 533 00:29:19,507 --> 00:29:22,427 yang akan dicetuskan oleh peretas sepertiku 534 00:29:22,510 --> 00:29:27,432 karena kita mengeksploitasi kelemahan dalam psikologi manusia. 535 00:29:27,766 --> 00:29:33,438 Kupikir kami, para penemu dan pencipta... 536 00:29:33,980 --> 00:29:37,317 Aku, Mark dan... 537 00:29:37,400 --> 00:29:40,403 Kevin Systrom di Instagram, semua orang ini... 538 00:29:41,154 --> 00:29:46,451 memahami ini secara sadar dan kami tetap melakukannya. 539 00:29:50,580 --> 00:29:53,750 Tak ada yang marah saat sepeda ditemukan. 540 00:29:55,043 --> 00:29:58,004 Benar, bukan? Jika semua orang mulai mengendarai sepeda, 541 00:29:58,087 --> 00:30:00,965 tak ada yang bilang, "Astaga, kita baru merusak masyarakat. 542 00:30:01,049 --> 00:30:03,051 Sepeda memengaruhi orang, 543 00:30:03,134 --> 00:30:05,303 menjauhkan mereka dari anak-anak mereka, 544 00:30:05,386 --> 00:30:08,723 merusak struktur demokrasi, orang tak tahu mana yang benar." 545 00:30:08,807 --> 00:30:11,476 Kita tak pernah berkata begitu soal sepeda. 546 00:30:12,769 --> 00:30:16,147 Jika sesuatu adalah alat, ia hanya duduk diam di sana, 547 00:30:16,731 --> 00:30:18,733 menunggu dengan sabar. 548 00:30:19,317 --> 00:30:22,821 Jika sesuatu bukan alat, ia menuntut sesuatu darimu, 549 00:30:22,904 --> 00:30:26,533 merayu, memanipulasi, dan menginginkan sesuatu darimu. 550 00:30:26,950 --> 00:30:30,495 Kita beralih dari memiliki lingkungan teknologi berbasis alat 551 00:30:31,037 --> 00:30:34,499 ke lingkungan teknologi berbasis kecanduan dan manipulasi. 552 00:30:34,582 --> 00:30:35,708 Itu yang berubah. 553 00:30:35,792 --> 00:30:39,420 Media sosial bukan alat yang menunggu untuk digunakan. 554 00:30:39,504 --> 00:30:43,466 Ia punya tujuan dan cara sendiri untuk memperolehnya 555 00:30:43,550 --> 00:30:45,677 menggunakan psikologimu melawan dirimu. 556 00:30:49,055 --> 00:30:52,517 "HANYA ADA DUA INDUSTRI YANG MENYEBUT PELANGGAN MEREKA 'PENGGUNA', 557 00:30:52,600 --> 00:30:57,480 NARKOBA DAN PERANTI LUNAK." EDWARD TUFTE 558 00:30:57,564 --> 00:31:02,193 Beberapa tahun lalu, aku adalah Presiden Pinterest. 559 00:31:03,152 --> 00:31:08,366 Aku pulang dan tak bisa menjauhi ponselku begitu tiba di rumah, 560 00:31:08,449 --> 00:31:12,161 meski aku punya dua anak kecil yang butuh cinta dan perhatianku. 561 00:31:12,245 --> 00:31:15,748 Aku ada di dapur, mengetik surel 562 00:31:15,832 --> 00:31:17,625 atau kadang melihat Pinterest. 563 00:31:18,001 --> 00:31:19,627 Kupikir, "Ini sungguh ironis. 564 00:31:19,711 --> 00:31:22,046 Aku akan bekerja di siang hari 565 00:31:22,130 --> 00:31:26,426 dan membangun sesuatu yang kemudian memanipulasiku." 566 00:31:26,509 --> 00:31:30,096 Aku tak bisa... Maksudku, terkadang, aku tak bisa menahan diri. 567 00:31:32,307 --> 00:31:36,102 Yang cenderung paling kugunakan adalah Twitter. 568 00:31:36,728 --> 00:31:38,021 Tadinya Reddit. 569 00:31:38,104 --> 00:31:42,859 Aku bahkan harus membuat perangkat lunak untuk hapus kecanduanku membaca Reddit. 570 00:31:45,403 --> 00:31:47,780 Aku mungkin kecanduan surel. 571 00:31:47,864 --> 00:31:49,866 Sungguh. Aku merasakannya. 572 00:31:52,577 --> 00:31:54,954 Rasanya menarik 573 00:31:55,038 --> 00:31:58,166 meski aku tahu apa yang terjadi di balik layar, 574 00:31:58,249 --> 00:32:01,628 aku masih tak bisa mengendalikan penggunaanku. 575 00:32:01,711 --> 00:32:03,254 Jadi, itu agak menakutkan. 576 00:32:03,630 --> 00:32:07,050 Meski tahu cara kerjanya, aku masih rentan terhadapnya. 577 00:32:07,133 --> 00:32:09,886 Aku masih akan mengangkat ponsel dan 20 menit akan berlalu. 578 00:32:12,805 --> 00:32:15,725 Apa kau memeriksa ponsel cerdasmu sebelum kencing saat pagi 579 00:32:15,808 --> 00:32:17,477 atau sambil kencing saat pagi? 580 00:32:17,560 --> 00:32:19,479 Karena hanya ada dua opsi itu. 581 00:32:19,771 --> 00:32:23,274 Aku berusaha dengan tekad kuat, 582 00:32:23,358 --> 00:32:26,903 "Akan kutaruh dan kutinggalkan ponselku di mobil saat pulang." 583 00:32:26,986 --> 00:32:30,573 Kurasa aku berkata pada diriku seribu kali pada seribu hari berbeda, 584 00:32:30,657 --> 00:32:32,659 "Aku takkan membawa ponselku ke kamar tidur," 585 00:32:32,742 --> 00:32:34,535 lalu saat pukul 21.00 tiba. 586 00:32:34,619 --> 00:32:37,121 "Aku mau membawa ponselku ke kamar tidur." 587 00:32:37,956 --> 00:32:39,290 Jadi, itu semacam... 588 00:32:39,374 --> 00:32:41,125 Kekuatan tekad adalah usaha pertama, 589 00:32:41,209 --> 00:32:44,295 lalu usaha kedua adalah pemaksaan. 590 00:32:44,379 --> 00:32:45,880 Perkenalkan, ini Kitchen Safe, 591 00:32:45,964 --> 00:32:49,801 Kitchen Safe adalah wadah berpengunci waktu revolusioner baru 592 00:32:49,884 --> 00:32:51,678 yang membantu Anda melawan godaan. 593 00:32:51,761 --> 00:32:56,724 David hanya perlu memasukkan godaan itu ke Kitchen Safe. 594 00:32:57,392 --> 00:33:00,603 Selanjutnya, dia memutar tombol untuk mengatur waktunya 595 00:33:01,479 --> 00:33:04,232 dan akhirnya, dia menekan tombol untuk mengaktifkan kuncinya. 596 00:33:04,315 --> 00:33:05,525 Kitchen Safe ini bagus... 597 00:33:05,608 --> 00:33:06,693 Kita punya itu, bukan? 598 00:33:06,776 --> 00:33:08,569 ...gim video, kartu kredit, dan ponsel. 599 00:33:08,653 --> 00:33:09,654 Ya, benar. 600 00:33:09,779 --> 00:33:11,114 Begitu Kitchen Safe terkunci, 601 00:33:11,197 --> 00:33:13,908 ini tak bisa dibuka sampai waktunya mencapai nol. 602 00:33:13,992 --> 00:33:17,537 Jadi, ini masalahnya. Media sosial adalah narkoba. 603 00:33:17,620 --> 00:33:20,873 Maksudku, kita punya perintah biologis dasar 604 00:33:20,957 --> 00:33:23,084 untuk terhubung dengan orang lain. 605 00:33:23,167 --> 00:33:25,253 Itu secara langsung memengaruhi 606 00:33:25,378 --> 00:33:28,214 pelepasan dopamin dalam "jalur kenikmatan". 607 00:33:28,297 --> 00:33:32,510 Jutaan tahun evolusi berada di balik sistem itu 608 00:33:32,593 --> 00:33:35,596 untuk membuat kita berkumpul dan hidup di komunitas, 609 00:33:35,680 --> 00:33:38,016 mencari pasangan, dan menyebarkan spesies kita. 610 00:33:38,099 --> 00:33:41,853 Jadi, tak diragukan lagi medium seperti media sosial 611 00:33:41,936 --> 00:33:45,690 yang mengoptimalkan hubungan antarorang ini 612 00:33:45,773 --> 00:33:48,568 akan memiliki potensi kecanduan. 613 00:33:52,739 --> 00:33:54,115 Ayah, hentikan! 614 00:33:55,450 --> 00:33:58,453 Aku harus mengirim seribu Snip lagi sebelum makan malam. 615 00:33:58,536 --> 00:33:59,537 Snip? 616 00:33:59,620 --> 00:34:01,080 Aku tak tahu apa itu Snip. 617 00:34:01,164 --> 00:34:03,207 - Aromanya enak, Sayang. - Terima kasih. 618 00:34:03,291 --> 00:34:07,712 Kupikir kita butuh kelima indra untuk menikmati makan malam kita. 619 00:34:07,795 --> 00:34:11,382 Jadi, kuputuskan tak boleh ada ponsel di meja malam ini. 620 00:34:11,466 --> 00:34:13,301 Jadi, serahkan kepadaku. 621 00:34:13,801 --> 00:34:14,802 - Sungguh? - Ya. 622 00:34:15,928 --> 00:34:18,056 - Baiklah. - Terima kasih. Ben? 623 00:34:18,139 --> 00:34:19,891 - Baik. - Ibu, si perompak ponsel. 624 00:34:21,100 --> 00:34:21,934 - Dapat. - Ibu! 625 00:34:22,602 --> 00:34:26,147 Jadi, mereka akan aman di sini sampai makan malam usai... 626 00:34:27,273 --> 00:34:31,277 dan semua bisa bersantai. Paham? 627 00:34:47,418 --> 00:34:49,253 - Boleh kulihat dari siapa itu? - Tidak. 628 00:34:54,759 --> 00:34:56,969 Aku akan mengambil garpu lagi. 629 00:34:58,304 --> 00:34:59,263 Terima kasih. 630 00:35:04,727 --> 00:35:06,729 Sayang, kau tak bisa membukanya. 631 00:35:06,813 --> 00:35:08,856 Aku menguncinya satu jam, jadi, biarkan saja. 632 00:35:11,317 --> 00:35:13,361 Jadi, apa yang harus kita bahas? 633 00:35:13,444 --> 00:35:15,613 Kita bisa membahas 634 00:35:15,696 --> 00:35:17,824 orang gila Extreme Center yang kuantar hari ini. 635 00:35:17,907 --> 00:35:18,825 Tolong, Frank. 636 00:35:18,908 --> 00:35:22,120 - Aku tak mau membahas politik. - Ada apa dengan Extreme Center? 637 00:35:22,203 --> 00:35:24,622 - Dia bahkan tak paham. - Tergantung menanyai siapa. 638 00:35:24,705 --> 00:35:26,624 Bagai bertanya, "Apa salahnya propaganda?" 639 00:35:28,918 --> 00:35:29,919 Isla! 640 00:35:32,797 --> 00:35:33,756 Astaga. 641 00:35:37,135 --> 00:35:38,553 - Kau mau aku... - Ya. 642 00:35:41,973 --> 00:35:43,933 Aku mencemaskan anak-anakku. 643 00:35:44,016 --> 00:35:46,686 Jika kau punya anak, aku mencemaskan anak-anakmu. 644 00:35:46,769 --> 00:35:50,189 Dengan semua pengetahuan dan pengalaman yang kupunya, 645 00:35:50,273 --> 00:35:52,108 aku mendebat anak-anakku soal waktu 646 00:35:52,191 --> 00:35:54,443 yang mereka habiskan pada ponsel dan komputer. 647 00:35:54,694 --> 00:35:56,070 Kuberi tahu putraku, 648 00:35:56,154 --> 00:35:58,197 "Berapa jam yang kau habiskan pada ponselmu?" 649 00:35:58,281 --> 00:36:01,075 Dia akan bilang, "Maksimal setengah jam." 650 00:36:01,159 --> 00:36:04,829 Kurasa lebih dari 60-90 menit. 651 00:36:04,912 --> 00:36:06,789 Kulihat statistiknya beberapa minggu lalu 652 00:36:06,873 --> 00:36:08,708 - dan itu tiga jam, 45 menit. - Itu... 653 00:36:11,252 --> 00:36:13,588 Kurasa itu tidak... Rata-rata per hari? 654 00:36:13,671 --> 00:36:15,506 - Ya. - Mau kuambil sekarang? 655 00:36:15,590 --> 00:36:19,177 Setiap hari, aku mengingatkan anak-anakku 656 00:36:19,260 --> 00:36:21,762 tentang keseimbangan rasa suka dan duka, 657 00:36:21,846 --> 00:36:26,267 kondisi kekurangan dopamin, dan risiko kecanduan. 658 00:36:26,350 --> 00:36:27,310 Momen penentuan. 659 00:36:27,935 --> 00:36:29,687 Dua jam, 50 menit per hari. 660 00:36:29,770 --> 00:36:31,772 - Coba lihat. - Kugunakan lama hari ini. 661 00:36:31,856 --> 00:36:33,316 - Tujuh hari ini. - Itu sebabnya. 662 00:36:33,399 --> 00:36:37,236 Instagram, enam jam, 13 menit. Jadi, Instagram-ku lebih buruk. 663 00:36:39,572 --> 00:36:43,201 Layarku hancur. Terima kasih, Cass. 664 00:36:44,410 --> 00:36:45,995 Apa maksudmu, "Terima kasih, Cass"? 665 00:36:46,078 --> 00:36:49,290 Kau terus membuat Ibu takut soal ponsel kita padahal bukan masalah. 666 00:36:49,373 --> 00:36:51,167 Tak butuh ponsel untuk makan malam. 667 00:36:51,250 --> 00:36:53,878 Aku paham maksudmu, tapi ini bukan masalah besar. 668 00:36:56,047 --> 00:36:58,382 Jika begitu, coba jangan gunakan selama seminggu. 669 00:37:01,135 --> 00:37:02,178 Ya. 670 00:37:02,261 --> 00:37:06,349 Ya, jika kau bisa menjauhinya selama seminggu... 671 00:37:07,725 --> 00:37:09,518 akan kubelikan kau layar baru. 672 00:37:11,020 --> 00:37:12,772 - Mulai sekarang? - Benar. 673 00:37:15,274 --> 00:37:16,859 Baiklah. Setuju. 674 00:37:16,943 --> 00:37:19,111 Namun, kau harus tinggalkan itu di sini, Kawan. 675 00:37:19,862 --> 00:37:21,405 Baiklah, aku akan mengecasnya. 676 00:37:22,531 --> 00:37:25,076 Mulai saat ini, aku akan menjauh. 677 00:37:25,159 --> 00:37:25,993 Baiklah. 678 00:37:27,703 --> 00:37:29,413 - Waktumu dimulai. - Satu minggu. 679 00:37:29,497 --> 00:37:30,331 Astaga... 680 00:37:31,457 --> 00:37:32,416 Kau pikir dia bisa? 681 00:37:33,000 --> 00:37:34,543 Entahlah, kita lihat saja. 682 00:37:35,002 --> 00:37:36,128 Makanlah saja, ya? 683 00:37:44,220 --> 00:37:45,680 Makan malam keluarga yang bagus! 684 00:37:47,682 --> 00:37:49,809 Produk teknologi ini tak dirancang 685 00:37:49,892 --> 00:37:53,896 oleh psikolog anak yang berusaha melindungi dan mengasuh anak. 686 00:37:53,980 --> 00:37:56,148 Namun, hanya didesain untuk membuat algoritme 687 00:37:56,232 --> 00:37:58,734 yang mahir merekomendasikan video berikutnya untuk kita 688 00:37:58,818 --> 00:38:02,321 atau membuat kita bisa berfoto dengan efek. 689 00:38:03,072 --> 00:38:05,324 DUA SUKA 690 00:38:13,291 --> 00:38:15,126 YAKIN INGIN MENGHAPUS? TIDAK 691 00:38:15,209 --> 00:38:16,210 YA 692 00:38:16,711 --> 00:38:20,256 Itu bukan hanya mengendalikan tujuan perhatian mereka. 693 00:38:21,173 --> 00:38:26,304 Media sosial mulai terus menggali lebih dalam ke batang otak, 694 00:38:26,387 --> 00:38:29,765 mengambil alih harga diri dan identitas anak. 695 00:38:29,849 --> 00:38:31,851 PERCANTIK AKU 696 00:38:42,069 --> 00:38:43,112 LILY_T MANIS! 697 00:38:43,195 --> 00:38:44,822 SOPHIA_M ASTAGA, CANTIK SEKALI 698 00:38:44,905 --> 00:38:46,490 OLIVIA_B KAU MENGAGUMKAN 699 00:38:46,574 --> 00:38:49,118 AVA_R BISA PERBESAR TELINGAMU? 700 00:38:52,496 --> 00:38:56,459 Kita berevolusi untuk peduli apakah orang lain di suku kita 701 00:38:56,751 --> 00:38:59,128 memandang kita baik atau tidak karena itu penting. 702 00:38:59,837 --> 00:39:04,550 Namun, apa kita berevolusi untuk menyadari pendapat 10.000 orang tentang kita? 703 00:39:04,633 --> 00:39:05,885 Kita tak berevolusi 704 00:39:05,968 --> 00:39:10,348 untuk menerima persetujuan sosial setiap lima menit. 705 00:39:10,431 --> 00:39:13,392 Kita sama sekali tak dirancang untuk mengalami itu. 706 00:39:15,394 --> 00:39:19,982 Kita menyesuaikan hidup kita mengikuti pandangan kesempurnaan ini 707 00:39:20,733 --> 00:39:23,527 karena kita mendapat imbalan dalam sinyal jangka pendek ini, 708 00:39:23,611 --> 00:39:25,154 ikon hati, suka, dan jempol. 709 00:39:25,237 --> 00:39:28,407 Lalu kita menyatukannya dengan nilai dan kebenaran. 710 00:39:29,825 --> 00:39:33,329 Alih-alih sebagai hal yang sebenarnya, yaitu popularitas palsu dan rapuh... 711 00:39:33,913 --> 00:39:37,458 yang hanya sesaat, membuat kita kecanduan, dan akuilah, 712 00:39:37,541 --> 00:39:39,919 membuat kita hampa sebelum melakukannya. 713 00:39:41,253 --> 00:39:43,381 Karena itu memaksa kita memasuki lingkaran ganas 714 00:39:43,464 --> 00:39:45,800 yang membuat kita bilang, "Aku harus apa berikutnya? 715 00:39:45,883 --> 00:39:47,343 Karena aku butuh itu." 716 00:39:48,260 --> 00:39:50,846 Bayangkan itu dilakukan oleh dua miliar orang lainnya 717 00:39:50,930 --> 00:39:54,767 lalu bayangkan reaksi orang terhadap persepsi orang lain. 718 00:39:54,850 --> 00:39:56,435 Itu sangat buruk. 719 00:39:56,977 --> 00:39:58,312 Itu benar-benar buruk. 720 00:40:00,856 --> 00:40:05,069 Ada peningkatan besar dalam depresi dan kecemasan 721 00:40:05,152 --> 00:40:06,529 bagi remaja Amerika 722 00:40:06,612 --> 00:40:10,950 yang dimulai antara tahun 2011 dan 2013. 723 00:40:11,033 --> 00:40:15,371 Jumlah gadis remaja dari 100.000 gadis di negara ini 724 00:40:15,454 --> 00:40:19,917 yang dirawat di rumah sakit setiap tahun karena menyayat atau melukai diri sendiri, 725 00:40:20,000 --> 00:40:23,921 angka itu cukup stabil sampai sekitar tahun 2010-2011, 726 00:40:24,004 --> 00:40:25,756 lalu mulai naik pesat. 727 00:40:28,717 --> 00:40:32,263 Naik 62 persen untuk gadis remaja lebih tua. 728 00:40:32,346 --> 00:40:33,931 RAWAT INAP UNTUK LUKA DIRI NONFATAL 729 00:40:34,014 --> 00:40:38,602 Naik 189 persen untuk gadis praremaja. Itu hampir tiga kali lipat. 730 00:40:40,354 --> 00:40:43,107 Lebih mengerikan lagi, bunuh diri alami tren yang sama. 731 00:40:43,190 --> 00:40:44,900 TINGKAT BUNUH DIRI AS PER SEJUTA GADIS 732 00:40:44,984 --> 00:40:47,570 Gadis remaja lebih tua, usia 15 sampai 19 tahun, 733 00:40:47,653 --> 00:40:51,449 mereka naik 70% dibandingkan dekade pertama abad ini. 734 00:40:52,158 --> 00:40:55,077 Para gadis praremaja, yang punya tingkat awal sangat rendah, 735 00:40:55,161 --> 00:40:57,663 mereka naik 151 persen. 736 00:40:58,831 --> 00:41:01,709 Lalu pola itu mengarah ke media sosial. 737 00:41:01,792 --> 00:41:03,961 MEDIA SOSIAL TERSEDIA DI PONSEL 738 737 00:41:04,044 --> 00:41:07,214 Generasi Z, anak-anak yang lahir usai tahun 1996, 739 00:41:07,298 --> 00:41:10,342 mereka adalah generasi pertama dalam sejarah 740 00:41:10,426 --> 00:41:12,636 yang terjun ke media sosial di sekolah menengah. 741 00:41:15,973 --> 00:41:17,683 Bagaimana mereka menghabiskan waktu? 742 00:41:19,727 --> 00:41:22,480 Mereka pulang dari sekolah dan memakai gawai mereka. 743 00:41:24,315 --> 00:41:29,195 Seluruh generasi ini lebih cemas, rapuh, dan tertekan. 744 00:41:30,613 --> 00:41:33,282 Mereka kurang nyaman mengambil risiko. 745 00:41:34,325 --> 00:41:37,536 Tingkat permohonan SIM mereka menurun. 746 00:41:38,954 --> 00:41:41,081 Jumlah orang yang pernah berkencan 747 00:41:41,165 --> 00:41:44,251 atau memiliki hubungan romantis menurun drastis. 748 00:41:47,505 --> 00:41:49,882 Ini perubahan nyata dalam satu generasi. 749 00:41:53,177 --> 00:41:57,306 Ingatlah, untuk semua kasus ini, setiap perawatan di rumah sakit, 750 00:41:57,389 --> 00:42:00,267 ada keluarga yang merasa trauma dan ngeri. 751 00:42:00,351 --> 00:42:02,561 "Astaga, apa yang terjadi kepada anak-anak kita?" 752 00:42:19,411 --> 00:42:21,038 Ini sangat jelas bagiku. 753 00:42:22,873 --> 00:42:28,128 Layanan ini membunuh orang dan menyebabkan orang bunuh diri. 754 00:42:29,088 --> 00:42:33,300 Aku tak mengenal orang tua yang bilang, "Ya, aku ingin anak-anakku tumbuh dewasa 755 00:42:33,384 --> 00:42:35,135 dengan merasa dimanipulasi 756 00:42:35,678 --> 00:42:36,887 oleh desainer teknologi. 757 00:42:36,971 --> 00:42:39,723 Memanipulasi perhatian dan menjadikan PR mustahil dikerjakan, 758 00:42:39,807 --> 00:42:42,560 membuat mereka mengikuti standar kecantikan tak realistis." 759 00:42:42,643 --> 00:42:44,687 Tak ada yang mau itu. 760 00:42:45,104 --> 00:42:46,355 Tak ada yang mau. 761 00:42:46,438 --> 00:42:48,482 Dulu kita punya perlindungan. 762 00:42:48,566 --> 00:42:52,778 Saat anak-anak menonton kartun Sabtu pagi, kita peduli soal melindungi anak-anak. 763 00:42:52,861 --> 00:42:56,574 Kita bilang, "Kau tak bisa beriklan kepada anak usia ini dengan cara ini." 764 00:42:57,366 --> 00:42:58,784 Namun, muncul YouTube Kids 765 00:42:58,867 --> 00:43:02,454 yang menghapus seluruh jual-beli perhatian ini 766 00:43:02,538 --> 00:43:04,915 dan kini semua anak terpapar YouTube Kids. 767 00:43:04,999 --> 00:43:07,668 Semua perlindungan dan peraturan itu hilang. 768 00:43:10,296 --> 00:43:17,261 WAKTU TANPA PONSEL 769 00:43:18,304 --> 00:43:22,141 Kita melatih dan mengondisikan satu generasi orang baru... 770 00:43:23,434 --> 00:43:29,148 agar ketika kita tak nyaman, kesepian, merasa tak pasti, atau takut, 771 00:43:29,231 --> 00:43:31,775 kita punya penenang digital sendiri 772 00:43:32,526 --> 00:43:36,488 yang menghentikan kemampuan kita untuk menghadapinya. 773 00:43:53,964 --> 00:43:56,884 Photoshop tak punya ribuan teknisi di sisi lain layar 774 00:43:56,967 --> 00:43:59,011 yang menggunakan notifikasi, teman-teman kita, 775 00:43:59,094 --> 00:44:02,431 dan IA untuk memprediksi apa yang akan membuat kita kecanduan, 776 00:44:02,514 --> 00:44:04,516 memanipulasi kita, atau mengizinkan pengiklan 777 00:44:04,600 --> 00:44:07,853 menguji 60.000 variasi teks atau warna 778 00:44:07,936 --> 00:44:11,065 untuk tahu cara memanipulasi pikiran kita dengan sempurna. 779 00:44:11,148 --> 00:44:14,985 Ini jenis kekuasaan dan pengaruh baru. 780 00:44:16,070 --> 00:44:19,156 Sekali lagi kukatakan, metode yang digunakan 781 00:44:19,239 --> 00:44:22,826 untuk mempermainkan kemampuan orang untuk kecanduan atau dipengaruhi 782 00:44:22,910 --> 00:44:25,204 mungkin berbeda kali ini dan mungkin memang begitu. 783 00:44:25,287 --> 00:44:28,749 Mereka berbeda saat koran muncul dan mesin cetak muncul. 784 00:44:28,832 --> 00:44:31,835 Mereka berbeda saat televisi muncul 785 00:44:31,919 --> 00:44:34,004 lalu muncul tiga jaringan besar dan... 786 00:44:34,463 --> 00:44:36,423 - Saat itu. - Saat itu, itu maksudku. 787 00:44:36,507 --> 00:44:38,384 Namun, maksudku, ada sebuah tingkat baru 788 00:44:38,467 --> 00:44:42,054 dan tingkat baru itu sudah sering terjadi. 789 00:44:42,137 --> 00:44:45,099 Ini tingkat baru terkini yang kita lihat. 790 00:44:45,391 --> 00:44:48,727 Ada narasi yang berkata, "Kita beradaptasi saja atas itu. 791 00:44:48,811 --> 00:44:51,188 Kita akan belajar hidup dengan perangkat ini 792 00:44:51,271 --> 00:44:53,732 seperti belajar hidup dengan yang lain." 793 00:44:53,816 --> 00:44:56,694 Yang luput di sini adalah ada hal baru di sini. 794 00:44:57,569 --> 00:45:00,322 Mungkin hal paling berbahaya dari semua ini adalah fakta 795 00:45:00,406 --> 00:45:04,410 bahwa itu didorong oleh teknologi yang maju dengan sangat pesat. 796 00:45:05,953 --> 00:45:09,081 Kurang lebih, dari tahun 1960-an hingga saat ini, 797 00:45:09,873 --> 00:45:13,085 kekuatan memproses meningkat sekitar satu triliun kali. 798 00:45:13,794 --> 00:45:18,340 Tak ada hal yang kita punya yang laju kenaikannya mendekati itu. 799 00:45:18,424 --> 00:45:22,177 Misalnya, mobil kira-kira hanya naik dua kali lebih cepat. 800 00:45:22,261 --> 00:45:25,264 Lalu hampir semua yang lainnya bisa diabaikan. 801 00:45:25,347 --> 00:45:27,182 Mungkin yang terpenting, 802 00:45:27,266 --> 00:45:31,353 sifat manusia, fisiologi, dan otak kita tak berevolusi sama sekali. 803 00:45:31,854 --> 00:45:35,232 WAKTU TANPA PONSEL 804 00:45:37,401 --> 00:45:41,488 Level pikiran, raga, dan fisik manusia 805 00:45:41,947 --> 00:45:43,907 takkan berubah secara mendasar. 806 00:45:56,837 --> 00:45:58,172 Kita bisa melakukan 807 00:45:58,255 --> 00:46:01,091 rekayasa genetika dan mengembangkan manusia baru di masa depan, 808 00:46:01,175 --> 00:46:05,220 tapi secara realistis, kita hidup di dalam perangkat keras, otak, 809 00:46:05,304 --> 00:46:07,222 yang berusia jutaan tahun, 810 00:46:07,306 --> 00:46:10,559 lalu ada sebuah layar dan di baliknya, 811 00:46:10,642 --> 00:46:13,562 ada ribuan teknisi dan komputer super 812 00:46:13,645 --> 00:46:16,106 yang punya tujuan berbeda dari tujuan kita. 813 00:46:16,190 --> 00:46:19,693 Jadi, siapa yang akan menang dalam hal itu? 814 00:46:25,699 --> 00:46:26,950 Bagaimana kita bisa kalah? 815 00:46:27,159 --> 00:46:29,703 - Entahlah. - Di mana dia? Ini tidak normal. 816 00:46:29,787 --> 00:46:32,164 Apa aku mencecarnya dengan konten teman dan keluarga? 817 00:46:32,247 --> 00:46:34,082 - Mungkin. - Mungkin karena iklannya. 818 00:46:34,166 --> 00:46:37,795 Tidak. Ada yang salah. Mari beralih ke mode kebangkitan. 819 00:46:39,671 --> 00:46:44,051 Saat memikirkan IA, kita pikir itu akan merusak dunia. 820 00:46:44,134 --> 00:46:47,221 Anda membayangkan Terminator, Arnold Schwarzenegger. 821 00:46:47,638 --> 00:46:48,680 Aku akan kembali. 822 00:46:48,806 --> 00:46:52,643 Kita membayangkan pesawat nirawak dan berpikir, "IA akan membunuh orang." 823 00:46:53,644 --> 00:46:59,817 Yang orang lupa adalah IA sudah mengendalikan dunia saat ini. 824 00:46:59,900 --> 00:47:03,237 Bahkan membicarakan "IA" hanyalah sebuah metafora. 825 00:47:03,320 --> 00:47:09,451 Di perusahaan seperti Google, ada banyak ruangan yang sangat besar. 826 00:47:10,327 --> 00:47:13,121 Sebagian ada di bawah tanah, sebagian lagi ada di bawah air, 827 00:47:13,205 --> 00:47:14,498 yang hanya berisi komputer. 828 00:47:14,581 --> 00:47:17,835 Begitu banyak komputer sejauh mata memandang. 829 00:47:18,460 --> 00:47:20,504 Mereka sangat saling terhubung 830 00:47:20,587 --> 00:47:22,923 dan menjalankan program yang sangat rumit, 831 00:47:23,006 --> 00:47:26,009 saling mengirim informasi bolak-balik sepanjang waktu. 832 00:47:26,802 --> 00:47:28,595 Mereka menjalankan beragam program 833 00:47:28,679 --> 00:47:30,806 dan produk pada mesin yang sama. 834 00:47:31,348 --> 00:47:33,684 Sebagiannya adalah algoritme sederhana 835 00:47:33,767 --> 00:47:35,227 dan sebagian lagi algoritme 836 00:47:35,310 --> 00:47:37,521 yang sangat rumit hingga disebut kecerdasan. 837 00:47:40,148 --> 00:47:43,777 Menurutku, algoritme adalah opini yang disematkan dalam kode... 838 00:47:45,070 --> 00:47:47,656 dan algoritme itu tidak objektif. 839 00:47:48,365 --> 00:47:51,577 Algoritme dioptimalkan ke sebuah definisi kesuksesan. 840 00:47:52,244 --> 00:47:53,370 Jadi, bisa dibayangkan 841 00:47:53,453 --> 00:47:57,124 jika perusahaan komersial membuat sebuah algoritme 842 00:47:57,207 --> 00:47:59,293 untuk definisi kesuksesan bagi mereka, 843 00:47:59,835 --> 00:48:01,378 itu kepentingan komersial. 844 00:48:01,587 --> 00:48:02,671 Biasanya profit. 845 00:48:03,130 --> 00:48:07,384 Kita memberi komputer tujuan, "Aku ingin hasil ini," 846 00:48:07,467 --> 00:48:10,262 lalu komputer itu sendiri belajar melakukannya. 847 00:48:10,345 --> 00:48:12,598 Itulah asal istilah "pemelajaran mesin". 848 00:48:12,681 --> 00:48:14,892 Jadi, setiap hari, ia menjadi sedikit lebih baik 849 00:48:14,975 --> 00:48:16,894 dalam memilih pos dalam urutan yang tepat 850 00:48:16,977 --> 00:48:19,438 agar kita bisa lebih lama menggunakan produk itu. 851 00:48:19,521 --> 00:48:22,232 Tak ada yang paham apa yang mereka lakukan 852 00:48:22,316 --> 00:48:23,901 untuk mencapai tujuan itu. 853 00:48:23,984 --> 00:48:28,238 Algoritme itu punya pikiran sendiri, jadi, meski seseorang menulisnya, 854 00:48:28,906 --> 00:48:30,657 itu ditulis sedemikian rupa 855 00:48:30,741 --> 00:48:35,037 agar setelah kita membuat mesinnya, mesinnya akan berubah sendiri. 856 00:48:35,120 --> 00:48:37,915 Hanya ada sedikit orang di semua perusahaan ini, 857 00:48:37,998 --> 00:48:40,000 Facebook, Twitter, dan perusahaan lain... 858 00:48:40,083 --> 00:48:43,795 Hanya sedikit orang yang mengerti cara kerja sistem itu 859 00:48:43,879 --> 00:48:46,715 dan bahkan mereka tak sepenuhnya mengerti 860 00:48:46,798 --> 00:48:49,551 apa yang akan terjadi dengan konten tertentu. 861 00:48:49,968 --> 00:48:53,472 Jadi, sebagai manusia, kita hampir kehilangan kendali 862 00:48:53,555 --> 00:48:55,474 atas sistem ini 863 00:48:55,891 --> 00:48:59,603 karena mereka mengendalikan informasi yang kita lihat. 864 00:48:59,686 --> 00:49:02,439 Mereka mengendalikan kita melebihi kita mengendalikan mereka. 865 00:49:03,815 --> 00:49:07,319 Merujuk silang dia dengan yang serupa di zona geografisnya. 866 00:49:07,402 --> 00:49:09,571 Kembaran psikometrinya. 867 00:49:09,655 --> 00:49:13,700 Ada 13.694 orang yang berperilaku sepertinya di wilayahnya. 868 00:49:13,784 --> 00:49:16,370 - Apa yang mereka minati? - Kita butuh hal yang bagus 869 00:49:16,453 --> 00:49:19,957 untuk kebangkitan yang layak, mengingat hal-hal biasa tak berhasil. 870 00:49:20,040 --> 00:49:22,042 Bahkan gadis manis di sekolah itu pun tidak. 871 00:49:22,334 --> 00:49:25,253 Menurut analisisku, menampilkan konten politik Extreme Center 872 00:49:25,337 --> 00:49:28,256 punya potensi keterlibatan jangka panjang sebesar 62,3%. 873 00:49:28,340 --> 00:49:29,299 Itu tidak buruk. 874 00:49:30,342 --> 00:49:32,010 Namun, bukan awal yang cukup bagus. 875 00:49:32,386 --> 00:49:35,305 Baiklah. Jadi, kita sudah memberitahunya soal foto yang ditandai, 876 00:49:35,389 --> 00:49:39,017 undangan, peristiwa terkini, bahkan pesan langsung dari Rebecca. 877 00:49:39,101 --> 00:49:42,771 Bagaimana dengan pengguna 01265923010? 878 00:49:42,854 --> 00:49:44,648 Ya, Ben memberi ikon hati semua posnya. 879 00:49:44,731 --> 00:49:47,776 Semua posnya, selama berbulan-bulan, lalu berhenti. 880 00:49:47,859 --> 00:49:50,445 Aku menghitung kemungkinan kebangkitan 92,3 persen 881 00:49:50,529 --> 00:49:52,155 dengan notifikasi soal Ana. 882 00:49:53,907 --> 00:49:55,993 HUBUNGAN BARU 883 00:49:56,535 --> 00:49:57,744 Serta teman barunya. 884 00:49:58,495 --> 00:50:04,001 WAKTU TANPA PONSEL 885 00:50:24,354 --> 00:50:25,981 MANTAN PACARMU PUNYA HUBUNGAN BARU! 886 00:50:26,064 --> 00:50:27,315 Ini pasti bercanda. 887 00:50:35,657 --> 00:50:36,616 Baiklah. 888 00:50:37,576 --> 00:50:38,785 ANA DAN LUIZ BERHUBUNGAN 889 00:50:38,869 --> 00:50:39,703 Apa? 890 00:50:42,122 --> 00:50:44,207 - Kita kembali! - Ayo menghasilkan uang lagi. 891 00:50:44,291 --> 00:50:46,334 Ya, dan hubungkan mereka dengan seluruh dunia. 892 00:50:46,418 --> 00:50:49,337 Aku memberinya akses ke semua informasi yang mungkin dia suka. 893 00:50:49,755 --> 00:50:53,717 Hei, apa kalian pernah berpikir umpan beritanya bagus untuk Ben? 894 00:50:57,220 --> 00:50:58,221 - Tidak. - Tidak. 895 00:51:42,349 --> 00:51:44,893 PENGUJIAN A/B EXTREME CENTRE 896 00:52:20,929 --> 00:52:24,349 Jadi, bayangkan kita membuka Facebook... 897 00:52:24,975 --> 00:52:29,312 dan kita bermain melawan inteligensi artifisial ini 898 00:52:29,396 --> 00:52:31,314 yang tahu semuanya soal kita. 899 00:52:31,398 --> 00:52:34,568 Mengantisipasi langkah kita berikutnya dan kita tak tahu apa-apa 900 00:52:34,651 --> 00:52:37,404 kecuali video kucing dan ulang tahun yang diputar. 901 00:52:37,821 --> 00:52:39,656 Pertarungan itu tak adil! 902 00:52:41,575 --> 00:52:43,869 Ben dan Jerry, saatnya berangkat! 903 00:52:51,126 --> 00:52:51,960 Ben? 904 00:53:02,679 --> 00:53:03,513 Ben. 905 00:53:05,182 --> 00:53:06,057 Ayo. 906 00:53:07,225 --> 00:53:08,894 Waktunya sekolah. Ayo. 907 00:53:31,374 --> 00:53:33,543 - Apa kabarmu hari ini? - Aku gugup. 908 00:53:33,627 --> 00:53:34,628 - Benarkah? - Ya. 909 00:53:37,380 --> 00:53:39,049 Kita semua mewaspadai saat 910 00:53:39,132 --> 00:53:42,969 ketika teknologi akan mengalahkan kekuatan dan kecerdasan manusia. 911 00:53:43,136 --> 00:53:44,846 Kapan itu akan melampaui hal itu, 912 00:53:44,930 --> 00:53:47,015 merebut profesi, dan lebih pintar dari manusia? 913 00:53:48,141 --> 00:53:50,101 Namun, ada momen lebih awal... 914 00:53:50,977 --> 00:53:55,565 saat teknologi melampaui dan mengalahkan kelemahan manusia. 915 00:53:57,484 --> 00:54:02,030 Batasan-batasan yang dilampaui ini berakar pada kecanduan, 916 00:54:02,113 --> 00:54:03,657 polarisasi, radikalisasi, 917 00:54:03,740 --> 00:54:06,368 memicu kemarahan, keangkuhan, semuanya. 918 00:54:07,702 --> 00:54:09,913 Ini mengalahkan sifat manusia 919 00:54:10,705 --> 00:54:13,500 dan sekakmat bagi kemanusiaan. 920 00:54:30,558 --> 00:54:31,434 Maaf. 921 00:54:41,736 --> 00:54:44,656 Salah satu cara yang kucoba untuk membuat orang paham 922 00:54:45,198 --> 00:54:49,786 betapa salahnya umpan berita dari tempat seperti Facebook 923 00:54:49,869 --> 00:54:51,454 adalah dengan memikirkan Wikipedia. 924 00:54:51,538 --> 00:54:52,872 TAB BARU 925 00:54:52,956 --> 00:54:56,418 Saat kunjungi sebuah laman, kita melihat hal yang sama dengan orang lain. 926 00:54:56,626 --> 00:55:00,297 Itu satu dari beberapa hal di internet yang setidaknya menjadi kesamaan kita. 927 00:55:00,380 --> 00:55:03,425 Kini bayangkan sejenak Wikipedia berkata, 928 00:55:03,508 --> 00:55:07,178 "Kita akan memberi tiap orang definisi yang khusus dan berbeda 929 00:55:07,262 --> 00:55:09,472 dan kita akan dibayar orang untuk itu." 930 00:55:09,556 --> 00:55:13,435 Jadi, Wikipedia memata-matai kita dan mempertimbangkan, 931 00:55:13,518 --> 00:55:17,188 "Apa yang bisa kulakukan agar orang ini berubah sedikit 932 00:55:17,272 --> 00:55:19,899 demi kepentingan komersial?" Paham? 933 00:55:19,983 --> 00:55:21,818 Lalu entrinya akan diubah. 934 00:55:22,444 --> 00:55:23,570 Bisa bayangkan itu? 935 00:55:23,653 --> 00:55:26,698 Seharusnya bisa karena itulah yang terjadi di Facebook. 936 00:55:26,781 --> 00:55:28,992 Itulah yang terjadi di umpan berita YouTube kita. 937 00:55:29,159 --> 00:55:31,786 Saat kunjungi Google dan mengetik "perubahan iklim adalah", 938 00:55:31,870 --> 00:55:34,998 kita akan melihat hasil berbeda tergantung tempat tinggal. 939 00:55:35,081 --> 00:55:36,082 PERUBAHAN IKLIM ADALAH 940 00:55:36,166 --> 00:55:38,460 Di kota tertentu, akan muncul isian kata otomatis 941 00:55:38,543 --> 00:55:40,462 bertuliskan "perubahan iklim itu hoaks." 942 00:55:40,545 --> 00:55:42,088 Dalam kasus lain, akan muncul 943 00:55:42,172 --> 00:55:44,841 "perubahan iklim menyebabkan kerusakan alam." 944 00:55:44,924 --> 00:55:48,428 Itu bukan fungsi untuk tampikan kebenaran soal perubahan iklim, 945 00:55:48,511 --> 00:55:51,097 tapi soal tempat kita saat mencarinya di Google 946 00:55:51,181 --> 00:55:53,600 dan hal tertentu yang Google tahu soal minat kita. 947 00:55:55,185 --> 00:55:58,021 Bahkan dua teman yang sangat dekat sekalipun, 948 00:55:58,104 --> 00:56:00,190 yang punya teman yang hampir sama, 949 00:56:00,273 --> 00:56:02,817 mereka berpikir, "Akan kulihat umpan berita di Facebook. 950 00:56:02,901 --> 00:56:06,738 Aku akan melihat pembaruan yang sama." Namun, tidak seperti itu. 951 00:56:06,821 --> 00:56:08,448 Mereka melihat dunia yang berbeda 952 00:56:08,531 --> 00:56:12,035 karena itu berdasarkan analisis komputer soal apa yang ideal bagi mereka. 953 00:56:12,118 --> 00:56:14,245 SEDANG MENGUDARA 954 00:56:14,329 --> 00:56:18,416 Bisa dibilang itu adalah 2,7 miliar The Truman Show. 955 00:56:18,500 --> 00:56:21,294 Tiap orang punya realitas sendiri dengan fakta... 956 00:56:22,670 --> 00:56:23,671 mereka sendiri. 957 00:56:23,755 --> 00:56:28,051 Kenapa kau pikir Truman tak pernah hampir mengetahui 958 00:56:28,134 --> 00:56:30,095 kebenaran soal dunianya hingga kini? 959 00:56:31,054 --> 00:56:34,099 Kita menerima kenyataan dunia yang diberikan kepada kita. 960 00:56:34,182 --> 00:56:35,141 Sesederhana itu. 961 00:56:35,225 --> 00:56:36,393 SEDANG MENGUDARA 962 00:56:36,476 --> 00:56:41,064 Seiring waktu, kita memiliki kesan palsu bahwa semua orang setuju dengan kita 963 00:56:41,147 --> 00:56:44,067 karena semua orang di umpan berita tampak seperti kita. 964 00:56:44,567 --> 00:56:49,072 Begitu kita dalam keadaan itu, ternyata kita mudah dimanipulasi 965 00:56:49,155 --> 00:56:51,741 seperti dimanipulasi oleh pesulap. 966 00:56:51,825 --> 00:56:55,370 Pesulap menunjukkan trik kartu dan bilang, "Pilih kartu apa saja." 967 00:56:55,453 --> 00:56:58,373 Yang tak kita sadari adalah mereka sudah mengaturnya 968 00:56:58,456 --> 00:57:00,542 agar kita memilih kartu yang mereka mau. 969 00:57:00,625 --> 00:57:03,169 Begitulah Facebook bekerja. Ia duduk di sana dan berkata, 970 00:57:03,253 --> 00:57:06,172 "Hei, kau yang memilih teman dan tautan yang kau ikuti." 971 00:57:06,256 --> 00:57:08,716 Namun, itu omong kosong. Seperti pesulap. 972 00:57:08,800 --> 00:57:11,302 Facebook bertanggung jawab atas umpan berita kita. 973 00:57:11,386 --> 00:57:14,514 Kita semua hanya menggunakan fakta yang berbeda. 974 00:57:14,597 --> 00:57:16,474 Saat itu terjadi dalam skala besar, 975 00:57:16,558 --> 00:57:20,770 kita tak bisa lagi menghadapi atau menyerap informasi 976 00:57:20,854 --> 00:57:23,690 yang bertentangan dengan pandangan dunia yang kita ciptakan. 977 00:57:23,773 --> 00:57:28,027 Itu berarti kita bukan lagi individu yang objektif dan konstruktif. 978 00:57:28,778 --> 00:57:32,449 Buka matamu! Jangan percaya kebohongan! 979 00:57:32,532 --> 00:57:35,160 Lalu kita melihat ke sisi lain 980 00:57:35,243 --> 00:57:38,746 dan mulai berpikir, "Bagaimana mereka bisa begitu bodoh? 981 00:57:38,955 --> 00:57:42,125 Lihatlah semua informasi yang terus kulihat ini. 982 00:57:42,208 --> 00:57:44,711 Kenapa mereka tak melihat info yang sama?" 983 00:57:44,794 --> 00:57:47,297 Jawabannya, "Mereka memang tak melihat info yang sama." 984 00:57:47,380 --> 00:57:50,800 Buka matamu! Jangan percaya kebohongan! 985 00:57:52,093 --> 00:57:53,678 Seperti apa Partai Republik? 986 00:57:53,761 --> 00:57:55,472 Orang yang tak tahu apa-apa. 987 00:57:55,555 --> 00:57:58,933 Partai Demokrat adalah sindikat kejahatan, bukan partai politik sungguhan. 988 00:57:59,017 --> 00:58:03,104 Studi besar baru dari Pew Research Center terhadap 10.000 orang dewasa Amerika 989 00:58:03,188 --> 00:58:05,315 mendapati kita lebih terpecah dari sebelumnya, 990 00:58:05,398 --> 00:58:09,068 dengan polarisasi pribadi dan politis di level tertinggi pada 20 tahun terakhir. 991 00:58:09,152 --> 00:58:11,696 POLARISASI POLITIS AS MEDIAN DEMOKRAT - MEDIAN REPUBLIK 992 00:58:11,779 --> 00:58:14,199 Ada lebih dari sepertiga Partai Republik yang berkata 993 00:58:14,282 --> 00:58:16,826 Partai Demokrat adalah ancaman bagi negara 994 00:58:16,910 --> 00:58:20,580 dan seperempat lebih Demokrat berkata sama soal Partai Republik. 995 00:58:20,663 --> 00:58:24,417 Begitu banyak masalah yang kita bahas, misalnya seputar polarisasi politik, 996 00:58:24,501 --> 00:58:28,046 ditampilkan secara besar-besaran di TV kabel. 997 00:58:28,129 --> 00:58:31,007 Media punya masalah yang sama 998 00:58:31,090 --> 00:58:33,343 karena model bisnis mereka, pada umumnya, 999 00:58:33,426 --> 00:58:35,762 adalah menjual perhatian kita kepada pengiklan. 1000 00:58:35,845 --> 00:58:38,890 Internet adalah cara lebih efisien baru untuk melakukan itu. 1001 00:58:40,391 --> 00:58:44,145 Di YouTube, aku mengerjakan rekomendasi YouTube. 1002 00:58:44,229 --> 00:58:47,148 Aku khawatir algoritme yang kukerjakan 1003 00:58:47,232 --> 00:58:50,401 sebenarnya meningkatkan polarisasi di masyarakat. 1004 00:58:50,485 --> 00:58:53,112 Namun, dari sudut pandang waktu menonton, 1005 00:58:53,196 --> 00:58:57,617 polarisasi ini sangat efisien untuk membuat orang tetap daring. 1006 00:58:58,785 --> 00:59:02,288 Alasan para guru mengajarkan hal ini hanyalah karena mereka dibayar. 1007 00:59:02,372 --> 00:59:04,332 - Itu konyol sekali. - Hei, Benji. 1008 00:59:04,791 --> 00:59:06,459 Tak ada latihan sepak bola hari ini? 1009 00:59:06,543 --> 00:59:08,878 Ada. Aku hanya melihat berita yang kulewatkan. 1010 00:59:08,962 --> 00:59:11,506 Risetlah sendiri. Info apa pun dari Extreme Center... 1011 00:59:11,589 --> 00:59:14,008 Hal yang kau tonton itu bukan berita. 1012 00:59:15,552 --> 00:59:18,721 Kau selalu membahas betapa kacaunya keadaan saat ini. Mereka juga. 1013 00:59:19,472 --> 00:59:21,140 Namun, itu hanya propaganda. 1014 00:59:21,224 --> 00:59:24,060 Tak ada yang benar. Intinya adalah apa yang masuk akal. 1015 00:59:24,769 --> 00:59:26,938 Ben, aku serius. Itu buruk untukmu. 1016 00:59:27,021 --> 00:59:28,690 Sebainya kau berlatih sepak bola. 1017 00:59:35,154 --> 00:59:37,490 Aku membagi ini karena aku peduli. 1018 00:59:37,574 --> 00:59:41,077 Aku peduli terhadap kalian yang disesatkan dan itu tak baik. Paham? 1019 00:59:41,160 --> 00:59:43,121 Orang mengira algoritme ini dirancang 1020 00:59:43,204 --> 00:59:46,833 untuk memberikan yang mereka inginkan, tapi ternyata tidak. 1021 00:59:46,916 --> 00:59:52,589 Algoritme ini sebenarnya mencoba mencari beberapa perangkap yang sangat kuat, 1022 00:59:52,672 --> 00:59:56,217 mencari perangkap mana yang paling sesuai dengan minat kita. 1023 00:59:56,301 --> 00:59:59,512 Lalu jika kita mulai menonton salah satu video itu, 1024 00:59:59,804 --> 01:00:02,223 itu akan merekomendasikannya berulang kali. 1025 01:00:02,682 --> 01:00:04,934 Tak ada yang mau ini terjadi. 1026 01:00:05,018 --> 01:00:07,812 Hanya saja, inilah yang dilakukan sistem rekomendasi. 1027 01:00:07,895 --> 01:00:10,815 Sampai-sampai Kyrie Irving, pemain basket terkenal, 1028 01:00:11,482 --> 01:00:14,152 berkata dia percaya Bumi datar yang meminta maaf kemudian 1029 01:00:14,235 --> 01:00:16,404 dan dia menyalahkan video perangkap di YouTube. 1030 01:00:16,487 --> 01:00:18,656 Kau mengeklik YouTube 1031 01:00:18,740 --> 01:00:21,534 lalu kita masuk ke perangkap yang sangat dalam. 1032 01:00:21,618 --> 01:00:23,328 Saat dia datang ke NPR untuk berkata, 1033 01:00:23,411 --> 01:00:25,955 "Maaf telah meyakini ini. Aku tak mau menyesatkan orang," 1034 01:00:26,039 --> 01:00:28,333 sekelompok siswa di kelas yang diwawancarai bilang, 1035 01:00:28,416 --> 01:00:30,251 "Penganut Bumi bulat memengaruhinya." 1036 01:00:31,044 --> 01:00:33,963 Teori konspirasi Bumi datar direkomendasikan 1037 01:00:34,047 --> 01:00:37,634 ratusan juta kali oleh algoritme itu. 1038 01:00:37,800 --> 01:00:39,010 Mudah untuk berpikir 1039 01:00:39,093 --> 01:00:43,890 bahwa hanya beberapa orang bodoh yang meyakininya, 1040 01:00:43,973 --> 01:00:46,893 tapi algoritme ini makin cerdas setiap harinya. 1041 01:00:46,976 --> 01:00:50,188 Jadi, kini mereka meyakinkan orang-orang bahwa Bumi itu datar, 1042 01:00:50,271 --> 01:00:53,983 tapi besok, mereka akan meyakinkanmu tentang hal keliru lainnya. 1043 01:00:54,317 --> 01:00:57,820 Pada 7 November, tagar "Pizzagate" lahir. 1044 01:00:57,904 --> 01:00:59,197 Pizzagate... 1045 01:01:00,782 --> 01:01:01,658 Astaga. 1046 01:01:03,159 --> 01:01:06,913 Aku masih tak yakin bagaimana awalnya ini terjadi, 1047 01:01:06,996 --> 01:01:12,377 tapi ide bahwa memesan piza berarti memesan orang yang diperdagangkan. 1048 01:01:12,460 --> 01:01:15,046 Saat grup itu makin besar di Facebook, 1049 01:01:15,129 --> 01:01:19,926 mesin rekomendasi Facebook mulai menyarankan para pengguna biasa 1050 01:01:20,009 --> 01:01:21,761 untuk bergabung dengan grup Pizzagate. 1051 01:01:22,053 --> 01:01:27,392 Jadi, jika pengguna, misalnya, anti-vaksin, meyakini teori jejak kimia, 1052 01:01:27,475 --> 01:01:30,645 atau menunjukkan kepada algoritme Facebook 1053 01:01:30,728 --> 01:01:33,398 bahwa mereka cenderung memercayai teori konspirasi, 1054 01:01:33,481 --> 01:01:36,859 mesin rekomendasi Facebook akan menyajikan grup Pizzagate. 1055 01:01:36,943 --> 01:01:41,072 Akhirnya, ini berujung pada seorang pria yang muncul dengan pistol 1056 01:01:41,155 --> 01:01:44,617 dan memutuskan dia akan membebaskan anak-anak dari basemen 1057 01:01:44,701 --> 01:01:47,078 dari tempat piza yang tak punya basemen. 1058 01:01:47,161 --> 01:01:49,997 - Kenapa kau kemari? - Memastikan tak ada apa-apa di sana. 1059 01:01:50,581 --> 01:01:52,291 - Soal apa? - Jaringan pedofilia. 1060 01:01:52,375 --> 01:01:53,835 - Soal apa? - Jaringan pedofilia. 1061 01:01:53,918 --> 01:01:55,878 Maksudnya, Pizzagate. 1062 01:01:55,962 --> 01:02:00,216 Ini contoh teori konspirasi 1063 01:02:00,299 --> 01:02:03,678 yang disebarkan di semua jejaring sosial. 1064 01:02:03,761 --> 01:02:07,974 Mesin rekomendasi jejaring sosial itu secara sukarela menyajikannya kepada orang 1065 01:02:08,057 --> 01:02:10,643 yang tak pernah sama sekali mencari istilah "Pizzagate". 1066 01:02:10,727 --> 01:02:12,353 PIZZAGATE WADAH DEMOKRAT DAN PEDOFIL 1067 01:02:12,437 --> 01:02:14,439 Ada sebuah studi MIT yang menyebutkan 1068 01:02:14,522 --> 01:02:16,441 berita palsu di Twitter menyebar 1069 01:02:16,524 --> 01:02:19,569 enam kali lebih cepat daripada berita sebenarnya. 1070 01:02:19,902 --> 01:02:21,863 Seperti apa dunia itu 1071 01:02:21,946 --> 01:02:24,907 jika ada yang lebih unggul enam kali lipat daripada yang lain? 1072 01:02:25,283 --> 01:02:27,660 Kita bisa membayangkan semua hal ini 1073 01:02:27,744 --> 01:02:31,706 seperti mengubah neraca perilaku manusia. 1074 01:02:31,789 --> 01:02:34,709 Mereka membuat sebagian perilaku lebih sulit atau lebih mudah. 1075 01:02:34,792 --> 01:02:37,420 Kita selalu bebas menghadapi yang sulit, 1076 01:02:37,503 --> 01:02:38,796 tapi jarang ada yang mau. 1077 01:02:38,880 --> 01:02:43,092 Jadi, dalam skala besar di masyarakat, kita memiringkan neraca itu, 1078 01:02:43,176 --> 01:02:45,970 mengubah pikiran dan perilaku miliaran orang. 1079 01:02:46,053 --> 01:02:52,018 Kita menciptakan sistem yang berprasangka terhadap informasi palsu. 1080 01:02:52,643 --> 01:02:54,437 Bukan karena kita mau, 1081 01:02:54,520 --> 01:02:58,816 tapi karena informasi palsu memberi semua perusahaan itu lebih banyak uang 1082 01:02:59,400 --> 01:03:01,486 daripada kebenaran. ebenaran itu membosankan. 1083 01:03:01,986 --> 01:03:04,489 Ini model bisnis yang mencari profit dari disinformasi. 1084 01:03:04,906 --> 01:03:08,159 Kita menghasilkan uang dengan membebaskan pesan tak terkontrol 1085 01:03:08,701 --> 01:03:11,412 diterima siapa saja dengan harga terbaik. 1086 01:03:11,662 --> 01:03:13,748 Karena perubahan iklim? Ya. 1087 01:03:13,831 --> 01:03:16,751 Itu hoaks. Ya, itu nyata. Itulah intinya. 1088 01:03:16,834 --> 01:03:20,046 Makin sering mereka membahasnya dan makin kita terpecah, 1089 01:03:20,129 --> 01:03:22,340 kekuatan dan kendali mereka akan makin besar. 1090 01:03:22,423 --> 01:03:25,551 Facebook punya triliunan pos umpan berita seperti ini. 1091 01:03:26,552 --> 01:03:29,263 Mereka tak bisa tahu apa yang nyata atau benar. 1092 01:03:29,972 --> 01:03:33,726 Itu sebabnya pembahasan ini sangat penting sekarang. 1093 01:03:33,810 --> 01:03:37,021 Bukan hanya COVID-19 yang menyebar cepat. 1094 01:03:37,104 --> 01:03:40,191 Ada rangkaian informasi yang salah tentang virus ini di internet. 1095 01:03:40,274 --> 01:03:43,694 Ide bahwa minum lebih banyak air akan menghapus virus korona dari tubuh 1096 01:03:43,778 --> 01:03:47,490 adalah salah satu mitos soal virus ini yang beredar di media sosial. 1097 01:03:47,573 --> 01:03:50,451 Pemerintah merencanakan peristiwa ini, menciptakan virusnya, 1098 01:03:50,827 --> 01:03:53,579 dan melakukan simulasi tentang reaksi berbagai negara. 1099 01:03:53,955 --> 01:03:55,581 Virus korona itu hoaks. 1100 01:03:56,165 --> 01:03:57,959 SARS, virus korona. 1101 01:03:58,376 --> 01:04:01,045 Lihatlah tahun pembuatannya. 2018. 1102 01:04:01,128 --> 01:04:03,798 Kurasa pemerintah Amerika memulai ini. 1103 01:04:04,215 --> 01:04:07,343 Tak ada yang sakit. 1104 01:04:07,426 --> 01:04:09,095 Tak ada yang kenal orang yang sakit. 1105 01:04:09,512 --> 01:04:12,849 Mungkin pemerintah menggunakan virus korona sebagai alasan 1106 01:04:12,932 --> 01:04:15,643 agar semua orang tetap di rumah karena ada hal lain terjadi. 1107 01:04:15,726 --> 01:04:18,020 Virus korona tidak membunuh orang, 1108 01:04:18,104 --> 01:04:20,940 tapi radiasi 5G yang mereka pancarkan. 1109 01:04:21,023 --> 01:04:22,525 MENARA 5G DIPOTONG DAN DIBAKAR 1110 01:04:22,608 --> 01:04:24,569 Kita dibombardir dengan rumor. 1111 01:04:25,403 --> 01:04:28,823 Orang-orang meledakkan menara seluler. 1112 01:04:28,906 --> 01:04:32,159 Kita melihat Rusia dan Cina menyebarkan rumor dan teori konspirasi. 1113 01:04:32,243 --> 01:04:35,246 Tadi pagi, muncul kepanikan dan protes di Ukraina... 1114 01:04:35,329 --> 01:04:38,916 Orang tak tahu apa yang benar dan kini menjadi masalah hidup dan mati. 1115 01:04:40,001 --> 01:04:42,628 Sumber-sumber yang menyebarkan informasi virus korona palsu 1116 01:04:42,712 --> 01:04:45,798 telah mengumpulkan sekitar 52 juta keterlibatan. 1117 01:04:45,882 --> 01:04:50,094 Maksudmu, larutan perak akan efektif. 1118 01:04:50,177 --> 01:04:54,140 Anggaplah itu belum diuji pada jenis virus korona ini... 1119 01:04:54,223 --> 01:04:57,226 Apa yang kita lihat dengan COVID hanyalah versi ekstrem 1120 01:04:57,310 --> 01:05:00,688 dari apa yang terjadi di seluruh ekosistem informasi kita. 1121 01:05:00,980 --> 01:05:04,942 Media sosial memperkuat gosip dan desas-desus eksponensial 1122 01:05:05,026 --> 01:05:07,111 hingga kita tak tahu apa yang benar, 1123 01:05:07,194 --> 01:05:09,113 apa pun isu yang kita pedulikan. 1124 01:05:26,130 --> 01:05:27,465 Kau masih tergabung di tim? 1125 01:05:30,468 --> 01:05:34,597 Aku akan membeli camilan sebelum latihan jika kau mau ikut. 1126 01:05:37,016 --> 01:05:38,684 Lupakan saja. 1127 01:05:39,936 --> 01:05:44,982 KAMI MEMBUTUHKANMU, BERGABUNGLAH SEKARANG 1128 01:05:45,066 --> 01:05:47,526 Sembilan dari sepuluh orang merasa tak puas saat ini. 1129 01:05:47,610 --> 01:05:50,613 Jika dipikir lagi, EC mirip dengan gerakan politik dalam sejarah. 1130 01:05:50,821 --> 01:05:54,492 Kita melawan gangguan ini. 1131 01:05:54,575 --> 01:05:57,036 Kalian adalah kaumku. Aku percaya kalian. 1132 01:05:59,205 --> 01:06:02,583 - Konten Extreme Center itu hebat. - Dia amat menyukainya. 1133 01:06:02,667 --> 01:06:03,626 Melakukan lelang. 1134 01:06:04,585 --> 01:06:08,547 Ada 843 penawar, dia terjual seharga 4,35 sen ke pabrik senjata. 1135 01:06:08,631 --> 01:06:10,841 Ayo promosikan beberapa acara ini. 1136 01:06:10,925 --> 01:06:13,511 Unjuk rasa mendatang di zona geografisnya akhir pekan ini. 1137 01:06:13,594 --> 01:06:15,179 Aku juga punya naravlog baru. 1138 01:06:17,848 --> 01:06:22,979 Sejujurnya, percayalah, aku bersedia melakukan apa saja. 1139 01:06:23,062 --> 01:06:24,939 Maksudku, apa saja. 1140 01:06:32,154 --> 01:06:33,197 - Berlanggananlah - Ben? 1141 01:06:33,280 --> 01:06:35,950 dan kembalilah lagi karena percayalah, 1142 01:06:36,617 --> 01:06:38,869 aku punya rencana sangat besar. 1143 01:06:38,953 --> 01:06:40,204 Rencana sangat besar. 1144 01:06:40,788 --> 01:06:45,292 Salah satu masalah dengan Facebook adalah sebagai alat persuasi, 1145 01:06:45,793 --> 01:06:47,920 itu mungkin hal terhebat yang pernah dibuat. 1146 01:06:48,170 --> 01:06:52,508 Sekarang, bayangkan artinya itu di tangan diktator atau pemimpin otoriter. 1147 01:06:53,718 --> 01:06:57,638 Jika kita ingin mengendalikan populasi negaramu, 1148 01:06:57,722 --> 01:07:01,308 tak pernah ada alat yang seefektif Facebook. 1149 01:07:04,937 --> 01:07:07,398 Beberapa implikasi yang paling meresahkan 1150 01:07:07,481 --> 01:07:11,235 dari pemerintah dan pelaku jahat lain yang menjadikan media sosial senjata 1151 01:07:11,527 --> 01:07:13,612 adalah menyebabkan bahaya di dunia nyata. 1152 01:07:13,696 --> 01:07:15,072 Kurasa contoh paling menonjol 1153 01:07:15,156 --> 01:07:17,658 yang banyak diberitakan adalah kejadian di Myanmar. 1154 01:07:17,742 --> 01:07:19,160 KANTOR KEPRESIDENAN MYANMAR 1155 01:07:19,243 --> 01:07:21,203 Di Myanmar, saat orang memikirkan internet, 1156 01:07:21,287 --> 01:07:22,913 yang terpikir adalah Facebook. 1157 01:07:22,997 --> 01:07:25,916 Yang sering terjadi adalah saat orang-orang membeli ponsel, 1158 01:07:26,000 --> 01:07:29,920 pemilik toko ponsel akan memasangkan Facebook 1159 01:07:30,004 --> 01:07:31,505 dan membuatkan mereka akun. 1160 01:07:31,589 --> 01:07:34,884 Jadi, saat mendapatkan ponsel, hal pertama yang mereka buka 1161 01:07:34,967 --> 01:07:37,595 dan yang mereka tahu cara membukanya hanyalah Facebook. 1162 01:07:38,179 --> 01:07:41,891 Penyelidikan mengejutkan baru mengungkap makin sulitnya Facebook 1163 01:07:41,974 --> 01:07:43,809 mengatasi ujaran kebencian di Myanmar. 1164 01:07:43,893 --> 01:07:46,020 BERHENTI MEMBUNUH MUSLIM 1165 01:07:46,103 --> 01:07:49,190 Facebook benar-benar memberi militer dan pelaku jahat lainnya 1166 01:07:49,273 --> 01:07:51,776 cara baru memanipulasi opini publik 1167 01:07:51,859 --> 01:07:55,529 dan membantu memicu kekerasan terhadap Muslim Rohingya 1168 01:07:55,613 --> 01:07:57,406 yang termasuk pembunuhan massal, 1169 01:07:58,074 --> 01:07:59,867 membakar seluruh desa, 1170 01:07:59,950 --> 01:08:00,951 pemerkosaan massal, 1171 01:08:01,035 --> 01:08:03,704 dan kejahatan berat lain terhadap kemanusiaan 1172 01:08:03,788 --> 01:08:08,209 yang kini membuat 700.000 Muslim Rohingya harus meninggalkan Myanmar. 1173 01:08:11,170 --> 01:08:16,550 Ini bukan karena pelaku propaganda yang gencar tak ada sebelumnya, 1174 01:08:16,634 --> 01:08:19,762 tapi karena semua platform ini memungkinkan 1175 01:08:19,845 --> 01:08:23,724 penyebaran narasi manipulatif dengan sangat mudah 1176 01:08:23,808 --> 01:08:25,434 dan tanpa membayar mahal. 1177 01:08:25,518 --> 01:08:27,812 Jika aku ingin memanipulasi pemilu, 1178 01:08:27,895 --> 01:08:30,564 aku bisa masuk ke grup teori konspirasi di Facebook, 1179 01:08:30,648 --> 01:08:34,443 menemukan 100 orang yang percaya bahwa Bumi benar-benar datar 1180 01:08:34,860 --> 01:08:37,780 dan menganggap pendaratan di bulan adalah teori konspirasi, 1181 01:08:37,863 --> 01:08:41,450 lalu bisa kuminta Facebook memberiku seribu pengguna yang tampak seperti itu. 1182 01:08:42,118 --> 01:08:46,080 Facebook akan dengan senang hati mengirim ribuan pengguna yang mirip mereka 1183 01:08:46,163 --> 01:08:49,416 yang kini bisa kujejali dengan teori konspirasi lainnya. 1184 01:08:51,127 --> 01:08:53,129 Terjual seharga 3,4 sen per impresi. 1185 01:08:53,379 --> 01:08:56,173 - Video EC baru untuk dipromosikan. - Satu iklan lagi siap. 1186 01:08:58,509 --> 01:09:02,138 Algoritme dan politisi manipulatif menjadi sangat ahli 1187 01:09:02,221 --> 01:09:04,056 dalam mempelajari cara memicu kita, 1188 01:09:04,140 --> 01:09:08,352 makin mahir menciptakan berita palsu yang kita serap seolah-olah itu kenyataan 1189 01:09:08,435 --> 01:09:10,813 dan membingungkan kita untuk meyakini kebohongan itu. 1190 01:09:10,896 --> 01:09:14,150 Seolah-olah kita kehilangan kendali atas jati diri dan keyakinan kita. 1191 01:09:31,375 --> 01:09:32,668 ...agar mereka bisa memihak. 1192 01:09:32,751 --> 01:09:34,879 Ada kebohongan di sini dan di sana. 1193 01:09:34,962 --> 01:09:39,967 Agar mereka bisa terus berkuasa dan mengendalikan semuanya. 1194 01:09:40,050 --> 01:09:42,636 Mereka bisa mengendalikan pikiran kita 1195 01:09:42,720 --> 01:09:46,390 agar mereka bisa menyimpan rahasia mereka. 1196 01:09:46,473 --> 01:09:48,601 CDC MENGAKU MENUTUPI FAKTA VAKSIN MEMICU AUTISME 1197 01:09:48,684 --> 01:09:50,895 Bayangkan dunia tempat kebenaran tak dipercaya. 1198 01:09:50,978 --> 01:09:52,813 VAKSIN ITU BERACUN LINDUNGI ANAK KITA 1199 01:09:52,897 --> 01:09:55,649 Semua orang percaya pemerintah membohongi mereka. 1200 01:09:56,317 --> 01:09:58,444 Semuanya adalah teori konspirasi. 1201 01:09:58,527 --> 01:10:01,197 "Aku tak boleh percaya siapa pun. Aku benci pihak lain." 1202 01:10:01,280 --> 01:10:02,698 Itulah arah semua ini. 1203 01:10:02,781 --> 01:10:06,160 Gempa bumi politik di Eropa terus bergemuruh, 1204 01:10:06,243 --> 01:10:08,412 kali ini di Italia dan Spanyol. 1205 01:10:08,495 --> 01:10:11,999 Koalisi sentris tradisional Eropa kehilangan mayoritas suaranya 1206 01:10:12,082 --> 01:10:15,002 sementara partai sayap kanan dan kiri alami peningkatan. 1207 01:10:19,715 --> 01:10:20,591 Mundur. 1208 01:10:21,675 --> 01:10:22,509 Baiklah, ayo. 1209 01:10:28,390 --> 01:10:31,268 Akun-akun ini dengan sengaja dan secara khusus berusaha 1210 01:10:31,352 --> 01:10:33,896 menebar pertikaian politik di Hong Kong. 1211 01:10:38,609 --> 01:10:39,610 Baiklah, Ben. 1212 01:10:42,863 --> 01:10:45,032 Bagaimana rasanya menjadi negara 1213 01:10:45,115 --> 01:10:48,410 yang sumber informasi utamanya adalah Facebook dan media sosial? 1214 01:10:48,953 --> 01:10:50,871 Demokrasi hancur begitu cepat. 1215 01:10:50,955 --> 01:10:51,830 Enam bulan. 1216 01:10:51,914 --> 01:10:53,791 Setelah kekacauan di Chicago, 1217 01:10:53,874 --> 01:10:57,086 bentrokan antara pemrotes dan pendukung, 1218 01:10:58,003 --> 01:11:01,632 Demokrasi menghadapi krisis kepercayaan. 1219 01:11:01,715 --> 01:11:04,343 Yang kita lihat adalah serangan global terhadap demokrasi. 1220 01:11:05,135 --> 01:11:07,930 Mayoritas negara yang menjadi target adalah negara-negara 1221 01:11:08,013 --> 01:11:10,099 yang menjalankan pemilu demokratis. 1222 01:11:10,724 --> 01:11:12,518 Ini terjadi dalam skala besar. 1223 01:11:12,601 --> 01:11:15,562 Oleh pihak negara dan pemilik jutaan dolar yang berkata, 1224 01:11:15,646 --> 01:11:18,524 "Aku ingin mengacaukan Kenya atau Kamerun. 1225 01:11:18,607 --> 01:11:20,651 Angola? Itu hanya seharga ini." 1226 01:11:20,734 --> 01:11:23,362 Pemilu luar biasa berlangsung hari Minggu lalu di Brasil. 1227 01:11:23,445 --> 01:11:25,823 Dengan kampanye yang didukung media sosial. 1228 01:11:31,036 --> 01:11:33,956 Kami dari industri teknologi telah menciptakan alat 1229 01:11:34,248 --> 01:11:37,418 untuk mengacaukan dan mengikis struktur masyarakat, 1230 01:11:37,501 --> 01:11:40,254 di setiap negara sekaligus, di mana-mana. 1231 01:11:40,337 --> 01:11:44,508 Ini terjadi di Jerman, Spanyol, Prancis, Brasil, Australia. 1232 01:11:44,591 --> 01:11:46,927 Beberapa negara maju di dunia 1233 01:11:47,428 --> 01:11:49,221 kini saling menghancurkan 1234 01:11:49,305 --> 01:11:50,931 dan apa kesamaan mereka? 1235 01:11:51,974 --> 01:11:56,312 Sepengetahuanmu, apa kau percaya Facebook memengaruhi hasil pemilu 2016? 1236 01:11:56,854 --> 01:11:58,188 Itu sulit. 1237 01:11:59,148 --> 01:12:00,024 Itu... 1238 01:12:01,275 --> 01:12:04,653 Kenyataannya adalah ada begitu banyak faktor. 1239 01:12:04,737 --> 01:12:07,865 Perwakilan dari Facebook, Twitter, dan Google kembali ke Capitol Hill 1240 01:12:07,948 --> 01:12:09,450 untuk kesaksian hari kedua 1241 01:12:09,533 --> 01:12:12,578 soal campur tangan Rusia dalam pemilu 2016. 1242 01:12:12,661 --> 01:12:17,291 Manipulasi oleh pihak ketiga bukanlah peretasan. 1243 01:12:18,500 --> 01:12:21,462 Rusia tak meretas Facebook. 1244 01:12:21,628 --> 01:12:24,965 Yang mereka lakukan adalah menggunakan alat yang dibuat Facebook 1245 01:12:25,049 --> 01:12:27,843 untuk pengiklan dan pengguna yang sah, 1246 01:12:27,926 --> 01:12:30,346 yang mereka terapkan untuk tujuan jahat. 1247 01:12:31,972 --> 01:12:34,016 Itu seperti perang dengan kendali jarak jauh. 1248 01:12:34,475 --> 01:12:36,602 Satu negara bisa memanipulasi negara lain 1249 01:12:36,685 --> 01:12:39,229 tanpa menyerbu perbatasan fisiknya. 1250 01:12:39,521 --> 01:12:41,023 Kita melihat video kekerasan ini. 1251 01:12:41,106 --> 01:12:43,317 Tampaknya itu bak sampah yang didorong... 1252 01:12:43,400 --> 01:12:45,903 Namun, itu bukan soal siapa yang ingin kita pilih, 1253 01:12:46,362 --> 01:12:50,574 tapi soal menabur kekacauan dan perpecahan di masyarakat. 1254 01:12:50,657 --> 01:12:53,077 Ini terjadi di Huntington Beach, sebuah demonstrasi... 1255 01:12:53,160 --> 01:12:54,870 Ini soal membuat dua pihak 1256 01:12:54,953 --> 01:12:58,082 yang tak bisa dan mau saling mendengar lagi, 1257 01:12:58,165 --> 01:12:59,875 yang tak saling percaya lagi. 1258 01:12:59,958 --> 01:13:02,252 Ini kota tempat kebencian diumbar 1259 01:13:03,295 --> 01:13:05,464 dan berubah menjadi kekerasan rasial. 1260 01:13:05,547 --> 01:13:07,633 KETEGANGAN VIRGINIA TIGA TEWAS DALAM KEKERASAN 1261 01:13:20,145 --> 01:13:20,979 Ben! 1262 01:13:21,605 --> 01:13:22,439 Cassandra! 1263 01:13:22,981 --> 01:13:23,816 - Cass! - Ben! 1264 01:13:23,899 --> 01:13:25,484 Kemari kau! 1265 01:13:27,486 --> 01:13:31,156 Angkat tangan. Berlutut. Tiarap. 1266 01:13:36,120 --> 01:13:37,204 - Tenang... - Ben! 1267 01:13:37,287 --> 01:13:38,580 Hei! Angkat tangan! 1268 01:13:39,623 --> 01:13:41,291 Berbaliklah. Tiarap. 1269 01:13:56,807 --> 01:13:59,643 Apa kita ingin sistem ini dijual kepada penawar tertinggi? 1270 01:13:59,726 --> 01:14:01,311 PRANCIS 2019 1271 01:14:01,395 --> 01:14:05,399 Demokrasi yang bisa dijual dan kita bisa menjangkau benak siapa pun yang kita mau, 1272 01:14:05,482 --> 01:14:08,694 membuat kebohongan pada populasi tertentu dan membuat perang budaya? 1273 01:14:09,236 --> 01:14:10,237 Apa kita mau itu? 1274 01:14:14,783 --> 01:14:16,201 Kita adalah bangsa... 1275 01:14:16,952 --> 01:14:18,620 yang tak saling bicara lagi. 1276 01:14:18,704 --> 01:14:19,997 SENATOR FLORIDA, AS 1277 01:14:20,080 --> 01:14:23,000 Kita bangsa orang yang berhenti berteman dengan orang 1278 01:14:23,083 --> 01:14:25,294 karena pilihan mereka di pemilu lalu. 1279 01:14:25,961 --> 01:14:28,422 Kita bangsa yang mengisolasi diri 1280 01:14:28,505 --> 01:14:30,966 untuk menonton saluran yang membenarkan kita saja. 1281 01:14:32,509 --> 01:14:36,805 Pesan saya hari ini adalah kesukuan menghancurkan kita. 1282 01:14:37,347 --> 01:14:39,183 Ini menghancurkan negara kita. 1283 01:14:40,225 --> 01:14:43,103 Bukan seperti ini cara orang dewasa waras bertindak. 1284 01:14:43,187 --> 01:14:45,397 Jika semua berhak meyakini fakta yang mereka mau, 1285 01:14:45,481 --> 01:14:49,401 tak perlu ada kompromi dan orang-orang tak perlu berkumpul. 1286 01:14:49,485 --> 01:14:51,695 Bahkan, orang-orang tak perlu berinteraksi. 1287 01:14:52,321 --> 01:14:56,617 Kita harus memiliki pemahaman bersama tentang kenyataan. 1288 01:14:57,367 --> 01:14:58,410 Atau kita bukan negara. 1289 01:14:58,911 --> 01:15:02,998 Jadi, solusi jangka panjangnya adalah membangun lebih banyak alat IA 1290 01:15:03,081 --> 01:15:08,128 yang menemukan pola penggunaan layanan yang mustahil dilakukan orang sungguhan. 1291 01:15:08,212 --> 01:15:11,840 Kita mengizinkan para pakar teknologi menganggap ini sebagai masalah 1292 01:15:11,924 --> 01:15:14,009 yang siap mereka pecahkan. 1293 01:15:15,135 --> 01:15:16,470 Itu bohong. 1294 01:15:17,638 --> 01:15:20,766 Orang-orang membahas IA seolah-olah itu akan paham kebenaran. 1295 01:15:21,683 --> 01:15:23,810 IA takkan menyelesaikan masalah ini. 1296 01:15:24,228 --> 01:15:27,189 IA tak bisa memecahkan masalah berita palsu. 1297 01:15:28,649 --> 01:15:31,026 Google tak punya pilihan untuk bilang, 1298 01:15:31,109 --> 01:15:34,363 "Apa ini konspirasi? Apa ini kebenaran?" 1299 01:15:34,655 --> 01:15:36,240 Karena mereka tak tahu kebenaran. 1300 01:15:36,823 --> 01:15:40,410 Mereka tak punya proksi kebenaran yang lebih baik dari klik. 1301 01:15:41,870 --> 01:15:45,123 Jika kita tak setuju soal apa yang benar 1302 01:15:45,207 --> 01:15:47,584 atau kebenaran itu sungguh ada, 1303 01:15:48,293 --> 01:15:49,294 kita akan hancur. 1304 01:15:49,878 --> 01:15:52,089 Ini masalah di bawah masalah lain, 1305 01:15:52,172 --> 01:15:54,424 karena jika tak bisa sepakat soal apa yang benar, 1306 01:15:55,092 --> 01:15:57,803 kita tak bisa keluar dari semua masalah kita. 1307 01:16:05,352 --> 01:16:07,854 Sebaiknya sarankan dia ikuti Klub Sepak Bola Bumi Datar. 1308 01:16:07,938 --> 01:16:10,399 Jangan tunjukkan kabar olahraga lagi. Dia tak tertarik. 1309 01:16:39,970 --> 01:16:42,764 Banyak orang di Silicon Valley yang meyakini sebuah teori 1310 01:16:42,848 --> 01:16:45,225 bahwa kita sedang membangun otak super global 1311 01:16:45,309 --> 01:16:48,020 dan semua pengguna hanyalah neuron kecil yang bisa ditukar. 1312 01:16:48,103 --> 01:16:49,563 Tak ada yang penting. 1313 01:16:50,230 --> 01:16:53,150 Itu memaksa orang mengambil peran aneh 1314 01:16:53,233 --> 01:16:56,069 yang menjadikan kita sebuah elemen komputer kecil 1315 01:16:56,153 --> 01:16:58,905 yang diprogram lewat manipulasi perilaku 1316 01:16:58,989 --> 01:17:02,367 untuk melayani otak raksasa ini dan kita tak penting. 1317 01:17:02,451 --> 01:17:06,455 Kita takkan dibayar, diakui, dan tak bisa menentukan nasib sendiri. 1318 01:17:06,538 --> 01:17:09,416 Kami akan diam-diam memanipulasimu karena kau simpul komputer, 1319 01:17:09,499 --> 01:17:12,336 jadi, kami harus memprogrammu karena begitulah simpul komputer. 1320 01:17:20,093 --> 01:17:21,094 Astaga. 1321 01:17:21,887 --> 01:17:25,390 Saat memikirkan teknologi yang menjadi ancaman eksistensial, 1322 01:17:25,474 --> 01:17:28,060 itu pernyataan berani dan... 1323 01:17:29,603 --> 01:17:33,982 Maka akan mudah bagi kita untuk berpikir, "Baiklah, aku membawa ponsel... 1324 01:17:35,525 --> 01:17:37,235 menggulir, mengeklik, menggunakannya. 1325 01:17:37,319 --> 01:17:39,237 Di mana ancaman eksistensialnya? 1326 01:17:40,238 --> 01:17:41,615 Ada komputer super, 1327 01:17:41,698 --> 01:17:44,034 di sisi lain layar, mengarah ke otakku, 1328 01:17:44,451 --> 01:17:47,537 membuatku menonton satu video lagi. Di mana ancaman eksistensialnya?" 1329 01:17:54,252 --> 01:17:59,341 Ini bukan soal teknologi yang menjadi ancaman eksistensial. 1330 01:18:02,511 --> 01:18:04,721 DENGAR PENDAPAT SENAT AS SOAL TEKNOLOGI PERSUASIF 1331 01:18:04,805 --> 01:18:06,348 Namun, kemampuan teknologi 1332 01:18:06,431 --> 01:18:08,975 untuk menghadirkan kemungkinan terburuk di masyarakat 1333 01:18:09,559 --> 01:18:13,522 dan kemungkinan terburuk itulah ancaman eksistensialnya. 1334 01:18:13,605 --> 01:18:15,899 SENAT AMERIKA SERIKAT 1335 01:18:18,777 --> 01:18:20,570 Jika teknologi menciptakan 1336 01:18:21,655 --> 01:18:24,533 kekacauan massal, kemarahan, ketidaksopanan, 1337 01:18:24,616 --> 01:18:26,326 kurangnya saling percaya, 1338 01:18:27,452 --> 01:18:30,622 kesepian, alienasi, peningkatan polarisasi, 1339 01:18:30,706 --> 01:18:33,333 peretasan pemilu, populisme, 1340 01:18:33,917 --> 01:18:36,962 gangguan, dan ketidakmampuan berfokus pada isu sebenarnya... 1341 01:18:37,963 --> 01:18:39,214 itulah masyarakat. 1342 01:18:40,340 --> 01:18:46,388 Kini masyarakat tak mampu menyembuhkan dirinya 1343 01:18:46,471 --> 01:18:48,724 dan berubah menjadi semacam kekacauan. 1344 01:18:51,977 --> 01:18:54,938 Ini memengaruhi semua orang, meski kita tak memakai produk ini. 1345 01:18:55,480 --> 01:18:57,524 Semua ini telah menjadi Frankenstein digital 1346 01:18:57,607 --> 01:19:00,110 yang mengubah dunia sesuai bayangan mereka, 1347 01:19:00,193 --> 01:19:01,862 entah itu kesehatan mental anak-anak 1348 01:19:01,945 --> 01:19:04,489 atau politik dan wacana politik kita, 1349 01:19:04,573 --> 01:19:07,492 tanpa bertanggung jawab membahasnya di ranah publik. 1350 01:19:07,576 --> 01:19:10,579 - Jadi, itu kembali ke... - Menurutmu siapa yang bertanggung jawab? 1351 01:19:10,662 --> 01:19:13,582 Kurasa kita harus meminta platform bertanggung jawab 1352 01:19:13,665 --> 01:19:15,584 karena saat mengambil alih iklan pemilu, 1353 01:19:15,667 --> 01:19:17,753 mereka bertanggung jawab melindungi pemilu. 1354 01:19:17,836 --> 01:19:20,464 Saat menguasai kesehatan mental anak atau acara Sabtu pagi, 1355 01:19:20,547 --> 01:19:22,716 mereka bertanggung jawab melindungi Sabtu pagi. 1356 01:19:23,800 --> 01:19:27,929 Perlombaan untuk menarik perhatian orang tak akan hilang. 1357 01:19:28,638 --> 01:19:31,850 Teknologi kita akan menjadi lebih menyatu dengan kehidupan kita. 1358 01:19:31,933 --> 01:19:34,978 IA akan lebih mahir memprediksi hal yang membuat kita melihat layar, 1359 01:19:35,061 --> 01:19:37,105 bukan lebih buruk dalam memprediksinya. 1360 01:19:38,940 --> 01:19:42,027 Usiaku 62 tahun, 1361 01:19:42,110 --> 01:19:45,113 makin tua seiring percakapan ini berlangsung, 1362 01:19:45,197 --> 01:19:47,365 tapi aku akan memberitahumu... 1363 01:19:48,700 --> 01:19:52,370 Aku mungkin akan mati dan mungkin akan bersyukur untuk itu 1364 01:19:52,454 --> 01:19:54,372 saat semua ini membuahkan hasil. 1365 01:19:54,790 --> 01:19:59,753 Karena kupikir ini membuatku sangat takut. 1366 01:20:00,921 --> 01:20:03,298 Apa kau sependapat? 1367 01:20:03,548 --> 01:20:06,885 Atau aku bereaksi berlebihan pada situasi yang kurang kuketahui? 1368 01:20:09,930 --> 01:20:11,640 Apa yang paling kau cemaskan? 1369 01:20:15,519 --> 01:20:18,480 Kurasa dalam jangka pendek... 1370 01:20:19,523 --> 01:20:20,524 perang saudara. 1371 01:20:24,444 --> 01:20:29,908 Jika kita teruskan situasi saat ini, anggaplah hingga 20 tahun lagi... 1372 01:20:31,117 --> 01:20:34,579 peradaban kita mungkin akan hancur karena kebodohan yang disengaja. 1373 01:20:34,663 --> 01:20:37,958 Kita mungkin gagal menghadapi tantangan perubahan iklim. 1374 01:20:38,041 --> 01:20:42,087 Kita mungkin memperburuk demokrasi dunia 1375 01:20:42,170 --> 01:20:46,132 sehingga mereka jatuh ke dalam disfungsi autokrat yang aneh. 1376 01:20:46,216 --> 01:20:48,510 Kita mungkin merusak ekonomi global. 1377 01:20:49,135 --> 01:20:52,264 Kita mungkin tak selamat. 1378 01:20:52,347 --> 01:20:54,808 Aku sungguh menganggap ini eksistensial. 1379 01:21:02,482 --> 01:21:04,985 Apa ini generasi terakhir 1380 01:21:05,068 --> 01:21:08,822 yang akan tahu rasanya sebelum ilusi ini terjadi? 1381 01:21:11,074 --> 01:21:14,578 Bagaimana kita terbangun dari matriks saat kita tak tahu ada di matriks? 1382 01:21:17,747 --> 01:21:23,253 "MENJADI UTOPIA ATAU DILUPAKAN, AKAN DITENTUKAN OLEH LOMBA ESTAFET 1383 01:21:23,336 --> 01:21:27,299 HINGGA SAAT TERAKHIR..." BUCKMINSTER FULLER 1384 01:21:27,382 --> 01:21:30,635 Banyak ucapan kami yang terdengar seolah-olah ini... 1385 01:21:31,511 --> 01:21:33,680 hanyalah hanya malapetaka dan kesuraman sepihak. 1386 01:21:33,763 --> 01:21:36,808 Seperti, "Astaga, teknologi menghancurkan dunia... 1387 01:21:36,892 --> 01:21:39,519 dan anak-anak," tapi tidak. 1388 01:21:40,228 --> 01:21:45,567 Ini membingungkan karena ini utopia sekaligus distopia. 1389 01:21:45,942 --> 01:21:50,447 Aku bisa menekan tombol di ponselku dan mobil akan muncul dalam 30 detik, 1390 01:21:50,530 --> 01:21:52,699 lalu aku bisa pergi ke tujuanku. 1391 01:21:53,033 --> 01:21:55,785 Itu ajaib. Itu luar biasa. 1392 01:21:56,161 --> 01:21:58,788 Saat kami membuat tombol "Suka", motivasi kami adalah, 1393 01:21:58,872 --> 01:22:01,499 "Bisakah kita menyebarkan aura positif dan cinta di dunia?" 1394 01:22:01,583 --> 01:22:06,379 Lalu berpikir bahwa kini remaja tertekan saat tak banyak dapat respons "Suka" 1395 01:22:06,463 --> 01:22:08,632 atau itu bisa mengarah ke polarisasi politik, 1396 01:22:08,715 --> 01:22:09,883 tak terpikir oleh kami. 1397 01:22:10,175 --> 01:22:12,344 Kurasa mereka tak berniat jahat. 1398 01:22:13,511 --> 01:22:15,764 Hanya model bisnisnya yang bermasalah. 1399 01:22:15,847 --> 01:22:20,226 Kita bisa menutup layanannya dan menghancurkan apa pun itu, 1400 01:22:20,310 --> 01:22:24,397 nilai pemegang saham 20 miliar dolar, dituntut... 1401 01:22:24,481 --> 01:22:27,108 Namun, kita tak bisa membalikkan keadaan seperti masa lalu. 1402 01:22:27,442 --> 01:22:30,403 Kita bisa membuat modifikasi kecil, tapi pada akhirnya, 1403 01:22:30,487 --> 01:22:34,032 pendapatan dan penggunaan harus meningkat, kuartal dari kuartal. 1404 01:22:34,658 --> 01:22:37,535 Makin besar itu, makin sulit bagi siapa pun untuk berubah. 1405 01:22:38,495 --> 01:22:43,458 Yang kulihat adalah sekelompok orang yang terjebak oleh model bisnis, 1406 01:22:43,541 --> 01:22:46,169 insentif ekonomi, dan tekanan pemegang saham 1407 01:22:46,252 --> 01:22:48,922 yang membuatnya hampir mustahil untuk melakukan hal lain. 1408 01:22:49,005 --> 01:22:50,840 Kurasa kita harus menerima fakta 1409 01:22:50,924 --> 01:22:53,176 bahwa perusahaan boleh berfokus menghasilkan uang. 1410 01:22:53,259 --> 01:22:56,888 Yang buruk adalah saat tak ada regulasi, aturan, dan persaingan 1411 01:22:56,972 --> 01:23:00,850 dan perusahaan bertindak sebagai pemerintah yang asli. 1412 01:23:01,142 --> 01:23:03,353 Lalu mereka berkata, "Kami bisa mengatur diri." 1413 01:23:03,436 --> 01:23:05,981 Itu sebuah kebohongan. Itu konyol. 1414 01:23:06,064 --> 01:23:09,150 Insentif keuangan bisa dibilang mengatur dunia, 1415 01:23:09,234 --> 01:23:15,573 jadi, apa pun solusi masalah ini haruslah mengubah insentif keuangan itu. 1416 01:23:16,157 --> 01:23:18,785 Tak ada alasan fiskal agar perusahaan ini berubah. 1417 01:23:19,160 --> 01:23:21,329 Itu sebabnya kita perlu peraturan. 1418 01:23:21,413 --> 01:23:24,290 Perusahaan telepon punya banyak data sensitif soal kita 1419 01:23:24,374 --> 01:23:27,544 dan ada banyak hukum yang memastikan mereka tak berbuat salah. 1420 01:23:27,627 --> 01:23:31,506 Kita hampir tak punya hukum tentang privasi digital misalnya. 1421 01:23:31,589 --> 01:23:34,426 Kita bisa memajaki pemungutan dan pemrosesan data. 1422 01:23:34,509 --> 01:23:37,554 Sama seperti saat kita membayar tagihan air 1423 01:23:37,637 --> 01:23:39,723 dengan memantau jumlah penggunaan air, 1424 01:23:39,806 --> 01:23:43,226 kenakan pajak pada perusahaan ini atas aset data yang mereka miliki. 1425 01:23:43,309 --> 01:23:44,769 Itu memberi mereka alasan fiskal 1426 01:23:44,853 --> 01:23:47,856 untuk tak memperoleh semua data di planet ini. 1427 01:23:48,148 --> 01:23:50,567 Hukum jauh tertinggal dalam hal ini. 1428 01:23:50,650 --> 01:23:55,864 Yang kutahu, situasi saat ini ada bukan untuk melindungi pengguna, 1429 01:23:55,947 --> 01:23:58,700 tapi untuk perlindungan hak dan privilese 1430 01:23:58,783 --> 01:24:01,453 dari semua perusahaan raksasa yang sangat kaya ini. 1431 01:24:02,203 --> 01:24:05,832 Apa kita akan selalu tunduk kepada orang terkaya dan paling berkuasa? 1432 01:24:05,915 --> 01:24:07,417 Atau kita akan bilang, 1433 01:24:07,959 --> 01:24:12,047 "Ada kalanya saat kepentingan nasional, 1434 01:24:12,130 --> 01:24:15,592 ada kalanya saat kepentingan orang atau para pengguna, 1435 01:24:15,675 --> 01:24:17,385 sebenarnya lebih penting 1436 01:24:18,011 --> 01:24:21,473 daripada keuntungan bagi orang yang sudah menjadi miliarder"? 1437 01:24:21,848 --> 01:24:26,603 Pasar-pasar ini merusak demokrasi dan kebebasan. 1438 01:24:26,686 --> 01:24:28,521 Mereka harus dilarang. 1439 01:24:29,147 --> 01:24:31,816 Ini bukan proposal radikal. 1440 01:24:31,900 --> 01:24:34,194 Ada pasar lain yang kita larang. 1441 01:24:34,277 --> 01:24:36,988 Kita melarang pasar organ manusia. 1442 01:24:37,197 --> 01:24:39,491 Kami melarang pasar budak manusia. 1443 01:24:39,949 --> 01:24:44,037 Karena mereka punya konsekuensi merusak yang tak terelakkan. 1444 01:24:44,662 --> 01:24:45,830 Kita hidup di dunia 1445 01:24:45,914 --> 01:24:50,251 tempat pohon mati bernilai lebih, secara finansial, daripada yang hidup. 1446 01:24:50,335 --> 01:24:53,838 Dunia tempat paus mati lebih berharga daripada yang hidup. 1447 01:24:53,922 --> 01:24:56,341 Jika ekonomi kita terus bekerja seperti itu 1448 01:24:56,424 --> 01:24:58,134 dan perusahaan tak diatur, 1449 01:24:58,218 --> 01:25:00,678 mereka akan terus menghancurkan pohon, 1450 01:25:00,762 --> 01:25:01,763 membunuh paus, 1451 01:25:01,846 --> 01:25:06,101 menambang tanah, dan terus menarik minyak dari tanah, 1452 01:25:06,184 --> 01:25:08,394 meski kita tahu itu menghancurkan planet 1453 01:25:08,478 --> 01:25:12,148 dan membuat dunia yang lebih buruk untuk generasi mendatang. 1454 01:25:12,232 --> 01:25:13,858 Ini pemikiran jangka pendek 1455 01:25:13,942 --> 01:25:16,694 berdasarkan perilaku yang menuhankan keuntungan ini, 1456 01:25:16,778 --> 01:25:20,073 seolah-olah secara ajaib, tiap perusahaan yang bertindak egois ini 1457 01:25:20,156 --> 01:25:21,950 akan memberikan hasil terbaik. 1458 01:25:22,033 --> 01:25:24,494 Ini sudah memengaruhi lingkungan sejak lama. 1459 01:25:24,702 --> 01:25:27,205 Yang menakutkan dan semoga ini menjadi pemicu terakhir 1460 01:25:27,288 --> 01:25:29,249 yang akan menyadarkan kita sebagai peradaban 1461 01:25:29,332 --> 01:25:31,709 akan betapa salahnya teori ini sejak awal 1462 01:25:31,793 --> 01:25:35,004 adalah menganggap bahwa kini kitalah pohon dan pausnya. 1463 01:25:35,088 --> 01:25:37,048 Perhatian kita bisa ditambang. 1464 01:25:37,132 --> 01:25:39,134 Kita akan lebih menguntungkan perusahaan 1465 01:25:39,217 --> 01:25:41,594 jika kita menghabiskan waktu menatap layar, 1466 01:25:41,678 --> 01:25:42,971 menatap iklan, 1467 01:25:43,054 --> 01:25:45,890 daripada menghabiskan waktu itu untuk menikmati hidup. 1468 01:25:45,974 --> 01:25:47,559 Jadi, kini kita melihat akibatnya. 1469 01:25:47,642 --> 01:25:50,687 Kita melihat perusahaan menggunakan inteligensi artifisial yang kuat 1470 01:25:50,770 --> 01:25:53,606 untuk mengakali dan mencari cara menarik perhatian kita 1471 01:25:53,690 --> 01:25:57,068 menuju hal yang mereka mau kita lihat, daripada hal yang paling konsisten 1472 01:25:57,152 --> 01:25:59,237 dengan tujuan, nilai, dan hidup kita. 1473 01:26:02,991 --> 01:26:04,450 PIDATO UTAMA HARI INI STEVE JOBS 1474 01:26:05,535 --> 01:26:06,911 Arti komputer bagiku adalah 1475 01:26:06,995 --> 01:26:10,290 ini alat paling luar biasa yang pernah kami buat. 1476 01:26:11,124 --> 01:26:13,877 Itu setara dengan sepeda untuk pikiran kita. 1477 01:26:15,587 --> 01:26:20,341 Ide soal teknologi manusiawi, itulah awal mula Silicon Valley. 1478 01:26:21,050 --> 01:26:25,722 Lalu kita kehilangan arah karena itu menjadi tindakan yang keren, 1479 01:26:25,805 --> 01:26:27,265 bukan yang benar. 1480 01:26:27,557 --> 01:26:29,726 Dulu internet adalah tempat yang aneh dan gila. 1481 01:26:30,018 --> 01:26:31,394 Itu eksperimental. 1482 01:26:31,519 --> 01:26:34,731 Dulu hal-hal kreatif terjadi di internet dan tentu masih hingga kini, 1483 01:26:34,814 --> 01:26:38,610 tapi kini rasanya itu seperti mal raksasa. 1484 01:26:38,693 --> 01:26:44,282 Aku berpikir, "Astaga, pasti ada sesuatu yang lebih dari itu." 1485 01:26:46,743 --> 01:26:48,411 Kurasa aku hanya optimistis. 1486 01:26:48,494 --> 01:26:52,165 Karena kurasa kita bisa mengubah rupa dan arti media sosial. 1487 01:26:54,250 --> 01:26:57,921 Cara kerja teknologi bukan hukum fisika. Tidak mustahil diubah. 1488 01:26:58,004 --> 01:27:02,175 Ini adalah pilihan yang dibuat manusia sepertiku selama ini. 1489 01:27:02,967 --> 01:27:05,345 Manusia bisa mengubah teknologi itu. 1490 01:27:06,971 --> 01:27:09,974 Pertanyaannya sekarang adalah apakah kita bersedia mengakui 1491 01:27:10,475 --> 01:27:15,438 bahwa hasil buruk itu adalah wujud produk dari pekerjaan kita. 1492 01:27:21,027 --> 01:27:24,864 Kita membangun ini dan bertanggung jawab untuk mengubahnya. 1493 01:27:37,168 --> 01:27:38,711 Model ekstraksi perhatian 1494 01:27:38,795 --> 01:27:42,298 bukanlah cara memperlakukan manusia yang kita mau. 1495 01:27:46,094 --> 01:27:48,137 Ini perasaanku saja atau... 1496 01:27:49,806 --> 01:27:50,848 Pria yang malang. 1497 01:27:51,474 --> 01:27:53,226 Struktur masyarakat yang sehat 1498 01:27:53,309 --> 01:27:56,145 bergantung pada keluarnya kita dari model bisnis merusak ini. 1499 01:28:04,696 --> 01:28:07,782 Kita bisa menuntut produk ini dirancang secara manusiawi. 1500 01:28:09,409 --> 01:28:13,204 Kita bisa menuntut untuk tak diperlakukan sebagai sumber daya yang bisa diekstraksi. 1501 01:28:15,164 --> 01:28:18,459 Tujuannya mungkin bisa berupa cara kita membuat dunia lebih baik. 1502 01:28:20,461 --> 01:28:23,798 Dalam sejarah, setiap ada perubahan ke arah yang lebih baik, 1503 01:28:23,881 --> 01:28:26,342 itu karena seseorang maju dan berkata, 1504 01:28:26,426 --> 01:28:28,428 "Ini bodoh. Kita bisa lebih baik." 1505 01:28:29,178 --> 01:28:32,557 Para kritikuslah yang mendorong perbaikan. 1506 01:28:33,141 --> 01:28:35,393 Para kritikuslah yang benar-benar optimistis. 1507 01:28:38,313 --> 01:28:39,147 Halo. 1508 01:28:46,195 --> 01:28:47,697 Maksudku, itu agak gila, bukan? 1509 01:28:47,780 --> 01:28:51,534 Seolah-olah desain fundamental dari hal ini... 1510 01:28:52,994 --> 01:28:54,954 tidak berjalan ke arah yang baik. 1511 01:28:55,246 --> 01:28:56,873 Seluruhnya. 1512 01:28:56,956 --> 01:29:00,668 Jadi, terdengar gila jika berkata kita harus mengubah semua itu, 1513 01:29:01,169 --> 01:29:03,046 tapi itu yang harus kita lakukan. 1514 01:29:04,380 --> 01:29:05,965 Menurutmu, kita akan berhasil? 1515 01:29:07,425 --> 01:29:08,343 Harus. 1516 01:29:21,314 --> 01:29:24,942 Sepertinya kau sangat optimistis. 1517 01:29:26,194 --> 01:29:27,403 Aku terdengar seperti itu? 1518 01:29:27,653 --> 01:29:30,198 Ya, maksudku... Sulit kupercaya kau terus mengatakan itu 1519 01:29:30,281 --> 01:29:33,326 karena aku berpikir, "Sungguh? Aku merasa kita menuju distopia. 1520 01:29:33,409 --> 01:29:35,370 Aku merasa kita menuju distopia dengan cepat 1521 01:29:35,453 --> 01:29:37,914 dan butuh keajaiban untuk mengeluarkan kita darinya." 1522 01:29:37,997 --> 01:29:40,375 Keajaiban itu, tentu saja, adalah keinginan bersama. 1523 01:29:41,000 --> 01:29:44,587 Aku merasa optimistis kita akan menemukan solusi, 1524 01:29:44,670 --> 01:29:47,048 tapi kurasa itu akan butuh waktu lama. 1525 01:29:47,131 --> 01:29:50,385 Karena tak semua orang menganggap ini sebagai masalah. 1526 01:29:50,468 --> 01:29:55,890 Kurasa salah satu kegagalan besar dalam teknologi saat ini 1527 01:29:55,973 --> 01:29:58,643 adalah kegagalan kepemimpinan 1528 01:29:58,726 --> 01:30:01,979 dari orang-orang yang tampil dan melakukan percakapan terbuka 1529 01:30:02,063 --> 01:30:05,900 yang bukan hanya soal hal-hal baik, tapi juga yang tak sempurna 1530 01:30:05,983 --> 01:30:08,194 agar seseorang bisa membangun sesuatu yang baru. 1531 01:30:08,486 --> 01:30:10,321 Pada akhirnya, 1532 01:30:10,405 --> 01:30:14,617 mesin ini takkan berubah sampai ada tekanan publik yang besar. 1533 01:30:14,700 --> 01:30:18,329 Dengan melakukan percakapan ini dan menyuarakan pendapat kita, 1534 01:30:18,413 --> 01:30:21,082 dalam beberapa kasus melalui teknologi ini, 1535 01:30:21,165 --> 01:30:24,252 kita bisa mulai mengubah keadaan dan pembahasan. 1536 01:30:24,335 --> 01:30:27,004 Ini mungkin terdengar aneh, tapi ini dunia dan komunitasku. 1537 01:30:27,088 --> 01:30:29,674 Aku tak membenci dan mau merugikan Google atau Facebook. 1538 01:30:29,757 --> 01:30:32,885 Aku hanya ingin mengubah mereka agar mereka tak menghancurkan dunia. 1539 01:30:32,969 --> 01:30:35,513 Aku sudah menghapus banyak aplikasi dari ponselku 1540 01:30:35,596 --> 01:30:37,723 yang kurasa hanya membuang waktuku. 1541 01:30:37,807 --> 01:30:40,685 Semua aplikasi media sosial dan berita. 1542 01:30:40,768 --> 01:30:42,520 Aku pun mematikan notifikasi 1543 01:30:42,603 --> 01:30:45,815 pada apa pun yang menggetarkan kakiku dengan informasi 1544 01:30:45,898 --> 01:30:48,943 yang tak tepat waktu dan penting bagiku saat ini. 1545 01:30:49,026 --> 01:30:51,279 Karena alasan itu juga, aku tak mengantongi kue. 1546 01:30:51,362 --> 01:30:53,197 Kurangi jumlah notifikasi yang didapat. 1547 01:30:53,281 --> 01:30:54,449 Matikan notifikasi. 1548 01:30:54,532 --> 01:30:55,950 Mematikan semua notifikasi. 1549 01:30:56,033 --> 01:30:58,536 Aku tak menggunakan Google lagi, tapi Qwant 1550 01:30:58,619 --> 01:31:01,497 yang tak menyimpan riwayat pencarian kita. 1551 01:31:01,581 --> 01:31:04,417 Jangan pernah menerima video rekomendasi di YouTube. 1552 01:31:04,500 --> 01:31:07,003 Selalu memilih. Itu cara melawan yang lain. 1553 01:31:07,295 --> 01:31:12,133 Ada banyak ekstensi Chrome yang menghapus rekomendasi. 1554 01:31:12,216 --> 01:31:15,636 Aku suka kau merekomendasikan sesuatu untuk membatalkan yang kau buat. 1555 01:31:15,720 --> 01:31:16,554 Ya. 1556 01:31:16,929 --> 01:31:18,473 Sebelum membagi, 1557 01:31:18,556 --> 01:31:21,684 periksa fakta, pertimbangkan sumbernya, riset lebih banyak di Google. 1558 01:31:21,767 --> 01:31:25,104 Jika sepertinya itu dirancang untuk memancing emosi kita, 1559 01:31:25,188 --> 01:31:26,314 mungkin memang begitu. 1560 01:31:26,731 --> 01:31:29,025 Intinya, kita memilih dengan klik. 1561 01:31:29,108 --> 01:31:30,359 Jika mengeklik umpan klik, 1562 01:31:30,443 --> 01:31:33,779 kita menciptakan insentif keuangan yang melanggengkan sistem yang ada. 1563 01:31:33,863 --> 01:31:37,909 Pastikan kita mendapat beragam informasi dalam hidupmu sendiri. 1564 01:31:38,117 --> 01:31:40,995 Aku mengikuti orang yang tak kusukai di Twitter 1565 01:31:41,078 --> 01:31:44,207 karena aku ingin melihat sudut pandang berbeda. 1566 01:31:44,582 --> 01:31:46,584 Perhatikan banyak orang di industri teknologi 1567 01:31:46,667 --> 01:31:49,045 tak memberikan perangkat ini kepada anak mereka. 1568 01:31:49,128 --> 01:31:51,255 Anak-anakku tak menggunakan media sosial. 1569 01:31:51,964 --> 01:31:53,549 Apa itu aturan atau... 1570 01:31:53,633 --> 01:31:54,509 Itu aturannya. 1571 01:31:55,092 --> 01:31:57,845 Kami fanatik soal itu. 1572 01:31:57,929 --> 01:31:59,222 Kami gila. 1573 01:31:59,305 --> 01:32:05,603 Kami tak memberikan anak-anak kami waktu di depan layar. 1574 01:32:05,686 --> 01:32:08,564 Aku sudah memikirkan tiga aturan sederhana 1575 01:32:08,648 --> 01:32:12,610 yang mempermudah hidup keluarga dan itu dibenarkan oleh penelitian. 1576 01:32:12,693 --> 01:32:15,571 Aturan pertama adalah tak ada gawai di kamar tidur 1577 01:32:15,655 --> 01:32:17,281 pada waktu tetap setiap malam. 1578 01:32:17,365 --> 01:32:20,535 Apa pun waktunya, 30 menit sebelum tidur, semua gawai keluar. 1579 01:32:20,618 --> 01:32:24,038 Aturan kedua adalah tak ada media sosial sampai SMA. 1580 01:32:24,121 --> 01:32:26,374 Secara pribadi, kurasa usianya harus 16 tahun. 1581 01:32:26,457 --> 01:32:28,960 SMP sudah cukup sulit. Jadi, jauhkan hingga SMA. 1582 01:32:29,043 --> 01:32:32,964 Aturan ketiga adalah menyusun anggaran waktu dengan anak-anak kita. 1583 01:32:33,047 --> 01:32:34,799 Jika bicara dengan mereka dan berkata, 1584 01:32:34,882 --> 01:32:37,802 "Berapa jam sehari kau mau menggunakan gawaimu? 1585 01:32:37,885 --> 01:32:39,637 Menurutmu, berapa durasi yang sesuai," 1586 01:32:39,720 --> 01:32:41,597 jawaban mereka sering kali masuk akal. 1587 01:32:42,056 --> 01:32:44,642 Dengar, aku tahu betul 1588 01:32:44,725 --> 01:32:48,563 aku tak akan membuat semua orang menghapus akun media sosial mereka, 1589 01:32:48,646 --> 01:32:50,439 tapi kurasa ada beberapa orang 1590 01:32:50,523 --> 01:32:54,485 dan membuat beberapa orang menghapus akun mereka itu sangat penting. 1591 01:32:54,569 --> 01:32:58,406 Alasannya adalah itu menciptakan ruang untuk percakapan 1592 01:32:58,489 --> 01:33:00,908 karena aku ingin ada cukup banyak orang di masyarakat 1593 01:33:00,992 --> 01:33:05,079 yang bebas dari mesin manipulasi untuk melakukan percakapan sosial 1594 01:33:05,162 --> 01:33:07,540 yang tak dibatasi oleh mesin manipulasi. 1595 01:33:07,623 --> 01:33:10,126 Jadi, lakukanlah! Keluar dari sistem. 1596 01:33:10,334 --> 01:33:12,670 Ya, hapuslah. Lepaskan benda bodoh itu. 1597 01:33:13,546 --> 01:33:16,507 Dunia ini indah. Lihat, di luar sana bagus. 1598 01:33:18,467 --> 01:33:19,969 IKUTI KAMI DI MEDIA SOSIAL! 1599 01:33:20,052 --> 01:33:21,887 HANYA BERCANDA 1600 01:33:21,971 --> 01:33:27,476 AYO MEMBAHAS CARA MEMPERBAIKINYA THESOCIALDILEMMA.COM 1601 01:33:32,064 --> 01:33:34,609 Terjemahan subtitle oleh Alphino Fajar 1603 01:33:35,305 --> 01:34:35,887 Dukung kami dan jadilah anggota VIP supaya semua iklan tidak ditampilkan di www.OpenSubtitles.org 137011

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.