Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:06,000 --> 00:00:12,074
Iklankan produk atau merek dagang Anda di sini
dengan menghubungi www.OpenSubtitles.org sekarang
2
00:00:19,978 --> 00:00:24,774
"TAK ADA HAL BESAR YANG MEMASUKI
KEHIDUPAN MANUSIA TANPA KUTUKAN."
3
00:00:24,858 --> 00:00:27,861
SOPHOKLES
4
00:00:31,156 --> 00:00:34,659
Ya, mulailah. Silakan duduk
dan buat dirimu nyaman.
5
00:00:37,579 --> 00:00:39,497
- Kau baik-baik saja?
- Ya.
6
00:00:43,043 --> 00:00:44,627
Pengambilan gambar pertama, tandai!
7
00:00:46,880 --> 00:00:48,923
Mau mulai dengan memperkenalkan dirimu?
8
00:00:50,467 --> 00:00:53,636
Halo, Dunia. Aku Bailey.
Pengambilan gambar ketiga.
9
00:00:54,179 --> 00:00:56,264
- Kau baik-baik saja?
- Ini bagian terburuk.
10
00:00:57,515 --> 00:00:58,516
Aku tak suka ini.
11
00:00:59,851 --> 00:01:02,228
Aku bekerja di Facebook
pada tahun 2011 dan 2012.
12
00:01:02,312 --> 00:01:05,190
Aku salah satu pegawai awal Instagram.
13
00:01:05,273 --> 00:01:08,693
Aku bekerja di Google, YouTube.
14
00:01:08,777 --> 00:01:11,696
Apple, Google, Twitter, Palm.
15
00:01:12,739 --> 00:01:15,533
Aku membantu merintis Mozilla Labs
dan beralih ke Firefox.
16
00:01:15,617 --> 00:01:17,994
Sudah siap? Semuanya...
17
00:01:18,078 --> 00:01:18,953
Bagus.
18
00:01:21,206 --> 00:01:22,582
Aku bekerja di Twitter.
19
00:01:22,999 --> 00:01:26,169
Pekerjaan terakhirku di sana
adalah Wakil Presiden Senior Perekayasaan.
20
00:01:27,462 --> 00:01:29,255
Aku mantan Presiden Pinterest.
21
00:01:29,339 --> 00:01:32,717
Sebelum itu, aku Direktur Monetisasi
22
00:01:32,801 --> 00:01:34,260
di Facebook selama lima tahun.
23
00:01:34,344 --> 00:01:37,972
Saat di Twitter, kuhabiskan beberapa tahun
mengelola platform pengembang mereka,
24
00:01:38,056 --> 00:01:40,225
lalu aku menjadi Kepala Produk Pelanggan.
25
00:01:40,308 --> 00:01:44,270
Aku penemu bersama Google Drive,
Gmail Chat,
26
00:01:44,354 --> 00:01:46,856
Halaman Facebook,
dan tombol "Suka" Facebook.
27
00:01:47,440 --> 00:01:50,777
Ya. Ini sebabnya kuhabiskan delapan bulan
28
00:01:50,860 --> 00:01:52,779
berbicara berulang kali dengan pengacara.
29
00:01:54,030 --> 00:01:55,406
Ini membuatku takut.
30
00:01:58,409 --> 00:02:02,914
Saat di sana, aku selalu merasa,
pada dasarnya, itu demi kebaikan.
31
00:02:03,373 --> 00:02:05,375
Entah apa aku merasa seperti itu lagi.
32
00:02:05,458 --> 00:02:10,588
Aku meninggalkan Google pada Juni 2017
karena masalah etika.
33
00:02:10,672 --> 00:02:14,134
Bukan hanya di Google,
tapi industri ini secara umum.
34
00:02:14,217 --> 00:02:15,426
Aku sangat khawatir.
35
00:02:16,719 --> 00:02:17,679
Sangat khawatir.
36
00:02:19,097 --> 00:02:21,808
Saat ini mudah untuk melupakan fakta
37
00:02:21,891 --> 00:02:27,814
bahwa alat ini telah menciptakan
hal-hal indah di dunia.
38
00:02:27,897 --> 00:02:30,233
Mereka mempertemukan
anggota keluarga yang hilang
39
00:02:30,316 --> 00:02:31,943
dan menemukan donor organ.
40
00:02:32,026 --> 00:02:35,613
Maksudku, ada perubahan sistemik berarti
41
00:02:35,697 --> 00:02:37,866
yang terjadi di seluruh dunia
42
00:02:37,949 --> 00:02:40,201
karena semua platform positif ini.
43
00:02:41,035 --> 00:02:42,954
Kurasa kita naif
44
00:02:43,329 --> 00:02:44,914
soal sisi lain dari koin itu.
45
00:02:45,540 --> 00:02:48,585
Ya, setelah semua ini dirilis,
mereka membentuk hidup sendiri.
46
00:02:48,668 --> 00:02:52,005
Cara mereka digunakan tak sesuai
dengan harapan kita.
47
00:02:52,088 --> 00:02:56,509
Aku sangat percaya tak ada yang berniat
menimbulkan semua konsekuensi ini.
48
00:02:56,801 --> 00:02:59,554
Tak ada orang jahat. Sama sekali tidak.
49
00:03:01,639 --> 00:03:03,600
Lantas apa masalahnya?
50
00:03:09,230 --> 00:03:11,357
Apa ada masalah dan apa itu?
51
00:03:18,406 --> 00:03:20,158
Sulit memberi satu jawaban ringkas...
52
00:03:20,241 --> 00:03:22,118
Aku mencoba membahas beragam masalah.
53
00:03:22,577 --> 00:03:23,578
Apa masalahnya?
54
00:03:28,208 --> 00:03:32,253
DOKUMENTER NETFLIX ORIGINAL
55
00:03:33,588 --> 00:03:35,340
Meski menghadapi lonjakan kritik,
56
00:03:35,423 --> 00:03:37,675
perusahaan teknologi besarmakin berkembang.
57
00:03:37,759 --> 00:03:40,929
Seluruh industri teknologi berada
di bawah pengawasan tingkat baru.
58
00:03:41,012 --> 00:03:43,723
Studi baru mengungkap kaitan
59
00:03:43,806 --> 00:03:46,142
antara kesehatan mental
dan penggunaan media sosial.
60
00:03:46,226 --> 00:03:48,478
Hadir untuk membahas riset terbaru...
61
00:03:49,187 --> 00:03:51,397
...yang terjadi tanpa diliput sama sekali.
62
00:03:51,481 --> 00:03:54,025
Puluhan juta warga Amerikasangat kecanduan
63
00:03:54,108 --> 00:03:56,319
terhadap perangkat elektronik mereka.
64
00:03:56,402 --> 00:03:59,364
Itu diperparah oleh faktakini kita bisa mengasingkan diri...
65
00:03:59,447 --> 00:04:00,698
KAWANMU MENANDAIMU DI FOTO
66
00:04:00,782 --> 00:04:02,742
...dalam gelembung, berkat teknologi kami.
67
00:04:02,825 --> 00:04:04,577
Berita palsu menjadi lebih maju
68
00:04:04,661 --> 00:04:06,788
dan mengancam masyarakat di seluruh dunia.
69
00:04:06,871 --> 00:04:10,333
Kami tak menduga ini saat membuat Twitter
lebih dari 12 tahun lalu.
70
00:04:10,416 --> 00:04:12,502
Pemerintah mengatakan mereka tak yakin
71
00:04:12,585 --> 00:04:14,754
serangan siber Rusia akan berhenti.
72
00:04:14,837 --> 00:04:18,132
YouTube dipaksa berfokus
membersihkan situsnya.
73
00:04:18,216 --> 00:04:21,552
TikTok, jika Anda berbicaradengan remaja di luar sana,
74
00:04:21,636 --> 00:04:24,013
mustahil mereka akan menghapusnya...
75
00:04:24,097 --> 00:04:26,349
Hei, Isla, bisa tolong siapkan meja?
76
00:04:26,432 --> 00:04:27,517
Ada pertanyaan serius
77
00:04:27,600 --> 00:04:29,978
soal apakah media sosialmembuat anak kita depresi.
78
00:04:30,061 --> 00:04:32,105
Isla, bisa tolong siapkan mejanya?
79
00:04:32,188 --> 00:04:35,316
Prosedur kosmetik ini menjadisangat populer di kalangan remaja
80
00:04:35,400 --> 00:04:37,944
hingga ahli bedah plastik menamai
sindrom baru untuk itu,
81
00:04:38,027 --> 00:04:40,822
Dismorfia Snapchat,
dengan pasien muda yang ingin operasi
82
00:04:40,905 --> 00:04:43,741
agar mereka bisa mirip
dengan swafoto berfilter mereka.
83
00:04:43,825 --> 00:04:45,910
Aku masih bingung
kenapa kau memberinya itu.
84
00:04:45,994 --> 00:04:49,580
Aku harus bagaimana?
Setiap anak lain di kelasnya punya.
85
00:04:50,164 --> 00:04:51,165
Usianya baru 11 tahun.
86
00:04:51,249 --> 00:04:55,086
Cass, tak ada yang memaksamu memilikinya.
Kau bisa tak terhubung selama kau mau.
87
00:04:55,169 --> 00:04:59,340
Hei, aku terhubung tanpa ponsel.
Aku sedang mengakses internet.
88
00:04:59,424 --> 00:05:03,094
Lagi pula, itu bukan koneksi nyata.
Itu hanya omong kosong...
89
00:05:03,177 --> 00:05:04,971
Kapitalisme pengawasan telah membentuk
90
00:05:05,054 --> 00:05:07,765
politik dan budaya
dalam cara yang tak banyak orang pahami.
91
00:05:07,849 --> 00:05:10,101
ISIS mengilhami para pengikutnyalewat internet
92
00:05:10,184 --> 00:05:12,812
dan kini penganut supremasi kulit putihmelakukannya juga.
93
00:05:12,895 --> 00:05:14,147
Baru-baru ini di India,
94
00:05:14,230 --> 00:05:17,442
massa hakim jalanan di internettelah membunuh lusinan orang...
95
00:05:17,525 --> 00:05:20,361
Ini bukan sekadar berita palsu,tapi juga berkonsekuensi.
96
00:05:20,445 --> 00:05:24,073
Bagaimana cara menangani wabahdi era maraknya berita palsu?
97
00:05:24,157 --> 00:05:26,993
Bisakah kita tertular virus korona
dengan memakan makanan Cina?
98
00:05:27,535 --> 00:05:32,540
Kita telah berubah dari era informasi
menjadi era disinformasi.
99
00:05:32,623 --> 00:05:34,667
Demokrasi kita sedang diserang.
100
00:05:34,751 --> 00:05:38,504
Maksudku adalah, "Kurasa alatyang telah diciptakan hari ini
101
00:05:38,588 --> 00:05:41,799
mulai mengikis struktur sosial
dari cara kerja masyarakat."
102
00:06:00,151 --> 00:06:03,446
Asa memberi ucapan sambutan.
Kita putar videonya.
103
00:06:04,197 --> 00:06:07,325
Lalu, "Hadirin, sambutlah Tristan Harris."
104
00:06:07,408 --> 00:06:08,826
- Benar.
- Bagus.
105
00:06:08,951 --> 00:06:09,952
Jadi, aku naik...
106
00:06:11,204 --> 00:06:12,038
dan...
107
00:06:12,121 --> 00:06:13,748
MANUSIAWI
AGENDA BARU TEKNOLOGI
108
00:06:13,831 --> 00:06:16,042
Intinya katakan,
"Terima kasih sudah datang."
109
00:06:17,919 --> 00:06:22,048
Jadi, hari ini, aku ingin membahas
agenda baru untuk teknologi.
110
00:06:22,131 --> 00:06:25,468
Alasan kami ingin melakukannya
adalah karena jika kita tanyai orang,
111
00:06:25,551 --> 00:06:27,804
"Apa yang salah di industri teknologi
saat ini?"
112
00:06:28,346 --> 00:06:31,641
Ada banyak keluhan, skandal,
113
00:06:31,724 --> 00:06:33,893
pencurian data, kecanduan teknologi,
114
00:06:33,976 --> 00:06:35,978
berita palsu, polarisasi,
115
00:06:36,062 --> 00:06:37,688
dan beberapa pemilu yang diretas.
116
00:06:38,189 --> 00:06:41,609
Namun, adakah sesuatu
di balik semua masalah ini
117
00:06:41,692 --> 00:06:44,654
yang menyebabkan semua ini
terjadi sekaligus?
118
00:06:46,447 --> 00:06:48,658
- Itu sudah bagus?
- Bagus sekali. Ya.
119
00:06:50,827 --> 00:06:52,954
Aku hanya mencoba...
Aku mau orang melihat...
120
00:06:53,037 --> 00:06:55,206
ada masalah yang terjadi
di industri teknologi.
121
00:06:55,289 --> 00:07:00,211
Itu tak bernama
dan itu terkait dengan satu sumber...
122
00:07:05,091 --> 00:07:06,801
Saat kita melihat sekeliling,
123
00:07:07,218 --> 00:07:09,387
rasanya dunia menjadi gila.
124
00:07:12,765 --> 00:07:15,184
Kita harus menanyai diri, apa ini normal?
125
00:07:16,102 --> 00:07:18,896
Atau kita semua terpengaruh
semacam mantra?
126
00:07:22,316 --> 00:07:25,153
MANTAN PAKAR ETIKA DESAIN GOOGLE
127
00:07:25,236 --> 00:07:27,905
PENDIRI BERSAMA
CENTER FOR HUMANE TECHNOLOGY
128
00:07:27,989 --> 00:07:30,491
Kuharap lebih banyak orang bisa memahamicara kerjanya
129
00:07:30,575 --> 00:07:34,036
karena ini seharusnya bukan halyang hanya diketahui industri teknologi.
130
00:07:34,120 --> 00:07:36,289
Itu hal yang seharusnya semua orang tahu.
131
00:07:47,383 --> 00:07:48,301
- Halo!
- Hai.
132
00:07:48,759 --> 00:07:50,595
- Tristan. Senang bertemu kau.
- Tristan?
133
00:07:50,678 --> 00:07:51,721
- Ya.
- Bagus.
134
00:07:53,181 --> 00:07:55,933
Tristan Harris adalahmantan pakar etika desain Google
135
00:07:56,017 --> 00:07:59,353
dan dijuluki sebagai hal paling mirip
dengan nurani bagi Silicon Valley.
136
00:07:59,437 --> 00:08:01,189
Dia meminta industri teknologi membawa
137
00:08:01,272 --> 00:08:04,192
hal yang dia sebut "desain etis"
pada produknya.
138
00:08:04,275 --> 00:08:06,903
Jarang ada orang dalam teknologiyang sejujur itu,
139
00:08:06,986 --> 00:08:10,281
tapi Tristan Harris percayaseseorang harus melakukannya.
140
00:08:11,324 --> 00:08:12,700
Dulu di Google,
141
00:08:12,783 --> 00:08:16,037
aku ada di tim Gmail dan mulai kelelahan
142
00:08:16,120 --> 00:08:18,581
karena kami begitu sering membahas...
143
00:08:19,457 --> 00:08:23,169
harus seperti apa bentuk kotak masuk
dan warnanya.
144
00:08:23,252 --> 00:08:25,880
Aku merasa kecanduan surel
145
00:08:26,297 --> 00:08:27,715
dan kuanggap itu menarik
146
00:08:27,798 --> 00:08:31,511
bahwa tak ada orang di Gmail yang mencoba
membuatnya tak begitu adiktif.
147
00:08:31,969 --> 00:08:34,514
Kupikir,
"Apa ada lagi yang memikirkan ini?
148
00:08:34,597 --> 00:08:36,390
Belum kudengar ada yang membahas ini."
149
00:08:36,849 --> 00:08:41,229
Aku merasa frustrasi
dengan industri teknologi secara umum
150
00:08:41,312 --> 00:08:43,272
karena kita seolah-olah tersesat.
151
00:08:46,984 --> 00:08:49,820
Aku berjuang untuk mencari tahu
152
00:08:49,904 --> 00:08:52,573
cara kami bisa mengubahnya dari dalam.
153
00:08:55,201 --> 00:08:59,497
Saat itulah kuputuskan membuat presentasi,
semacam ajakan untuk bergerak.
154
00:09:00,998 --> 00:09:04,961
Setiap hari, aku pulang dan mengerjakannya
selama beberapa jam setiap malam.
155
00:09:06,170 --> 00:09:11,884
Pada dasarnya tertulis,
belum pernah ada 50 desainer,
156
00:09:12,426 --> 00:09:15,263
dari pria kulit putih berusia 20-35 tahun
di California,
157
00:09:15,888 --> 00:09:19,725
membuat keputusan yang akan berdampak
pada dua miliar orang.
158
00:09:21,018 --> 00:09:24,438
Dua miliar orang akan mendapat ide
yang tak mereka niatkan
159
00:09:24,522 --> 00:09:28,401
karena desainer di Google berkata,
"Ini cara notifikasi bekerja
160
00:09:28,484 --> 00:09:30,778
di layar yang kau lihat saat bangun pagi."
161
00:09:30,861 --> 00:09:35,283
Kami punya tanggung jawab moral
sebagai Google untuk pecahkan masalah ini.
162
00:09:36,075 --> 00:09:37,743
Aku mengirim presentasi ini
163
00:09:37,827 --> 00:09:41,789
ke 15 hingga 20 rekan terdekatku
di Google.
164
00:09:41,872 --> 00:09:44,959
Aku sangat gugup
dan tak yakin bagaimana reaksinya.
165
00:09:46,460 --> 00:09:48,045
Saat bekerja keesokan harinya,
166
00:09:48,129 --> 00:09:50,464
mayoritas laptop menampilkan
presentasi itu.
167
00:09:50,548 --> 00:09:52,049
PERHATIAN
168
00:09:52,133 --> 00:09:54,552
Kemudian pada hari itu,
ada 400 penonton serentak,
169
00:09:54,635 --> 00:09:57,972
jadi, itu terus menyebar.
Aku menerima surel dari seisi perusahaan.
170
00:09:58,180 --> 00:10:00,266
Orang-orang di setiap departemen berkata,
171
00:10:00,349 --> 00:10:02,852
"Aku setuju.
Kulihat ini memengaruhi anak-anakku
172
00:10:02,935 --> 00:10:06,856
dan orang-orang di sekitarku.
Kita harus melakukan sesuatu."
173
00:10:07,481 --> 00:10:10,818
Rasanya seperti aku meluncurkan revolusi
atau semacamnya.
174
00:10:11,861 --> 00:10:15,197
Kemudian, aku tahu
Larry Page diberi tahu soal presentasi ini
175
00:10:15,281 --> 00:10:17,116
dalam tiga pertemuan terpisah hari itu.
176
00:10:17,950 --> 00:10:20,286
Itu menciptakan semacam momen budaya
177
00:10:20,870 --> 00:10:23,205
yang harus Google anggap serius.
178
00:10:26,000 --> 00:10:26,917
Lalu...
179
00:10:28,461 --> 00:10:29,295
sirna.
180
00:10:34,300 --> 00:10:36,135
Semua orang pada tahun 2006...
181
00:10:37,345 --> 00:10:39,221
termasuk kami di Facebook,
182
00:10:39,305 --> 00:10:43,392
sangat mengagumi Google
dan apa yang telah Google bangun,
183
00:10:43,476 --> 00:10:47,396
yaitu sebuah layanan yang sangat berguna,
184
00:10:47,480 --> 00:10:51,442
yang sejauh kami tahu,
memberi banyak kebaikan bagi dunia.
185
00:10:51,525 --> 00:10:55,196
Mereka pun membangun
mesin penghasil uang paralel.
186
00:10:55,696 --> 00:11:00,034
Kami sangat iri dengan itu.
Bagi kami, itu tampak sangat elegan
187
00:11:00,826 --> 00:11:02,161
dan sempurna.
188
00:11:03,037 --> 00:11:05,206
Facebook sudah ada selama dua tahun
189
00:11:05,873 --> 00:11:08,376
dan aku direkrut untuk mencari tahu
190
00:11:08,459 --> 00:11:10,586
model bisnis untuk perusahaan.
191
00:11:10,670 --> 00:11:13,422
Aku Direktur Monetisasi. Intinya adalah,
192
00:11:13,506 --> 00:11:17,051
"Kau yang akan mencari tahu
cara hal ini menghasilkan uang."
193
00:11:17,134 --> 00:11:19,804
Ada banyak orang
yang melakukan banyak pekerjaan,
194
00:11:19,887 --> 00:11:25,643
tapi aku jelas salah satu orang
yang menunjukkan...
195
00:11:26,769 --> 00:11:28,604
kami harus menghasilkan uang...
196
00:11:29,313 --> 00:11:33,651
dan kurasa model pengiklanan ini
mungkin cara yang paling elegan.
197
00:11:43,077 --> 00:11:44,453
Video apa yang baru Ibu kirim?
198
00:11:44,537 --> 00:11:47,790
Itu dari gelar wicara, tapi cukup bagus.
Pria itu genius.
199
00:11:47,873 --> 00:11:50,668
Dia membahas penghapusan media sosial,
yang harus kau lakukan.
200
00:11:50,751 --> 00:11:52,878
Aku mungkin harus mulai
memblokir surelnya.
201
00:11:52,962 --> 00:11:56,048
Sungguh, aku tak paham ucapannya.
Dia lebih buruk dariku.
202
00:11:56,132 --> 00:11:58,467
- Dia hanya memakainya untuk resep.
- Juga bekerja.
203
00:11:58,551 --> 00:12:00,636
- Serta video olahraga.
- Juga tahu kabar kita.
204
00:12:00,720 --> 00:12:03,305
Serta kabar semua orang yang pernah
dia temui di hidupnya.
205
00:12:04,932 --> 00:12:07,893
Jika Anda memeriksaumpan berita media sosial
206
00:12:07,977 --> 00:12:11,731
sambil menonton kami,Anda harus taruh ponselnya dan dengarkan
207
00:12:11,814 --> 00:12:14,817
karena tamu kita berikutnya telah menulis
buku yang luar biasa
208
00:12:14,900 --> 00:12:18,112
soal betapa itu menghancurkan hidup kita.
209
00:12:18,195 --> 00:12:19,447
Tolong sambut penulis
210
00:12:19,530 --> 00:12:24,452
Ten Arguments For DeletingYour Social Media Accounts Right Now,
211
00:12:24,535 --> 00:12:25,786
Jaron Lanier.
212
00:12:26,287 --> 00:12:27,288
Itu benar.
213
00:12:27,997 --> 00:12:31,834
Perusahaan seperti Google dan Facebookadalah yang terkaya
214
00:12:31,917 --> 00:12:33,627
dan tersukses sepanjang masa.
215
00:12:34,295 --> 00:12:36,839
Mereka punya pegawai yang relatif sedikit.
216
00:12:36,922 --> 00:12:40,760
Mereka punya komputer raksasa
yang mudah menghasilkan uang, bukan?
217
00:12:41,510 --> 00:12:45,222
Untuk apa mereka dibayar?
Itu pertanyaan yang sangat penting.
218
00:12:47,308 --> 00:12:50,186
Aku sudah menjadi investordi bidang teknologi selama 35 tahun.
219
00:12:51,020 --> 00:12:54,356
Pada 50 tahun pertama Silicon Valley,industri ini membuat produk,
220
00:12:54,440 --> 00:12:56,525
perangkat keras dan lunak,
dijual ke pelanggan.
221
00:12:56,609 --> 00:12:58,402
Itu bisnis yang sederhana.
222
00:12:58,486 --> 00:13:01,530
Selama sepuluh tahun terakhir,
perusahaan terbesar di Silicon Valley
223
00:13:01,614 --> 00:13:03,866
berbisnis dengan menjual penggunanya.
224
00:13:03,949 --> 00:13:05,910
Bahkan kini agak basi untuk mengatakannya,
225
00:13:05,993 --> 00:13:09,205
tapi karena kita tak membayar produk
yang kita gunakan,
226
00:13:09,288 --> 00:13:12,166
pengiklan membayar
produk yang kita gunakan.
227
00:13:12,249 --> 00:13:14,084
Pengiklan adalah pelanggannya.
228
00:13:14,710 --> 00:13:16,086
Kitalah yang dijual.
229
00:13:16,170 --> 00:13:17,630
Pepatah klasiknya adalah,
230
00:13:17,713 --> 00:13:21,592
"Jika kau tak membayar produknya,
berarti kaulah produknya."
231
00:13:21,675 --> 00:13:23,302
KAULAH PRODUKNYA
232
00:13:23,385 --> 00:13:27,139
Banyak orang berpikir,
"Google hanyalah kotak pencarian
233
00:13:27,223 --> 00:13:29,850
dan Facebook hanya tempat
untuk melihat kabar teman-temanku
234
00:13:29,934 --> 00:13:31,101
dan melihat foto mereka."
235
00:13:31,185 --> 00:13:35,481
Namun, mereka tak sadar
mereka bersaing memikat perhatianmu.
236
00:13:36,524 --> 00:13:41,111
Jadi, Facebook, Snapchat, Twitter,
Instagram, YouTube,
237
00:13:41,195 --> 00:13:45,491
model bisnis perusahaan seperti ini
adalah membuat orang terpaku di layar.
238
00:13:46,283 --> 00:13:49,578
Mari kita cari tahu
cara mendapatkan perhatian orang ini
239
00:13:49,662 --> 00:13:50,955
sebanyak mungkin.
240
00:13:51,455 --> 00:13:53,541
Kami bisa membuatmu
habiskan waktu selama apa?
241
00:13:53,916 --> 00:13:56,794
Kami bisa membuatmu memberi hidupmu
sebanyak apa kepada kami?
242
00:13:58,671 --> 00:14:01,090
Saat memikirkancara kerja beberapa perusahaan ini,
243
00:14:01,173 --> 00:14:02,508
itu mulai menjadi masuk akal.
244
00:14:03,050 --> 00:14:06,095
Ada banyak layanan di internet
yang kita anggap gratis.
245
00:14:06,178 --> 00:14:09,473
Namun, itu tak gratis.
Semua itu dibayar oleh pengiklan.
246
00:14:09,557 --> 00:14:11,559
Kenapa pengiklan membayar perusahaan itu?
247
00:14:11,642 --> 00:14:14,687
Mereka membayar
untuk menampilkan iklan kepada kita.
248
00:14:14,770 --> 00:14:15,729
Kitalah produknya.
249
00:14:15,813 --> 00:14:18,357
Perhatian kita adalah produk
yang dijual ke pengiklan.
250
00:14:18,816 --> 00:14:20,442
Itu agak terlalu sederhana.
251
00:14:20,818 --> 00:14:23,654
Perubahan perlahan, kecil,
dan tak terlihat
252
00:14:23,737 --> 00:14:26,073
dalam perilaku dan persepsi kita,
itulah produknya.
253
00:14:26,156 --> 00:14:27,575
PERUBAHAN PERILAKU DAN PERSEPSI
254
00:14:27,658 --> 00:14:30,244
Itulah produknya.
Hanya itu produk yang mungkin.
255
00:14:30,327 --> 00:14:34,081
Tak ada kemungkinan lain
yang bisa disebut produk.
256
00:14:34,164 --> 00:14:37,251
Hanya itu sumber uang mereka.
257
00:14:37,668 --> 00:14:39,253
Mengubah perilaku,
258
00:14:39,336 --> 00:14:41,714
cara berpikir, dan jati diri kita.
259
00:14:42,631 --> 00:14:45,301
Perubahannya perlahan dan kecil.
260
00:14:45,384 --> 00:14:48,971
Jika bisa datangi seseorang dan berkata,
"Beri aku sepuluh juta dolar
261
00:14:49,054 --> 00:14:54,310
dan akan kuubah dunia
satu persen ke arah yang kau mau..."
262
00:14:54,894 --> 00:14:58,188
Itu dunia! Itu bisa luar biasa
dan harganya mahal.
263
00:14:59,315 --> 00:15:00,149
Baiklah.
264
00:15:00,691 --> 00:15:04,570
Inilah yang selalu diimpikan semua bisnis,
265
00:15:04,653 --> 00:15:10,910
untuk memiliki jaminan keberhasilan
saat iklannya dipasang.
266
00:15:11,285 --> 00:15:12,786
Itulah bisnis mereka.
267
00:15:12,995 --> 00:15:14,788
Mereka menjual kepastian.
268
00:15:14,997 --> 00:15:17,625
Agar sukses dalam bisnis itu,
269
00:15:17,708 --> 00:15:19,752
kita harus punya prediksi bagus.
270
00:15:20,044 --> 00:15:24,173
Prediksi besar dimulai
dengan satu hal penting.
271
00:15:25,215 --> 00:15:26,926
Kita butuh banyak data.
272
00:15:27,009 --> 00:15:29,011
KITA BUTUH BANYAK DATA
273
00:15:29,136 --> 00:15:31,555
Banyak orang menyebut ini
kapitalisme pengawasan.
274
00:15:31,639 --> 00:15:34,350
Kapitalisme yang mengambil untung
dari jejak tak terbatas
275
00:15:34,433 --> 00:15:38,062
dari semua tempat yang semua orang datangi
oleh perusahaan teknologi besar
276
00:15:38,145 --> 00:15:40,397
yang model bisnisnya adalah memastikan
277
00:15:40,481 --> 00:15:42,858
pengiklan bisa sesukses mungkin.
278
00:15:43,150 --> 00:15:45,569
Inilah jenis lokapasar baru saat ini.
279
00:15:45,653 --> 00:15:48,072
Ini lokapasar yang belum pernah ada.
280
00:15:48,822 --> 00:15:55,371
Ini lokapasar yang hanya memperdagangkan
prediksi nilai saham manusia.
281
00:15:56,330 --> 00:15:58,499
Seperti pasar yang memperdagangkan
282
00:15:58,582 --> 00:16:01,585
prediksi nilai saham perut babi
atau minyak.
283
00:16:02,127 --> 00:16:04,713
Kini kita punya pasar yang memperdagangkan
284
00:16:04,797 --> 00:16:07,591
prediksi nilai saham manusia
dalam skala besar
285
00:16:08,175 --> 00:16:13,472
dan pasar itu telah menghasilkan
triliunan dolar
286
00:16:14,014 --> 00:16:19,269
yang menjadikan perusahaan internet
sebagai perusahaan terkaya
287
00:16:19,353 --> 00:16:22,564
dalam sejarah kemanusiaan.
288
00:16:27,444 --> 00:16:31,073
Aku ingin orang tahusemua yang mereka lakukan di internet
289
00:16:31,156 --> 00:16:34,326
diawasi, dilacak, dan diukur.
290
00:16:35,035 --> 00:16:39,623
Setiap tindakan yang kita lakukan dipantau
dan direkam dengan hati-hati.
291
00:16:39,707 --> 00:16:43,836
Misalnya, gambar yang kita lihat
dan berapa lama kita melihatnya.
292
00:16:43,919 --> 00:16:45,796
Ya, sungguh, berapa lama kau melihatnya.
293
00:16:45,879 --> 00:16:47,548
NAVIYA_R
WAKTU KETERLIBATAN
294
00:16:47,631 --> 00:16:49,216
RYAN_M
WAKTU KETERLIBATAN
295
00:16:49,299 --> 00:16:50,426
WREN_F
WAKTU KETERLIBATAN
296
00:16:50,509 --> 00:16:53,804
Mereka tahu saat orang kesepian, depresi,
297
00:16:53,887 --> 00:16:57,099
dan tahu saat orang melihat
foto mantan pasanganmu.
298
00:16:57,182 --> 00:17:00,853
Mereka tahu yang kau lakukan
saat larut malam. Mereka tahu semuanya.
299
00:17:01,228 --> 00:17:03,230
Entah kau introver, ekstrover,
300
00:17:03,313 --> 00:17:06,942
jenis neurosis yang kau punya,
atau seperti apa kepribadianmu.
301
00:17:08,193 --> 00:17:11,613
Mereka punya lebih banyak informasi
soal kita
302
00:17:11,697 --> 00:17:14,324
daripada yang pernah dibayangkan
dalam sejarah manusia.
303
00:17:14,950 --> 00:17:16,452
Ini belum pernah terjadi.
304
00:17:18,579 --> 00:17:22,791
Jadi, semua data yang kita berikan
setiap saat
305
00:17:22,875 --> 00:17:26,754
dimasukkan ke sistem
yang nyaris tak diawasi manusia,
306
00:17:27,463 --> 00:17:30,883
yang terus membuat
prediksi yang makin membaik
307
00:17:30,966 --> 00:17:33,552
tentang apa yang akan kita lakukan
dan siapa kita.
308
00:17:34,887 --> 00:17:36,346
DIREKOMENDASIKAN UNTUKMU
309
00:17:36,430 --> 00:17:39,683
Banyak orang salah memahamibahwa data kita yang dijual.
310
00:17:40,350 --> 00:17:43,187
Memberi data secara gratis
bukanlah minat bisnis Facebook.
311
00:17:45,522 --> 00:17:47,107
Mereka apakan data itu?
312
00:17:51,070 --> 00:17:54,490
Mereka membuat modelyang memprediksi tindakan kita.
313
00:17:54,573 --> 00:17:57,618
Siapa pun yang punya model terbaikakan menang.
314
00:18:02,706 --> 00:18:04,041
Kecepatan gulungnya melambat.
315
00:18:04,124 --> 00:18:06,919
Mendekati akhir rata-rata durasi sesinya,
mengurangi iklan.
316
00:18:07,002 --> 00:18:08,337
Tampilkan teman dan keluarga.
317
00:18:09,671 --> 00:18:11,340
Di sisi lain layar,
318
00:18:11,423 --> 00:18:15,469
mereka seperti punya model boneka voodoo
yang menyerupai kita.
319
00:18:16,762 --> 00:18:18,180
Semua yang pernah kita lakukan,
320
00:18:18,263 --> 00:18:19,473
semua klik yang kita buat,
321
00:18:19,556 --> 00:18:21,683
semua video yang kita tonton,
semua tombol suka.
322
00:18:21,767 --> 00:18:25,354
Semua itu diolah untuk membangun
model yang lebih akurat.
323
00:18:25,896 --> 00:18:27,481
Setelah modelnya ada,
324
00:18:27,564 --> 00:18:29,858
kita bisa memprediksi
hal-hal yang dilakukan orang.
325
00:18:30,150 --> 00:18:31,944
Baiklah, coba aku tes.
326
00:18:32,569 --> 00:18:34,404
Ke mana kau akan pergi, bisa kuprediksi
327
00:18:34,488 --> 00:18:36,198
video apa yang akan terus kau tonton.
328
00:18:36,281 --> 00:18:39,159
Aku bisa memprediksi emosi macam apayang memicumu.
329
00:18:39,243 --> 00:18:40,410
Ya, sempurna.
330
00:18:41,578 --> 00:18:43,372
Kegagalan terhebat tahun ini.
331
00:18:43,747 --> 00:18:44,665
KEGAGALAN HEBAT!
332
00:18:48,627 --> 00:18:51,088
- Sempurna, itu berhasil.
- Disusul video lain.
333
00:18:51,171 --> 00:18:54,049
Bagus. Mari selipkan iklan sepatu
sebelum videonya diputar.
334
00:18:56,426 --> 00:18:59,721
Ada tiga tujuan utamadi banyak perusahaan teknologi ini.
335
00:18:59,805 --> 00:19:03,517
Ada tujuan keterlibatan untuk menaikkanpenggunaanmu, agar terus gulirkan layar.
336
00:19:04,601 --> 00:19:06,145
Ada tujuan pertumbuhan
337
00:19:06,228 --> 00:19:08,689
untuk membuatmu kembali,mengundang banyak teman,
338
00:19:08,772 --> 00:19:10,816
dan agar mereka mengundanglebih banyak teman.
339
00:19:11,650 --> 00:19:14,987
Lalu ada tujuan iklan untuk memastikan
bahwa seiring semua itu terjadi,
340
00:19:15,070 --> 00:19:17,406
kami menghasilkan
uang sebanyak mungkin dari iklan.
341
00:19:19,366 --> 00:19:21,952
Masing-masing tujuan ini ditenagai
oleh algoritme
342
00:19:22,035 --> 00:19:24,454
yang bertugas mencari tahu
apa yang harus ditunjukkan
343
00:19:24,538 --> 00:19:26,165
agar jumlahnya terus naik.
344
00:19:26,623 --> 00:19:29,918
Di Facebook, kami sering membahas ide
345
00:19:30,002 --> 00:19:34,006
untuk bisa mengaturnya sesuai kebutuhan.
346
00:19:34,673 --> 00:19:38,594
Kami membahas
soal meminta Mark mengaturnya.
347
00:19:41,305 --> 00:19:44,600
"Hei, aku ingin lebih banyak pengguna
di Korea hari ini."
348
00:19:45,684 --> 00:19:46,768
Putar pengaturnya.
349
00:19:47,436 --> 00:19:49,271
"Mari tambah iklannya sedikit."
350
00:19:49,980 --> 00:19:51,815
"Tambah monetisasinya sedikit."
351
00:19:53,150 --> 00:19:55,444
Jadi, itu...
352
00:19:55,527 --> 00:19:59,239
Di semua perusahaan ini,
ada tingkat presisi sebesar itu.
353
00:19:59,990 --> 00:20:02,409
- Bung...
- Entah kenapa aku tak diberi kartu.
354
00:20:02,492 --> 00:20:05,704
- Wasit itu payah.
- Kau benar-benar...
355
00:20:05,787 --> 00:20:08,040
- Itu Rebecca. Bicaralah.
- Aku tahu siapa dia.
356
00:20:08,123 --> 00:20:10,834
- Kau saja yang bicara.
- Sedang kuusahakan.
357
00:20:10,918 --> 00:20:14,171
Menurut kalendernya, dia sedang istirahat.
Seharusnya kita sudah mulai.
358
00:20:15,464 --> 00:20:16,465
Mau kudorong dia?
359
00:20:17,132 --> 00:20:18,050
Lakukanlah.
360
00:20:21,720 --> 00:20:24,181
"Temanmu, Tyler, baru bergabung.
Beri lambaian."
361
00:20:26,016 --> 00:20:27,184
Ayolah.
362
00:20:27,267 --> 00:20:28,769
Kirimkan lambaian tangan.
363
00:20:29,394 --> 00:20:31,647
Kau bahkan tidak...
Hei, bicaralah dengannya.
364
00:20:31,730 --> 00:20:34,900
TEMANMU, TYLER, BARU BERGABUNG!
BERI LAMBAIAN!
365
00:20:36,902 --> 00:20:37,986
KONEKSI JARINGAN
366
00:20:38,070 --> 00:20:40,572
Koneksi baru! Baiklah, kita masuk.
367
00:20:40,948 --> 00:20:46,078
Lanjutkan dengan pos
dari pengguna 079044238820, Rebecca.
368
00:20:46,161 --> 00:20:49,790
Ide bagus. Koordinat GPS menunjukkan
jarak mereka berdekatan.
369
00:20:52,167 --> 00:20:55,837
REBECCA_G
KUTEMUKAN BELAHAN JIWAKU!
370
00:20:55,921 --> 00:20:57,172
Dia siap untuk iklan.
371
00:20:57,631 --> 00:20:58,632
Waktu lelang.
372
00:20:58,715 --> 00:21:00,050
PRATINJAU IKLAN
373
00:21:00,509 --> 00:21:02,803
Terjual! Untuk lilin rambut Deep Fade.
374
00:21:03,387 --> 00:21:04,846
Ada 468 penawar yang berminat.
375
00:21:04,930 --> 00:21:08,225
Kita menjual Ben seharga 3,262 sen
untuk satu impresi.
376
00:21:17,109 --> 00:21:21,530
Kita telah menciptakan duniatempat koneksi daring menjadi hal utama,
377
00:21:22,072 --> 00:21:23,907
khususnya bagi generasi muda.
378
00:21:23,991 --> 00:21:28,328
Namun, di dunia itu,setiap dua orang terhubung,
379
00:21:29,162 --> 00:21:33,250
itu hanya bisa didanai
oleh orang ketiga yang licik
380
00:21:33,333 --> 00:21:35,627
yang membayar
untuk memanipulasi dua orang itu.
381
00:21:36,128 --> 00:21:39,381
Jadi, kita menciptakan
seluruh generasi global
382
00:21:39,464 --> 00:21:44,011
yang dibesarkan dalam konteks
bahwa makna sebenarnya dari komunikasi
383
00:21:44,094 --> 00:21:47,431
dan budaya adalah manipulasi.
384
00:21:47,514 --> 00:21:49,725
Kita telah menempatkan penipuan
dan kelicikan
385
00:21:49,808 --> 00:21:52,311
di tengah-tengah dari semua usaha kita.
386
00:21:56,732 --> 00:22:01,153
"SEMUA TEKNOLOGI YANG CANGGIH
387
00:22:01,236 --> 00:22:05,657
TIDAKLAH BERBEDA DARI SULAP."
ARTHUR C. CLARKE
388
00:22:05,741 --> 00:22:07,159
- Pegang sisi lainnya...
- Baik.
389
00:22:07,242 --> 00:22:09,369
- Di mana tempat menaruh yang baik?
- Itu bagus.
390
00:22:09,453 --> 00:22:10,620
- Di sini?
- Ya.
391
00:22:10,704 --> 00:22:13,707
Seperti apa ini tampil di kamera
jika kulakukan...
392
00:22:13,790 --> 00:22:15,500
- Sebenarnya, kami...
- Seperti itu?
393
00:22:15,584 --> 00:22:16,835
- Apa?
- Ya.
394
00:22:16,918 --> 00:22:18,545
- Bisa lakukan lagi?
- Baik.
395
00:22:19,046 --> 00:22:20,589
Ya. Itu mungkin tidak...
396
00:22:20,672 --> 00:22:21,965
Ya.
397
00:22:22,466 --> 00:22:23,884
Yang satu ini kurang...
398
00:22:31,016 --> 00:22:33,268
Chris benar-benar kebingungan di sini.
399
00:22:34,728 --> 00:22:35,562
Apa itu bagus?
400
00:22:35,645 --> 00:22:37,773
SULAP!
401
00:22:37,856 --> 00:22:41,068
Usiaku lima tahun saat belajar sulap.
402
00:22:41,151 --> 00:22:45,781
Aku bisa membodohi para orang dewasa
yang bergelar doktor.
403
00:22:55,040 --> 00:22:58,919
Pesulap itu hampir seperti ahli saraf
dan psikolog pertama.
404
00:22:59,002 --> 00:23:03,382
Mereka yang pertama memahami
cara kerja pikiran orang.
405
00:23:04,216 --> 00:23:07,677
Mereka secara langsung menguji banyak hal
pada orang-orang.
406
00:23:09,137 --> 00:23:11,139
Seorang pesulap memahami sesuatu,
407
00:23:11,223 --> 00:23:14,017
sebagian dari pikiranmu
yang tak kita sadari.
408
00:23:14,101 --> 00:23:15,936
Itulah yang membuat ilusi berhasil.
409
00:23:16,269 --> 00:23:17,687
Dokter, pengacara,
410
00:23:17,771 --> 00:23:20,607
orang yang tahu cara membuat Boeing 747
atau misil nuklir,
411
00:23:20,690 --> 00:23:24,361
mereka tak lebih tahu
soal betapa rentannya pikiran mereka.
412
00:23:24,444 --> 00:23:26,154
Itu bidang ilmu yang berbeda.
413
00:23:26,571 --> 00:23:28,990
Itulah bidang ilmu yang berlaku
untuk semua manusia.
414
00:23:29,074 --> 00:23:30,909
UNIVERSITAS STANFORD
415
00:23:30,992 --> 00:23:34,079
Dari sudut pandang itu, kita bisa memiliki
pemahaman sangat berbeda
416
00:23:34,162 --> 00:23:35,705
soal hal yang teknologi lakukan.
417
00:23:36,873 --> 00:23:39,584
Saat belajar
di Lab Teknologi Persuasif Stanford,
418
00:23:39,668 --> 00:23:41,044
inilah yang kami pelajari.
419
00:23:41,586 --> 00:23:43,505
Bagaimana memanfaatkan
semua yang kita tahu
420
00:23:43,588 --> 00:23:45,882
tentang psikologi dari cara membujuk orang
421
00:23:45,966 --> 00:23:48,385
dan menjadikannya teknologi?
422
00:23:48,468 --> 00:23:50,762
Banyak dari kalian yang hadir
yang sudah genius.
423
00:23:50,846 --> 00:23:53,682
Kurasa itu benar,
tapi tujuanku adalah menjadikan kalian
424
00:23:53,765 --> 00:23:55,892
genius dalam perubahan perilaku.
425
00:23:56,852 --> 00:24:01,148
Ada banyak tokoh ternama di Silicon Valley
yang mengikuti kelas itu,
426
00:24:01,231 --> 00:24:05,485
tokoh kunci pertumbuhan di Facebook, Uber,
juga perusahaan lain,
427
00:24:05,569 --> 00:24:09,197
dan belajar membuat teknologi
lebih persuasif,
428
00:24:09,614 --> 00:24:10,949
Tristan salah satunya.
429
00:24:12,242 --> 00:24:14,619
Teknologi persuasif itu semacam desain
430
00:24:14,703 --> 00:24:16,580
yang sengaja diterapkan secara ekstrem,
431
00:24:16,663 --> 00:24:18,874
agar kami bisa mengubah
perilaku seseorang.
432
00:24:18,957 --> 00:24:20,542
Kami ingin mereka melakukan sesuatu
433
00:24:20,625 --> 00:24:23,336
dan terus melakukan ini
dengan jari mereka.
434
00:24:23,420 --> 00:24:26,256
Jika tarik layar dan segarkan,
akan muncul hal baru di atas.
435
00:24:26,339 --> 00:24:28,508
Tarik dan segarkan lagi, hal baru.
Setiap kali.
436
00:24:28,592 --> 00:24:33,722
Dalam psikologi,itu disebut penguat intermiten positif.
437
00:24:33,805 --> 00:24:37,142
Kita tak tahu kapan
atau apakah kita akan mendapatkannya.
438
00:24:37,225 --> 00:24:40,061
Itu bekerja seperti mesin slot di Vegas.
439
00:24:40,145 --> 00:24:42,189
Bukan hanya memakai
produknya secara sadar,
440
00:24:42,272 --> 00:24:44,024
tapi aku mau masuk jauh ke batang otak
441
00:24:44,107 --> 00:24:47,652
dan menanamkan kebiasaan secara tak sadar
di dalam dirimu
442
00:24:47,736 --> 00:24:50,780
agar kau diprogram secara lebih mendalam.
443
00:24:50,864 --> 00:24:52,115
Kau bahkan tak sadar.
444
00:24:52,407 --> 00:24:53,867
Pria bernama James Marshall...
445
00:24:53,950 --> 00:24:56,286
Setiap itu tampak di atas meja,
446
00:24:56,369 --> 00:24:59,789
kau melihatnyadan tahu jika kau mengambilnya,
447
00:24:59,873 --> 00:25:01,333
mungkin ada sesuatu untukmu.
448
00:25:01,416 --> 00:25:03,877
Jadi, kau memainkannya
untuk melihat kau dapat apa.
449
00:25:04,211 --> 00:25:06,046
Itu bukan kebetulan, tapi teknik desain.
450
00:25:06,129 --> 00:25:11,134
Dia membawa bungkal emas
ke perwira AD di San Francisco.
451
00:25:12,219 --> 00:25:15,388
Ingatlah, populasi San Francisco hanya...
452
00:25:15,472 --> 00:25:17,432
Contoh lainnya adalah penandaan foto.
453
00:25:19,726 --> 00:25:24,064
Jadi, jika menerima surel yang menyebutkantemanmu baru saja menandaimu di foto,
454
00:25:24,147 --> 00:25:28,568
tentu kau akan membuka surel itudan melihat fotonya.
455
00:25:29,152 --> 00:25:31,947
Itu bukan hal yang bisa kau abaikanbegitu saja.
456
00:25:32,364 --> 00:25:36,326
Ini adalah kepribadian mendalam manusia
yang mereka manfaatkan.
457
00:25:36,409 --> 00:25:37,994
Yang harus kau tanyakan adalah,
458
00:25:38,078 --> 00:25:40,288
"Kenapa surel itu tak berisi fotonya?
459
00:25:40,372 --> 00:25:42,457
Maka akan lebih mudah melihat fotonya."
460
00:25:42,707 --> 00:25:45,919
Saat Facebook menemukan fitur itu,
mereka memaksimalkannya
461
00:25:46,002 --> 00:25:48,505
karena itu dianggap bagus
untuk menumbuhkan aktivitas.
462
00:25:48,588 --> 00:25:51,091
Mari buat orang saling menandai foto
sepanjang hari."
463
00:25:56,263 --> 00:25:58,890
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS
464
00:25:59,349 --> 00:26:00,475
Dia berkomentar.
465
00:26:00,559 --> 00:26:01,434
Bagus.
466
00:26:01,935 --> 00:26:04,688
Rebecca menerimanya dan dia merespons.
467
00:26:04,771 --> 00:26:07,566
Beri tahu Ben Rebecca mengetik
agar kita tak kehilangan dia.
468
00:26:07,649 --> 00:26:08,900
Mengaktifkan elipsis.
469
00:26:09,234 --> 00:26:13,613
SETIDAKNYA SALAH SATU DARI KITA
TAMPAK BAGUS
470
00:26:19,411 --> 00:26:20,787
Bagus, dia menjawab.
471
00:26:21,538 --> 00:26:24,249
Dia mengomentari komentarnya
soal komentarnya di posnya.
472
00:26:25,041 --> 00:26:26,418
Tunggu, dia berhenti mengetik.
473
00:26:26,751 --> 00:26:27,752
Beri isi otomatis.
474
00:26:28,420 --> 00:26:30,005
Emoji. Dia suka emoji.
475
00:26:31,381 --> 00:26:33,758
ISI OTOMATIS
KETERLIBATAN
476
00:26:33,842 --> 00:26:34,676
Dia memilih api.
477
00:26:35,427 --> 00:26:36,803
Tadi kuharap terung.
478
00:26:38,597 --> 00:26:42,726
Ada disiplin dan bidang ilmuyang disebut "peretasan pertumbuhan".
479
00:26:42,809 --> 00:26:47,147
Tim teknisi yang bertugas
meretas psikologi orang
480
00:26:47,230 --> 00:26:48,565
agar dapat pertumbuhan lebih.
481
00:26:48,648 --> 00:26:51,026
Mendapat pendaftaran pengguna
dan keterlibatan lebih,
482
00:26:51,109 --> 00:26:52,861
juga membuat kita mengajak orang lagi.
483
00:26:52,944 --> 00:26:55,989
Setelah semua tes, iterasi,
dan semua ini,
484
00:26:56,072 --> 00:26:57,907
tahu hal terbesar yang kami sadari?
485
00:26:57,991 --> 00:27:00,994
Buat orang ajak tujuh teman
dalam sepuluh hari.
486
00:27:01,953 --> 00:27:02,871
Itu saja.
487
00:27:02,954 --> 00:27:05,498
Dulu Chamath adalah
kepala pertumbuhan Facebook
488
00:27:05,582 --> 00:27:08,251
dan dia sangat terkenal
di industri teknologi
489
00:27:08,335 --> 00:27:11,004
karena memelopori
banyak taktik pertumbuhan
490
00:27:11,087 --> 00:27:14,758
yang digunakan untuk menumbuhkan Facebook
dengan sangat cepat.
491
00:27:14,841 --> 00:27:18,511
Taktik pertumbuhan itu lalu menjadi
standar untuk Silicon Valley.
492
00:27:18,595 --> 00:27:21,222
Itu digunakan di Uber
dan beberapa perusahaan lain.
493
00:27:21,306 --> 00:27:27,062
Salah satu yang dia pelopori adalah
penggunaan uji A/B ilmiah
494
00:27:27,145 --> 00:27:28,480
dari perubahan fitur kecil.
495
00:27:29,022 --> 00:27:30,940
Perusahaan seperti Google dan Facebook
496
00:27:31,024 --> 00:27:34,569
akan mengeluarkan
banyak eksperimen kecil
497
00:27:34,653 --> 00:27:36,821
yang terus mereka lakukan pada pengguna.
498
00:27:36,905 --> 00:27:39,866
Seiring waktu,
dengan terus menjalankan eksperimen ini,
499
00:27:39,949 --> 00:27:42,994
mereka mengembangkan cara paling maksimal
500
00:27:43,078 --> 00:27:45,288
untuk membuat pengguna
melakukan yang mereka mau.
501
00:27:45,372 --> 00:27:46,790
Itu manipulasi.
502
00:27:47,332 --> 00:27:49,417
Kau membuatku merasa
seperti kelinci percobaan.
503
00:27:49,834 --> 00:27:51,961
Kau memang kelinci percobaan.
Kita semua begitu.
504
00:27:52,545 --> 00:27:55,548
Namun, bukan kelinci percobaan
untuk mengembangkan obat kanker.
505
00:27:55,632 --> 00:27:58,134
Mereka bukan mencoba memperalat kita.
506
00:27:58,218 --> 00:28:01,513
Kita hanya zombi dan mereka ingin
kita melihat lebih banyak iklan
507
00:28:01,596 --> 00:28:03,264
agar mereka dapat lebih banyak uang.
508
00:28:03,556 --> 00:28:08,228
Facebook melakukan hal yang mereka sebut"eksperimen penularan skala besar".
509
00:28:08,311 --> 00:28:09,145
Baiklah.
510
00:28:09,229 --> 00:28:12,857
Bagaimana gunakan petunjuk bawah sadardi halaman Facebook
511
00:28:13,400 --> 00:28:17,570
agar lebih banyak orang memilih
di pemilu paruh waktu?
512
00:28:17,987 --> 00:28:20,824
Mereka mendapati
mereka mampu melakukan itu.
513
00:28:20,907 --> 00:28:24,160
Satu hal yang mereka simpulkan
adalah kini kita tahu
514
00:28:24,744 --> 00:28:28,915
kita bisa memengaruhi perilaku
dan emosi dunia nyata
515
00:28:28,998 --> 00:28:32,877
tanpa memicu kesadaran pengguna.
516
00:28:33,503 --> 00:28:37,382
Mereka sama sekali tak tahu.
517
00:28:38,049 --> 00:28:40,427
Kita mengarahkan
mesin inteligensi artifisial ini
518
00:28:40,510 --> 00:28:41,970
pada diri kita
519
00:28:42,053 --> 00:28:46,224
untuk merekayasa balik
pemicu respons kita.
520
00:28:47,100 --> 00:28:49,602
Hampir seperti menstimulasi
sel saraf laba-laba
521
00:28:49,686 --> 00:28:51,479
untuk melihat pemicu respons kakinya.
522
00:28:51,938 --> 00:28:53,940
Ini sungguh semacam eksperimen penjara
523
00:28:54,023 --> 00:28:56,735
tempat kita memaksa orang memasuki matriks
524
00:28:56,818 --> 00:29:00,530
lalu kita mengambil semua uang dan data
dari semua aktivitas mereka
525
00:29:00,613 --> 00:29:01,489
sebagai keuntungan.
526
00:29:01,573 --> 00:29:03,450
Kita bahkan tak tahu itu sedang terjadi.
527
00:29:04,117 --> 00:29:07,912
Kami ingin secara psikologis tahu
cara memanipulasimu secepat mungkin
528
00:29:07,996 --> 00:29:10,081
lalu membalasnya dengan stimulasi dopamin.
529
00:29:10,165 --> 00:29:12,542
Kami melakukannya dengan sangat baik
di Facebook.
530
00:29:12,625 --> 00:29:14,919
Instagram dan WhatsApp melakukannya.
531
00:29:15,003 --> 00:29:17,380
Snapchat dan Twitter melakukannya.
532
00:29:17,672 --> 00:29:19,424
Maksudku, itu persis ide
533
00:29:19,507 --> 00:29:22,427
yang akan dicetuskan
oleh peretas sepertiku
534
00:29:22,510 --> 00:29:27,432
karena kita mengeksploitasi kelemahan
dalam psikologi manusia.
535
00:29:27,766 --> 00:29:33,438
Kupikir kami, para penemu dan pencipta...
536
00:29:33,980 --> 00:29:37,317
Aku, Mark dan...
537
00:29:37,400 --> 00:29:40,403
Kevin Systrom di Instagram,
semua orang ini...
538
00:29:41,154 --> 00:29:46,451
memahami ini secara sadar
dan kami tetap melakukannya.
539
00:29:50,580 --> 00:29:53,750
Tak ada yang marah saat sepeda ditemukan.
540
00:29:55,043 --> 00:29:58,004
Benar, bukan?
Jika semua orang mulai mengendarai sepeda,
541
00:29:58,087 --> 00:30:00,965
tak ada yang bilang,
"Astaga, kita baru merusak masyarakat.
542
00:30:01,049 --> 00:30:03,051
Sepeda memengaruhi orang,
543
00:30:03,134 --> 00:30:05,303
menjauhkan mereka dari anak-anak mereka,
544
00:30:05,386 --> 00:30:08,723
merusak struktur demokrasi,
orang tak tahu mana yang benar."
545
00:30:08,807 --> 00:30:11,476
Kita tak pernah berkata begitu
soal sepeda.
546
00:30:12,769 --> 00:30:16,147
Jika sesuatu adalah alat,
ia hanya duduk diam di sana,
547
00:30:16,731 --> 00:30:18,733
menunggu dengan sabar.
548
00:30:19,317 --> 00:30:22,821
Jika sesuatu bukan alat,
ia menuntut sesuatu darimu,
549
00:30:22,904 --> 00:30:26,533
merayu, memanipulasi,
dan menginginkan sesuatu darimu.
550
00:30:26,950 --> 00:30:30,495
Kita beralih dari memiliki
lingkungan teknologi berbasis alat
551
00:30:31,037 --> 00:30:34,499
ke lingkungan teknologi berbasis kecanduan
dan manipulasi.
552
00:30:34,582 --> 00:30:35,708
Itu yang berubah.
553
00:30:35,792 --> 00:30:39,420
Media sosial bukan alat
yang menunggu untuk digunakan.
554
00:30:39,504 --> 00:30:43,466
Ia punya tujuan dan cara sendiri
untuk memperolehnya
555
00:30:43,550 --> 00:30:45,677
menggunakan psikologimu melawan dirimu.
556
00:30:49,055 --> 00:30:52,517
"HANYA ADA DUA INDUSTRI YANG MENYEBUT
PELANGGAN MEREKA 'PENGGUNA',
557
00:30:52,600 --> 00:30:57,480
NARKOBA DAN PERANTI LUNAK."
EDWARD TUFTE
558
00:30:57,564 --> 00:31:02,193
Beberapa tahun lalu,aku adalah Presiden Pinterest.
559
00:31:03,152 --> 00:31:08,366
Aku pulang dan tak bisa menjauhi ponselku
begitu tiba di rumah,
560
00:31:08,449 --> 00:31:12,161
meski aku punya dua anak kecil
yang butuh cinta dan perhatianku.
561
00:31:12,245 --> 00:31:15,748
Aku ada di dapur, mengetik surel
562
00:31:15,832 --> 00:31:17,625
atau kadang melihat Pinterest.
563
00:31:18,001 --> 00:31:19,627
Kupikir, "Ini sungguh ironis.
564
00:31:19,711 --> 00:31:22,046
Aku akan bekerja di siang hari
565
00:31:22,130 --> 00:31:26,426
dan membangun sesuatu
yang kemudian memanipulasiku."
566
00:31:26,509 --> 00:31:30,096
Aku tak bisa... Maksudku, terkadang,
aku tak bisa menahan diri.
567
00:31:32,307 --> 00:31:36,102
Yang cenderung paling kugunakan
adalah Twitter.
568
00:31:36,728 --> 00:31:38,021
Tadinya Reddit.
569
00:31:38,104 --> 00:31:42,859
Aku bahkan harus membuat perangkat lunak
untuk hapus kecanduanku membaca Reddit.
570
00:31:45,403 --> 00:31:47,780
Aku mungkin kecanduan surel.
571
00:31:47,864 --> 00:31:49,866
Sungguh. Aku merasakannya.
572
00:31:52,577 --> 00:31:54,954
Rasanya menarik
573
00:31:55,038 --> 00:31:58,166
meski aku tahu
apa yang terjadi di balik layar,
574
00:31:58,249 --> 00:32:01,628
aku masih tak bisa mengendalikan
penggunaanku.
575
00:32:01,711 --> 00:32:03,254
Jadi, itu agak menakutkan.
576
00:32:03,630 --> 00:32:07,050
Meski tahu cara kerjanya,
aku masih rentan terhadapnya.
577
00:32:07,133 --> 00:32:09,886
Aku masih akan mengangkat ponsel
dan 20 menit akan berlalu.
578
00:32:12,805 --> 00:32:15,725
Apa kau memeriksa ponsel cerdasmu
sebelum kencing saat pagi
579
00:32:15,808 --> 00:32:17,477
atau sambil kencing saat pagi?
580
00:32:17,560 --> 00:32:19,479
Karena hanya ada dua opsi itu.
581
00:32:19,771 --> 00:32:23,274
Aku berusaha dengan tekad kuat,
582
00:32:23,358 --> 00:32:26,903
"Akan kutaruh dan kutinggalkan ponselku
di mobil saat pulang."
583
00:32:26,986 --> 00:32:30,573
Kurasa aku berkata pada diriku seribu kali
pada seribu hari berbeda,
584
00:32:30,657 --> 00:32:32,659
"Aku takkan membawa ponselku
ke kamar tidur,"
585
00:32:32,742 --> 00:32:34,535
lalu saat pukul 21.00 tiba.
586
00:32:34,619 --> 00:32:37,121
"Aku mau membawa ponselku ke kamar tidur."
587
00:32:37,956 --> 00:32:39,290
Jadi, itu semacam...
588
00:32:39,374 --> 00:32:41,125
Kekuatan tekad adalah usaha pertama,
589
00:32:41,209 --> 00:32:44,295
lalu usaha kedua adalah pemaksaan.
590
00:32:44,379 --> 00:32:45,880
Perkenalkan, ini Kitchen Safe,
591
00:32:45,964 --> 00:32:49,801
Kitchen Safe adalahwadah berpengunci waktu revolusioner baru
592
00:32:49,884 --> 00:32:51,678
yang membantu Anda melawan godaan.
593
00:32:51,761 --> 00:32:56,724
David hanya perlu memasukkan godaan ituke Kitchen Safe.
594
00:32:57,392 --> 00:33:00,603
Selanjutnya, dia memutar tomboluntuk mengatur waktunya
595
00:33:01,479 --> 00:33:04,232
dan akhirnya, dia menekan tomboluntuk mengaktifkan kuncinya.
596
00:33:04,315 --> 00:33:05,525
Kitchen Safe ini bagus...
597
00:33:05,608 --> 00:33:06,693
Kita punya itu, bukan?
598
00:33:06,776 --> 00:33:08,569
...gim video, kartu kredit, dan ponsel.
599
00:33:08,653 --> 00:33:09,654
Ya, benar.
600
00:33:09,779 --> 00:33:11,114
Begitu Kitchen Safe terkunci,
601
00:33:11,197 --> 00:33:13,908
ini tak bisa dibukasampai waktunya mencapai nol.
602
00:33:13,992 --> 00:33:17,537
Jadi, ini masalahnya.
Media sosial adalah narkoba.
603
00:33:17,620 --> 00:33:20,873
Maksudku,
kita punya perintah biologis dasar
604
00:33:20,957 --> 00:33:23,084
untuk terhubung dengan orang lain.
605
00:33:23,167 --> 00:33:25,253
Itu secara langsung memengaruhi
606
00:33:25,378 --> 00:33:28,214
pelepasan dopamin
dalam "jalur kenikmatan".
607
00:33:28,297 --> 00:33:32,510
Jutaan tahun evolusi berada
di balik sistem itu
608
00:33:32,593 --> 00:33:35,596
untuk membuat kita berkumpul
dan hidup di komunitas,
609
00:33:35,680 --> 00:33:38,016
mencari pasangan,
dan menyebarkan spesies kita.
610
00:33:38,099 --> 00:33:41,853
Jadi, tak diragukan lagi medium
seperti media sosial
611
00:33:41,936 --> 00:33:45,690
yang mengoptimalkan
hubungan antarorang ini
612
00:33:45,773 --> 00:33:48,568
akan memiliki potensi kecanduan.
613
00:33:52,739 --> 00:33:54,115
Ayah, hentikan!
614
00:33:55,450 --> 00:33:58,453
Aku harus mengirim seribu Snip lagi
sebelum makan malam.
615
00:33:58,536 --> 00:33:59,537
Snip?
616
00:33:59,620 --> 00:34:01,080
Aku tak tahu apa itu Snip.
617
00:34:01,164 --> 00:34:03,207
- Aromanya enak, Sayang.
- Terima kasih.
618
00:34:03,291 --> 00:34:07,712
Kupikir kita butuh kelima indra
untuk menikmati makan malam kita.
619
00:34:07,795 --> 00:34:11,382
Jadi, kuputuskan tak boleh ada ponsel
di meja malam ini.
620
00:34:11,466 --> 00:34:13,301
Jadi, serahkan kepadaku.
621
00:34:13,801 --> 00:34:14,802
- Sungguh?
- Ya.
622
00:34:15,928 --> 00:34:18,056
- Baiklah.
- Terima kasih. Ben?
623
00:34:18,139 --> 00:34:19,891
- Baik.
- Ibu, si perompak ponsel.
624
00:34:21,100 --> 00:34:21,934
- Dapat.
- Ibu!
625
00:34:22,602 --> 00:34:26,147
Jadi, mereka akan aman di sini
sampai makan malam usai...
626
00:34:27,273 --> 00:34:31,277
dan semua bisa bersantai. Paham?
627
00:34:47,418 --> 00:34:49,253
- Boleh kulihat dari siapa itu?
- Tidak.
628
00:34:54,759 --> 00:34:56,969
Aku akan mengambil garpu lagi.
629
00:34:58,304 --> 00:34:59,263
Terima kasih.
630
00:35:04,727 --> 00:35:06,729
Sayang, kau tak bisa membukanya.
631
00:35:06,813 --> 00:35:08,856
Aku menguncinya satu jam,
jadi, biarkan saja.
632
00:35:11,317 --> 00:35:13,361
Jadi, apa yang harus kita bahas?
633
00:35:13,444 --> 00:35:15,613
Kita bisa membahas
634
00:35:15,696 --> 00:35:17,824
orang gila Extreme Center
yang kuantar hari ini.
635
00:35:17,907 --> 00:35:18,825
Tolong, Frank.
636
00:35:18,908 --> 00:35:22,120
- Aku tak mau membahas politik.
- Ada apa dengan Extreme Center?
637
00:35:22,203 --> 00:35:24,622
- Dia bahkan tak paham.
- Tergantung menanyai siapa.
638
00:35:24,705 --> 00:35:26,624
Bagai bertanya, "Apa salahnya propaganda?"
639
00:35:28,918 --> 00:35:29,919
Isla!
640
00:35:32,797 --> 00:35:33,756
Astaga.
641
00:35:37,135 --> 00:35:38,553
- Kau mau aku...
- Ya.
642
00:35:41,973 --> 00:35:43,933
Aku mencemaskan anak-anakku.
643
00:35:44,016 --> 00:35:46,686
Jika kau punya anak,aku mencemaskan anak-anakmu.
644
00:35:46,769 --> 00:35:50,189
Dengan semua pengetahuan
dan pengalaman yang kupunya,
645
00:35:50,273 --> 00:35:52,108
aku mendebat anak-anakku soal waktu
646
00:35:52,191 --> 00:35:54,443
yang mereka habiskan pada ponsel
dan komputer.
647
00:35:54,694 --> 00:35:56,070
Kuberi tahu putraku,
648
00:35:56,154 --> 00:35:58,197
"Berapa jam yang kau habiskan
pada ponselmu?"
649
00:35:58,281 --> 00:36:01,075
Dia akan bilang, "Maksimal setengah jam."
650
00:36:01,159 --> 00:36:04,829
Kurasa lebih dari 60-90 menit.
651
00:36:04,912 --> 00:36:06,789
Kulihat statistiknya beberapa minggu lalu
652
00:36:06,873 --> 00:36:08,708
- dan itu tiga jam, 45 menit.
- Itu...
653
00:36:11,252 --> 00:36:13,588
Kurasa itu tidak... Rata-rata per hari?
654
00:36:13,671 --> 00:36:15,506
- Ya.
- Mau kuambil sekarang?
655
00:36:15,590 --> 00:36:19,177
Setiap hari, aku mengingatkan anak-anakku
656
00:36:19,260 --> 00:36:21,762
tentang keseimbangan rasa suka dan duka,
657
00:36:21,846 --> 00:36:26,267
kondisi kekurangan dopamin,
dan risiko kecanduan.
658
00:36:26,350 --> 00:36:27,310
Momen penentuan.
659
00:36:27,935 --> 00:36:29,687
Dua jam, 50 menit per hari.
660
00:36:29,770 --> 00:36:31,772
- Coba lihat.
- Kugunakan lama hari ini.
661
00:36:31,856 --> 00:36:33,316
- Tujuh hari ini.
- Itu sebabnya.
662
00:36:33,399 --> 00:36:37,236
Instagram, enam jam, 13 menit.
Jadi, Instagram-ku lebih buruk.
663
00:36:39,572 --> 00:36:43,201
Layarku hancur. Terima kasih, Cass.
664
00:36:44,410 --> 00:36:45,995
Apa maksudmu, "Terima kasih, Cass"?
665
00:36:46,078 --> 00:36:49,290
Kau terus membuat Ibu takut
soal ponsel kita padahal bukan masalah.
666
00:36:49,373 --> 00:36:51,167
Tak butuh ponsel untuk makan malam.
667
00:36:51,250 --> 00:36:53,878
Aku paham maksudmu,
tapi ini bukan masalah besar.
668
00:36:56,047 --> 00:36:58,382
Jika begitu,
coba jangan gunakan selama seminggu.
669
00:37:01,135 --> 00:37:02,178
Ya.
670
00:37:02,261 --> 00:37:06,349
Ya, jika kau bisa menjauhinya
selama seminggu...
671
00:37:07,725 --> 00:37:09,518
akan kubelikan kau layar baru.
672
00:37:11,020 --> 00:37:12,772
- Mulai sekarang?
- Benar.
673
00:37:15,274 --> 00:37:16,859
Baiklah. Setuju.
674
00:37:16,943 --> 00:37:19,111
Namun, kau harus tinggalkan itu di sini,
Kawan.
675
00:37:19,862 --> 00:37:21,405
Baiklah, aku akan mengecasnya.
676
00:37:22,531 --> 00:37:25,076
Mulai saat ini, aku akan menjauh.
677
00:37:25,159 --> 00:37:25,993
Baiklah.
678
00:37:27,703 --> 00:37:29,413
- Waktumu dimulai.
- Satu minggu.
679
00:37:29,497 --> 00:37:30,331
Astaga...
680
00:37:31,457 --> 00:37:32,416
Kau pikir dia bisa?
681
00:37:33,000 --> 00:37:34,543
Entahlah, kita lihat saja.
682
00:37:35,002 --> 00:37:36,128
Makanlah saja, ya?
683
00:37:44,220 --> 00:37:45,680
Makan malam keluarga yang bagus!
684
00:37:47,682 --> 00:37:49,809
Produk teknologi ini tak dirancang
685
00:37:49,892 --> 00:37:53,896
oleh psikolog anak yang berusaha
melindungi dan mengasuh anak.
686
00:37:53,980 --> 00:37:56,148
Namun, hanya didesain
untuk membuat algoritme
687
00:37:56,232 --> 00:37:58,734
yang mahir merekomendasikan
video berikutnya untuk kita
688
00:37:58,818 --> 00:38:02,321
atau membuat kita bisa berfoto
dengan efek.
689
00:38:03,072 --> 00:38:05,324
DUA SUKA
690
00:38:13,291 --> 00:38:15,126
YAKIN INGIN MENGHAPUS?
TIDAK
691
00:38:15,209 --> 00:38:16,210
YA
692
00:38:16,711 --> 00:38:20,256
Itu bukan hanya mengendalikantujuan perhatian mereka.
693
00:38:21,173 --> 00:38:26,304
Media sosial mulai terus menggalilebih dalam ke batang otak,
694
00:38:26,387 --> 00:38:29,765
mengambil alih harga diridan identitas anak.
695
00:38:29,849 --> 00:38:31,851
PERCANTIK AKU
696
00:38:42,069 --> 00:38:43,112
LILY_T
MANIS!
697
00:38:43,195 --> 00:38:44,822
SOPHIA_M
ASTAGA, CANTIK SEKALI
698
00:38:44,905 --> 00:38:46,490
OLIVIA_B
KAU MENGAGUMKAN
699
00:38:46,574 --> 00:38:49,118
AVA_R
BISA PERBESAR TELINGAMU?
700
00:38:52,496 --> 00:38:56,459
Kita berevolusi untuk peduliapakah orang lain di suku kita
701
00:38:56,751 --> 00:38:59,128
memandang kita baik atau tidakkarena itu penting.
702
00:38:59,837 --> 00:39:04,550
Namun, apa kita berevolusi untuk menyadari
pendapat 10.000 orang tentang kita?
703
00:39:04,633 --> 00:39:05,885
Kita tak berevolusi
704
00:39:05,968 --> 00:39:10,348
untuk menerima persetujuan sosial
setiap lima menit.
705
00:39:10,431 --> 00:39:13,392
Kita sama sekali tak dirancang
untuk mengalami itu.
706
00:39:15,394 --> 00:39:19,982
Kita menyesuaikan hidup kitamengikuti pandangan kesempurnaan ini
707
00:39:20,733 --> 00:39:23,527
karena kita mendapat imbalandalam sinyal jangka pendek ini,
708
00:39:23,611 --> 00:39:25,154
ikon hati, suka, dan jempol.
709
00:39:25,237 --> 00:39:28,407
Lalu kita menyatukannya dengan nilai
dan kebenaran.
710
00:39:29,825 --> 00:39:33,329
Alih-alih sebagai hal yang sebenarnya,
yaitu popularitas palsu dan rapuh...
711
00:39:33,913 --> 00:39:37,458
yang hanya sesaat, membuat kita kecanduan,
dan akuilah,
712
00:39:37,541 --> 00:39:39,919
membuat kita hampa sebelum melakukannya.
713
00:39:41,253 --> 00:39:43,381
Karena itu memaksa kita
memasuki lingkaran ganas
714
00:39:43,464 --> 00:39:45,800
yang membuat kita bilang,
"Aku harus apa berikutnya?
715
00:39:45,883 --> 00:39:47,343
Karena aku butuh itu."
716
00:39:48,260 --> 00:39:50,846
Bayangkan itu dilakukan
oleh dua miliar orang lainnya
717
00:39:50,930 --> 00:39:54,767
lalu bayangkan reaksi orang
terhadap persepsi orang lain.
718
00:39:54,850 --> 00:39:56,435
Itu sangat buruk.
719
00:39:56,977 --> 00:39:58,312
Itu benar-benar buruk.
720
00:40:00,856 --> 00:40:05,069
Ada peningkatan besar dalam depresidan kecemasan
721
00:40:05,152 --> 00:40:06,529
bagi remaja Amerika
722
00:40:06,612 --> 00:40:10,950
yang dimulai antara tahun 2011 dan 2013.
723
00:40:11,033 --> 00:40:15,371
Jumlah gadis remaja
dari 100.000 gadis di negara ini
724
00:40:15,454 --> 00:40:19,917
yang dirawat di rumah sakit setiap tahun
karena menyayat atau melukai diri sendiri,
725
00:40:20,000 --> 00:40:23,921
angka itu cukup stabil
sampai sekitar tahun 2010-2011,
726
00:40:24,004 --> 00:40:25,756
lalu mulai naik pesat.
727
00:40:28,717 --> 00:40:32,263
Naik 62 persen
untuk gadis remaja lebih tua.
728
00:40:32,346 --> 00:40:33,931
RAWAT INAP UNTUK LUKA DIRI NONFATAL
729
00:40:34,014 --> 00:40:38,602
Naik 189 persen untuk gadis praremaja.
Itu hampir tiga kali lipat.
730
00:40:40,354 --> 00:40:43,107
Lebih mengerikan lagi,
bunuh diri alami tren yang sama.
731
00:40:43,190 --> 00:40:44,900
TINGKAT BUNUH DIRI AS
PER SEJUTA GADIS
732
00:40:44,984 --> 00:40:47,570
Gadis remaja lebih tua,
usia 15 sampai 19 tahun,
733
00:40:47,653 --> 00:40:51,449
mereka naik 70% dibandingkan
dekade pertama abad ini.
734
00:40:52,158 --> 00:40:55,077
Para gadis praremaja,
yang punya tingkat awal sangat rendah,
735
00:40:55,161 --> 00:40:57,663
mereka naik 151 persen.
736
00:40:58,831 --> 00:41:01,709
Lalu pola itu mengarah ke media sosial.
737
00:41:01,792 --> 00:41:03,961
MEDIA SOSIAL TERSEDIA DI PONSEL
738
737
00:41:04,044 --> 00:41:07,214
Generasi Z,
anak-anak yang lahir usai tahun 1996,
739
00:41:07,298 --> 00:41:10,342
mereka adalah generasi pertama
dalam sejarah
740
00:41:10,426 --> 00:41:12,636
yang terjun ke media sosial
di sekolah menengah.
741
00:41:15,973 --> 00:41:17,683
Bagaimana mereka menghabiskan waktu?
742
00:41:19,727 --> 00:41:22,480
Mereka pulang dari sekolahdan memakai gawai mereka.
743
00:41:24,315 --> 00:41:29,195
Seluruh generasi ini lebih cemas, rapuh,dan tertekan.
744
00:41:30,613 --> 00:41:33,282
Mereka kurang nyaman mengambil risiko.
745
00:41:34,325 --> 00:41:37,536
Tingkat permohonan SIM mereka menurun.
746
00:41:38,954 --> 00:41:41,081
Jumlah orang yang pernah berkencan
747
00:41:41,165 --> 00:41:44,251
atau memiliki hubungan romantismenurun drastis.
748
00:41:47,505 --> 00:41:49,882
Ini perubahan nyata dalam satu generasi.
749
00:41:53,177 --> 00:41:57,306
Ingatlah, untuk semua kasus ini,setiap perawatan di rumah sakit,
750
00:41:57,389 --> 00:42:00,267
ada keluarga yang merasa trauma dan ngeri.
751
00:42:00,351 --> 00:42:02,561
"Astaga, apa yang terjadikepada anak-anak kita?"
752
00:42:19,411 --> 00:42:21,038
Ini sangat jelas bagiku.
753
00:42:22,873 --> 00:42:28,128
Layanan ini membunuh orang
dan menyebabkan orang bunuh diri.
754
00:42:29,088 --> 00:42:33,300
Aku tak mengenal orang tua yang bilang,
"Ya, aku ingin anak-anakku tumbuh dewasa
755
00:42:33,384 --> 00:42:35,135
dengan merasa dimanipulasi
756
00:42:35,678 --> 00:42:36,887
oleh desainer teknologi.
757
00:42:36,971 --> 00:42:39,723
Memanipulasi perhatian
dan menjadikan PR mustahil dikerjakan,
758
00:42:39,807 --> 00:42:42,560
membuat mereka mengikuti
standar kecantikan tak realistis."
759
00:42:42,643 --> 00:42:44,687
Tak ada yang mau itu.
760
00:42:45,104 --> 00:42:46,355
Tak ada yang mau.
761
00:42:46,438 --> 00:42:48,482
Dulu kita punya perlindungan.
762
00:42:48,566 --> 00:42:52,778
Saat anak-anak menonton kartun Sabtu pagi,
kita peduli soal melindungi anak-anak.
763
00:42:52,861 --> 00:42:56,574
Kita bilang, "Kau tak bisa beriklan
kepada anak usia ini dengan cara ini."
764
00:42:57,366 --> 00:42:58,784
Namun, muncul YouTube Kids
765
00:42:58,867 --> 00:43:02,454
yang menghapus
seluruh jual-beli perhatian ini
766
00:43:02,538 --> 00:43:04,915
dan kini semua anak terpapar YouTube Kids.
767
00:43:04,999 --> 00:43:07,668
Semua perlindungan
dan peraturan itu hilang.
768
00:43:10,296 --> 00:43:17,261
WAKTU TANPA PONSEL
769
00:43:18,304 --> 00:43:22,141
Kita melatih dan mengondisikansatu generasi orang baru...
770
00:43:23,434 --> 00:43:29,148
agar ketika kita tak nyaman, kesepian,merasa tak pasti, atau takut,
771
00:43:29,231 --> 00:43:31,775
kita punya penenang digital sendiri
772
00:43:32,526 --> 00:43:36,488
yang menghentikan kemampuan kitauntuk menghadapinya.
773
00:43:53,964 --> 00:43:56,884
Photoshop tak punya ribuan teknisi
di sisi lain layar
774
00:43:56,967 --> 00:43:59,011
yang menggunakan notifikasi,
teman-teman kita,
775
00:43:59,094 --> 00:44:02,431
dan IA untuk memprediksi
apa yang akan membuat kita kecanduan,
776
00:44:02,514 --> 00:44:04,516
memanipulasi kita,
atau mengizinkan pengiklan
777
00:44:04,600 --> 00:44:07,853
menguji 60.000 variasi teks atau warna
778
00:44:07,936 --> 00:44:11,065
untuk tahu cara memanipulasi pikiran kita
dengan sempurna.
779
00:44:11,148 --> 00:44:14,985
Ini jenis kekuasaan dan pengaruh baru.
780
00:44:16,070 --> 00:44:19,156
Sekali lagi kukatakan,
metode yang digunakan
781
00:44:19,239 --> 00:44:22,826
untuk mempermainkan kemampuan orang
untuk kecanduan atau dipengaruhi
782
00:44:22,910 --> 00:44:25,204
mungkin berbeda kali ini
dan mungkin memang begitu.
783
00:44:25,287 --> 00:44:28,749
Mereka berbeda saat koran muncul
dan mesin cetak muncul.
784
00:44:28,832 --> 00:44:31,835
Mereka berbeda saat televisi muncul
785
00:44:31,919 --> 00:44:34,004
lalu muncul tiga jaringan besar dan...
786
00:44:34,463 --> 00:44:36,423
- Saat itu.
- Saat itu, itu maksudku.
787
00:44:36,507 --> 00:44:38,384
Namun, maksudku, ada sebuah tingkat baru
788
00:44:38,467 --> 00:44:42,054
dan tingkat baru itu sudah sering terjadi.
789
00:44:42,137 --> 00:44:45,099
Ini tingkat baru terkini yang kita lihat.
790
00:44:45,391 --> 00:44:48,727
Ada narasi yang berkata,
"Kita beradaptasi saja atas itu.
791
00:44:48,811 --> 00:44:51,188
Kita akan belajar hidup
dengan perangkat ini
792
00:44:51,271 --> 00:44:53,732
seperti belajar hidup dengan yang lain."
793
00:44:53,816 --> 00:44:56,694
Yang luput di sini adalah
ada hal baru di sini.
794
00:44:57,569 --> 00:45:00,322
Mungkin hal paling berbahaya
dari semua ini adalah fakta
795
00:45:00,406 --> 00:45:04,410
bahwa itu didorong oleh teknologi
yang maju dengan sangat pesat.
796
00:45:05,953 --> 00:45:09,081
Kurang lebih,
dari tahun 1960-an hingga saat ini,
797
00:45:09,873 --> 00:45:13,085
kekuatan memproses meningkat
sekitar satu triliun kali.
798
00:45:13,794 --> 00:45:18,340
Tak ada hal yang kita punya
yang laju kenaikannya mendekati itu.
799
00:45:18,424 --> 00:45:22,177
Misalnya, mobil kira-kira hanya naik
dua kali lebih cepat.
800
00:45:22,261 --> 00:45:25,264
Lalu hampir semua yang lainnya
bisa diabaikan.
801
00:45:25,347 --> 00:45:27,182
Mungkin yang terpenting,
802
00:45:27,266 --> 00:45:31,353
sifat manusia, fisiologi, dan otak kita
tak berevolusi sama sekali.
803
00:45:31,854 --> 00:45:35,232
WAKTU TANPA PONSEL
804
00:45:37,401 --> 00:45:41,488
Level pikiran, raga, dan fisik manusia
805
00:45:41,947 --> 00:45:43,907
takkan berubah secara mendasar.
806
00:45:56,837 --> 00:45:58,172
Kita bisa melakukan
807
00:45:58,255 --> 00:46:01,091
rekayasa genetika dan mengembangkanmanusia baru di masa depan,
808
00:46:01,175 --> 00:46:05,220
tapi secara realistis,
kita hidup di dalam perangkat keras, otak,
809
00:46:05,304 --> 00:46:07,222
yang berusia jutaan tahun,
810
00:46:07,306 --> 00:46:10,559
lalu ada sebuah layar dan di baliknya,
811
00:46:10,642 --> 00:46:13,562
ada ribuan teknisi dan komputer super
812
00:46:13,645 --> 00:46:16,106
yang punya tujuan berbeda
dari tujuan kita.
813
00:46:16,190 --> 00:46:19,693
Jadi, siapa yang akan menang
dalam hal itu?
814
00:46:25,699 --> 00:46:26,950
Bagaimana kita bisa kalah?
815
00:46:27,159 --> 00:46:29,703
- Entahlah.
- Di mana dia? Ini tidak normal.
816
00:46:29,787 --> 00:46:32,164
Apa aku mencecarnya
dengan konten teman dan keluarga?
817
00:46:32,247 --> 00:46:34,082
- Mungkin.
- Mungkin karena iklannya.
818
00:46:34,166 --> 00:46:37,795
Tidak. Ada yang salah.
Mari beralih ke mode kebangkitan.
819
00:46:39,671 --> 00:46:44,051
Saat memikirkan IA,kita pikir itu akan merusak dunia.
820
00:46:44,134 --> 00:46:47,221
Anda membayangkan Terminator,
Arnold Schwarzenegger.
821
00:46:47,638 --> 00:46:48,680
Aku akan kembali.
822
00:46:48,806 --> 00:46:52,643
Kita membayangkan pesawat nirawakdan berpikir, "IA akan membunuh orang."
823
00:46:53,644 --> 00:46:59,817
Yang orang lupa adalah
IA sudah mengendalikan dunia saat ini.
824
00:46:59,900 --> 00:47:03,237
Bahkan membicarakan "IA"
hanyalah sebuah metafora.
825
00:47:03,320 --> 00:47:09,451
Di perusahaan seperti Google,
ada banyak ruangan yang sangat besar.
826
00:47:10,327 --> 00:47:13,121
Sebagian ada di bawah tanah,
sebagian lagi ada di bawah air,
827
00:47:13,205 --> 00:47:14,498
yang hanya berisi komputer.
828
00:47:14,581 --> 00:47:17,835
Begitu banyak komputer
sejauh mata memandang.
829
00:47:18,460 --> 00:47:20,504
Mereka sangat saling terhubung
830
00:47:20,587 --> 00:47:22,923
dan menjalankan program yang sangat rumit,
831
00:47:23,006 --> 00:47:26,009
saling mengirim informasi bolak-balik
sepanjang waktu.
832
00:47:26,802 --> 00:47:28,595
Mereka menjalankan beragam program
833
00:47:28,679 --> 00:47:30,806
dan produk pada mesin yang sama.
834
00:47:31,348 --> 00:47:33,684
Sebagiannya adalah algoritme sederhana
835
00:47:33,767 --> 00:47:35,227
dan sebagian lagi algoritme
836
00:47:35,310 --> 00:47:37,521
yang sangat rumit
hingga disebut kecerdasan.
837
00:47:40,148 --> 00:47:43,777
Menurutku, algoritme adalah opiniyang disematkan dalam kode...
838
00:47:45,070 --> 00:47:47,656
dan algoritme itu tidak objektif.
839
00:47:48,365 --> 00:47:51,577
Algoritme dioptimalkan
ke sebuah definisi kesuksesan.
840
00:47:52,244 --> 00:47:53,370
Jadi, bisa dibayangkan
841
00:47:53,453 --> 00:47:57,124
jika perusahaan komersial membuat
sebuah algoritme
842
00:47:57,207 --> 00:47:59,293
untuk definisi kesuksesan bagi mereka,
843
00:47:59,835 --> 00:48:01,378
itu kepentingan komersial.
844
00:48:01,587 --> 00:48:02,671
Biasanya profit.
845
00:48:03,130 --> 00:48:07,384
Kita memberi komputer tujuan,
"Aku ingin hasil ini,"
846
00:48:07,467 --> 00:48:10,262
lalu komputer itu sendiri
belajar melakukannya.
847
00:48:10,345 --> 00:48:12,598
Itulah asal istilah "pemelajaran mesin".
848
00:48:12,681 --> 00:48:14,892
Jadi, setiap hari,
ia menjadi sedikit lebih baik
849
00:48:14,975 --> 00:48:16,894
dalam memilih pos dalam urutan yang tepat
850
00:48:16,977 --> 00:48:19,438
agar kita bisa lebih lama
menggunakan produk itu.
851
00:48:19,521 --> 00:48:22,232
Tak ada yang paham apa yang mereka lakukan
852
00:48:22,316 --> 00:48:23,901
untuk mencapai tujuan itu.
853
00:48:23,984 --> 00:48:28,238
Algoritme itu punya pikiran sendiri,
jadi, meski seseorang menulisnya,
854
00:48:28,906 --> 00:48:30,657
itu ditulis sedemikian rupa
855
00:48:30,741 --> 00:48:35,037
agar setelah kita membuat mesinnya,
mesinnya akan berubah sendiri.
856
00:48:35,120 --> 00:48:37,915
Hanya ada sedikit orang
di semua perusahaan ini,
857
00:48:37,998 --> 00:48:40,000
Facebook, Twitter, dan perusahaan lain...
858
00:48:40,083 --> 00:48:43,795
Hanya sedikit orang yang mengerti
cara kerja sistem itu
859
00:48:43,879 --> 00:48:46,715
dan bahkan mereka tak sepenuhnya mengerti
860
00:48:46,798 --> 00:48:49,551
apa yang akan terjadi
dengan konten tertentu.
861
00:48:49,968 --> 00:48:53,472
Jadi, sebagai manusia,
kita hampir kehilangan kendali
862
00:48:53,555 --> 00:48:55,474
atas sistem ini
863
00:48:55,891 --> 00:48:59,603
karena mereka mengendalikan
informasi yang kita lihat.
864
00:48:59,686 --> 00:49:02,439
Mereka mengendalikan kita
melebihi kita mengendalikan mereka.
865
00:49:03,815 --> 00:49:07,319
Merujuk silang dia dengan yang serupa
di zona geografisnya.
866
00:49:07,402 --> 00:49:09,571
Kembaran psikometrinya.
867
00:49:09,655 --> 00:49:13,700
Ada 13.694 orang yang berperilaku
sepertinya di wilayahnya.
868
00:49:13,784 --> 00:49:16,370
- Apa yang mereka minati?
- Kita butuh hal yang bagus
869
00:49:16,453 --> 00:49:19,957
untuk kebangkitan yang layak,
mengingat hal-hal biasa tak berhasil.
870
00:49:20,040 --> 00:49:22,042
Bahkan gadis manis
di sekolah itu pun tidak.
871
00:49:22,334 --> 00:49:25,253
Menurut analisisku,
menampilkan konten politik Extreme Center
872
00:49:25,337 --> 00:49:28,256
punya potensi keterlibatan jangka panjang
sebesar 62,3%.
873
00:49:28,340 --> 00:49:29,299
Itu tidak buruk.
874
00:49:30,342 --> 00:49:32,010
Namun, bukan awal yang cukup bagus.
875
00:49:32,386 --> 00:49:35,305
Baiklah. Jadi, kita sudah memberitahunya
soal foto yang ditandai,
876
00:49:35,389 --> 00:49:39,017
undangan, peristiwa terkini,
bahkan pesan langsung dari Rebecca.
877
00:49:39,101 --> 00:49:42,771
Bagaimana dengan pengguna 01265923010?
878
00:49:42,854 --> 00:49:44,648
Ya, Ben memberi ikon hati semua posnya.
879
00:49:44,731 --> 00:49:47,776
Semua posnya, selama berbulan-bulan,
lalu berhenti.
880
00:49:47,859 --> 00:49:50,445
Aku menghitung
kemungkinan kebangkitan 92,3 persen
881
00:49:50,529 --> 00:49:52,155
dengan notifikasi soal Ana.
882
00:49:53,907 --> 00:49:55,993
HUBUNGAN BARU
883
00:49:56,535 --> 00:49:57,744
Serta teman barunya.
884
00:49:58,495 --> 00:50:04,001
WAKTU TANPA PONSEL
885
00:50:24,354 --> 00:50:25,981
MANTAN PACARMU PUNYA HUBUNGAN BARU!
886
00:50:26,064 --> 00:50:27,315
Ini pasti bercanda.
887
00:50:35,657 --> 00:50:36,616
Baiklah.
888
00:50:37,576 --> 00:50:38,785
ANA DAN LUIZ BERHUBUNGAN
889
00:50:38,869 --> 00:50:39,703
Apa?
890
00:50:42,122 --> 00:50:44,207
- Kita kembali!
- Ayo menghasilkan uang lagi.
891
00:50:44,291 --> 00:50:46,334
Ya, dan hubungkan mereka
dengan seluruh dunia.
892
00:50:46,418 --> 00:50:49,337
Aku memberinya akses
ke semua informasi yang mungkin dia suka.
893
00:50:49,755 --> 00:50:53,717
Hei, apa kalian pernah berpikir
umpan beritanya bagus untuk Ben?
894
00:50:57,220 --> 00:50:58,221
- Tidak.
- Tidak.
895
00:51:42,349 --> 00:51:44,893
PENGUJIAN A/B
EXTREME CENTRE
896
00:52:20,929 --> 00:52:24,349
Jadi, bayangkan kita membuka Facebook...
897
00:52:24,975 --> 00:52:29,312
dan kita bermain melawan
inteligensi artifisial ini
898
00:52:29,396 --> 00:52:31,314
yang tahu semuanya soal kita.
899
00:52:31,398 --> 00:52:34,568
Mengantisipasi langkah kita berikutnya
dan kita tak tahu apa-apa
900
00:52:34,651 --> 00:52:37,404
kecuali video kucing dan ulang tahun
yang diputar.
901
00:52:37,821 --> 00:52:39,656
Pertarungan itu tak adil!
902
00:52:41,575 --> 00:52:43,869
Ben dan Jerry, saatnya berangkat!
903
00:52:51,126 --> 00:52:51,960
Ben?
904
00:53:02,679 --> 00:53:03,513
Ben.
905
00:53:05,182 --> 00:53:06,057
Ayo.
906
00:53:07,225 --> 00:53:08,894
Waktunya sekolah. Ayo.
907
00:53:31,374 --> 00:53:33,543
- Apa kabarmu hari ini?
- Aku gugup.
908
00:53:33,627 --> 00:53:34,628
- Benarkah?
- Ya.
909
00:53:37,380 --> 00:53:39,049
Kita semua mewaspadai saat
910
00:53:39,132 --> 00:53:42,969
ketika teknologi akan mengalahkan kekuatan
dan kecerdasan manusia.
911
00:53:43,136 --> 00:53:44,846
Kapan itu akan melampaui hal itu,
912
00:53:44,930 --> 00:53:47,015
merebut profesi,
dan lebih pintar dari manusia?
913
00:53:48,141 --> 00:53:50,101
Namun, ada momen lebih awal...
914
00:53:50,977 --> 00:53:55,565
saat teknologi melampaui
dan mengalahkan kelemahan manusia.
915
00:53:57,484 --> 00:54:02,030
Batasan-batasan yang dilampaui ini
berakar pada kecanduan,
916
00:54:02,113 --> 00:54:03,657
polarisasi, radikalisasi,
917
00:54:03,740 --> 00:54:06,368
memicu kemarahan, keangkuhan, semuanya.
918
00:54:07,702 --> 00:54:09,913
Ini mengalahkan sifat manusia
919
00:54:10,705 --> 00:54:13,500
dan sekakmat bagi kemanusiaan.
920
00:54:30,558 --> 00:54:31,434
Maaf.
921
00:54:41,736 --> 00:54:44,656
Salah satu cara yang kucobauntuk membuat orang paham
922
00:54:45,198 --> 00:54:49,786
betapa salahnya umpan berita
dari tempat seperti Facebook
923
00:54:49,869 --> 00:54:51,454
adalah dengan memikirkan Wikipedia.
924
00:54:51,538 --> 00:54:52,872
TAB BARU
925
00:54:52,956 --> 00:54:56,418
Saat kunjungi sebuah laman, kita melihat
hal yang sama dengan orang lain.
926
00:54:56,626 --> 00:55:00,297
Itu satu dari beberapa hal di internet
yang setidaknya menjadi kesamaan kita.
927
00:55:00,380 --> 00:55:03,425
Kini bayangkan sejenak Wikipedia berkata,
928
00:55:03,508 --> 00:55:07,178
"Kita akan memberi tiap orang
definisi yang khusus dan berbeda
929
00:55:07,262 --> 00:55:09,472
dan kita akan dibayar orang untuk itu."
930
00:55:09,556 --> 00:55:13,435
Jadi, Wikipedia memata-matai kita
dan mempertimbangkan,
931
00:55:13,518 --> 00:55:17,188
"Apa yang bisa kulakukan
agar orang ini berubah sedikit
932
00:55:17,272 --> 00:55:19,899
demi kepentingan komersial?" Paham?
933
00:55:19,983 --> 00:55:21,818
Lalu entrinya akan diubah.
934
00:55:22,444 --> 00:55:23,570
Bisa bayangkan itu?
935
00:55:23,653 --> 00:55:26,698
Seharusnya bisa
karena itulah yang terjadi di Facebook.
936
00:55:26,781 --> 00:55:28,992
Itulah yang terjadi
di umpan berita YouTube kita.
937
00:55:29,159 --> 00:55:31,786
Saat kunjungi Google
dan mengetik "perubahan iklim adalah",
938
00:55:31,870 --> 00:55:34,998
kita akan melihat hasil berbeda
tergantung tempat tinggal.
939
00:55:35,081 --> 00:55:36,082
PERUBAHAN IKLIM ADALAH
940
00:55:36,166 --> 00:55:38,460
Di kota tertentu,
akan muncul isian kata otomatis
941
00:55:38,543 --> 00:55:40,462
bertuliskan "perubahan iklim itu hoaks."
942
00:55:40,545 --> 00:55:42,088
Dalam kasus lain, akan muncul
943
00:55:42,172 --> 00:55:44,841
"perubahan iklim menyebabkan
kerusakan alam."
944
00:55:44,924 --> 00:55:48,428
Itu bukan fungsi untuk tampikan kebenaran
soal perubahan iklim,
945
00:55:48,511 --> 00:55:51,097
tapi soal tempat kita
saat mencarinya di Google
946
00:55:51,181 --> 00:55:53,600
dan hal tertentu yang Google tahu
soal minat kita.
947
00:55:55,185 --> 00:55:58,021
Bahkan dua teman yang sangat dekat
sekalipun,
948
00:55:58,104 --> 00:56:00,190
yang punya teman yang hampir sama,
949
00:56:00,273 --> 00:56:02,817
mereka berpikir,"Akan kulihat umpan berita di Facebook.
950
00:56:02,901 --> 00:56:06,738
Aku akan melihat pembaruan yang sama."Namun, tidak seperti itu.
951
00:56:06,821 --> 00:56:08,448
Mereka melihat dunia yang berbeda
952
00:56:08,531 --> 00:56:12,035
karena itu berdasarkan analisis komputersoal apa yang ideal bagi mereka.
953
00:56:12,118 --> 00:56:14,245
SEDANG MENGUDARA
954
00:56:14,329 --> 00:56:18,416
Bisa dibilangitu adalah 2,7 miliar The Truman Show.
955
00:56:18,500 --> 00:56:21,294
Tiap orang punya realitas sendiri
dengan fakta...
956
00:56:22,670 --> 00:56:23,671
mereka sendiri.
957
00:56:23,755 --> 00:56:28,051
Kenapa kau pikirTruman tak pernah hampir mengetahui
958
00:56:28,134 --> 00:56:30,095
kebenaran soal dunianya hingga kini?
959
00:56:31,054 --> 00:56:34,099
Kita menerima kenyataan dunia
yang diberikan kepada kita.
960
00:56:34,182 --> 00:56:35,141
Sesederhana itu.
961
00:56:35,225 --> 00:56:36,393
SEDANG MENGUDARA
962
00:56:36,476 --> 00:56:41,064
Seiring waktu, kita memiliki kesan palsu
bahwa semua orang setuju dengan kita
963
00:56:41,147 --> 00:56:44,067
karena semua orang di umpan berita
tampak seperti kita.
964
00:56:44,567 --> 00:56:49,072
Begitu kita dalam keadaan itu,
ternyata kita mudah dimanipulasi
965
00:56:49,155 --> 00:56:51,741
seperti dimanipulasi oleh pesulap.
966
00:56:51,825 --> 00:56:55,370
Pesulap menunjukkan trik kartu dan bilang,
"Pilih kartu apa saja."
967
00:56:55,453 --> 00:56:58,373
Yang tak kita sadari
adalah mereka sudah mengaturnya
968
00:56:58,456 --> 00:57:00,542
agar kita memilih kartu yang mereka mau.
969
00:57:00,625 --> 00:57:03,169
Begitulah Facebook bekerja.
Ia duduk di sana dan berkata,
970
00:57:03,253 --> 00:57:06,172
"Hei, kau yang memilih teman
dan tautan yang kau ikuti."
971
00:57:06,256 --> 00:57:08,716
Namun, itu omong kosong. Seperti pesulap.
972
00:57:08,800 --> 00:57:11,302
Facebook bertanggung jawab
atas umpan berita kita.
973
00:57:11,386 --> 00:57:14,514
Kita semua hanya menggunakan
fakta yang berbeda.
974
00:57:14,597 --> 00:57:16,474
Saat itu terjadi dalam skala besar,
975
00:57:16,558 --> 00:57:20,770
kita tak bisa lagi menghadapi
atau menyerap informasi
976
00:57:20,854 --> 00:57:23,690
yang bertentangan dengan pandangan dunia
yang kita ciptakan.
977
00:57:23,773 --> 00:57:28,027
Itu berarti kita bukan lagi individu
yang objektif dan konstruktif.
978
00:57:28,778 --> 00:57:32,449
Buka matamu! Jangan percaya kebohongan!
979
00:57:32,532 --> 00:57:35,160
Lalu kita melihat ke sisi lain
980
00:57:35,243 --> 00:57:38,746
dan mulai berpikir,"Bagaimana mereka bisa begitu bodoh?
981
00:57:38,955 --> 00:57:42,125
Lihatlah semua informasi
yang terus kulihat ini.
982
00:57:42,208 --> 00:57:44,711
Kenapa mereka tak melihat info yang sama?"
983
00:57:44,794 --> 00:57:47,297
Jawabannya, "Mereka memang tak melihat
info yang sama."
984
00:57:47,380 --> 00:57:50,800
Buka matamu! Jangan percaya kebohongan!
985
00:57:52,093 --> 00:57:53,678
Seperti apa Partai Republik?
986
00:57:53,761 --> 00:57:55,472
Orang yang tak tahu apa-apa.
987
00:57:55,555 --> 00:57:58,933
Partai Demokrat adalah sindikat kejahatan,
bukan partai politik sungguhan.
988
00:57:59,017 --> 00:58:03,104
Studi besar baru dari Pew Research Center
terhadap 10.000 orang dewasa Amerika
989
00:58:03,188 --> 00:58:05,315
mendapati kita lebih terpecah
dari sebelumnya,
990
00:58:05,398 --> 00:58:09,068
dengan polarisasi pribadi dan politis
di level tertinggi pada 20 tahun terakhir.
991
00:58:09,152 --> 00:58:11,696
POLARISASI POLITIS AS
MEDIAN DEMOKRAT - MEDIAN REPUBLIK
992
00:58:11,779 --> 00:58:14,199
Ada lebih dari sepertiga Partai Republik
yang berkata
993
00:58:14,282 --> 00:58:16,826
Partai Demokrat
adalah ancaman bagi negara
994
00:58:16,910 --> 00:58:20,580
dan seperempat lebih Demokrat
berkata sama soal Partai Republik.
995
00:58:20,663 --> 00:58:24,417
Begitu banyak masalah yang kita bahas,
misalnya seputar polarisasi politik,
996
00:58:24,501 --> 00:58:28,046
ditampilkan secara besar-besaran
di TV kabel.
997
00:58:28,129 --> 00:58:31,007
Media punya masalah yang sama
998
00:58:31,090 --> 00:58:33,343
karena model bisnis mereka, pada umumnya,
999
00:58:33,426 --> 00:58:35,762
adalah menjual perhatian kita
kepada pengiklan.
1000
00:58:35,845 --> 00:58:38,890
Internet adalah cara lebih efisien baru
untuk melakukan itu.
1001
00:58:40,391 --> 00:58:44,145
Di YouTube, aku mengerjakanrekomendasi YouTube.
1002
00:58:44,229 --> 00:58:47,148
Aku khawatir algoritme yang kukerjakan
1003
00:58:47,232 --> 00:58:50,401
sebenarnya meningkatkan polarisasi
di masyarakat.
1004
00:58:50,485 --> 00:58:53,112
Namun, dari sudut pandang waktu menonton,
1005
00:58:53,196 --> 00:58:57,617
polarisasi ini sangat efisien
untuk membuat orang tetap daring.
1006
00:58:58,785 --> 00:59:02,288
Alasan para guru mengajarkan hal inihanyalah karena mereka dibayar.
1007
00:59:02,372 --> 00:59:04,332
- Itu konyol sekali.
- Hei, Benji.
1008
00:59:04,791 --> 00:59:06,459
Tak ada latihan sepak bola hari ini?
1009
00:59:06,543 --> 00:59:08,878
Ada. Aku hanya melihat berita
yang kulewatkan.
1010
00:59:08,962 --> 00:59:11,506
Risetlah sendiri.Info apa pun dari Extreme Center...
1011
00:59:11,589 --> 00:59:14,008
Hal yang kau tonton itu bukan berita.
1012
00:59:15,552 --> 00:59:18,721
Kau selalu membahas betapa kacaunya
keadaan saat ini. Mereka juga.
1013
00:59:19,472 --> 00:59:21,140
Namun, itu hanya propaganda.
1014
00:59:21,224 --> 00:59:24,060
Tak ada yang benar.Intinya adalah apa yang masuk akal.
1015
00:59:24,769 --> 00:59:26,938
Ben, aku serius. Itu buruk untukmu.
1016
00:59:27,021 --> 00:59:28,690
Sebainya kau berlatih sepak bola.
1017
00:59:35,154 --> 00:59:37,490
Aku membagi ini karena aku peduli.
1018
00:59:37,574 --> 00:59:41,077
Aku peduli terhadap kalian yang disesatkandan itu tak baik. Paham?
1019
00:59:41,160 --> 00:59:43,121
Orang mengira algoritme ini dirancang
1020
00:59:43,204 --> 00:59:46,833
untuk memberikan yang mereka inginkan,tapi ternyata tidak.
1021
00:59:46,916 --> 00:59:52,589
Algoritme ini sebenarnya mencoba mencari
beberapa perangkap yang sangat kuat,
1022
00:59:52,672 --> 00:59:56,217
mencari perangkap mana
yang paling sesuai dengan minat kita.
1023
00:59:56,301 --> 00:59:59,512
Lalu jika kita mulai menonton
salah satu video itu,
1024
00:59:59,804 --> 01:00:02,223
itu akan merekomendasikannya
berulang kali.
1025
01:00:02,682 --> 01:00:04,934
Tak ada yang mau ini terjadi.
1026
01:00:05,018 --> 01:00:07,812
Hanya saja, inilah yang dilakukan
sistem rekomendasi.
1027
01:00:07,895 --> 01:00:10,815
Sampai-sampai Kyrie Irving,
pemain basket terkenal,
1028
01:00:11,482 --> 01:00:14,152
berkata dia percaya Bumi datar
yang meminta maaf kemudian
1029
01:00:14,235 --> 01:00:16,404
dan dia menyalahkan
video perangkap di YouTube.
1030
01:00:16,487 --> 01:00:18,656
Kau mengeklik YouTube
1031
01:00:18,740 --> 01:00:21,534
lalu kita masuk ke perangkap
yang sangat dalam.
1032
01:00:21,618 --> 01:00:23,328
Saat dia datang ke NPR untuk berkata,
1033
01:00:23,411 --> 01:00:25,955
"Maaf telah meyakini ini.
Aku tak mau menyesatkan orang,"
1034
01:00:26,039 --> 01:00:28,333
sekelompok siswa di kelas
yang diwawancarai bilang,
1035
01:00:28,416 --> 01:00:30,251
"Penganut Bumi bulat memengaruhinya."
1036
01:00:31,044 --> 01:00:33,963
Teori konspirasi Bumi datar
direkomendasikan
1037
01:00:34,047 --> 01:00:37,634
ratusan juta kali oleh algoritme itu.
1038
01:00:37,800 --> 01:00:39,010
Mudah untuk berpikir
1039
01:00:39,093 --> 01:00:43,890
bahwa hanya beberapa orang bodoh
yang meyakininya,
1040
01:00:43,973 --> 01:00:46,893
tapi algoritme ini makin cerdas
setiap harinya.
1041
01:00:46,976 --> 01:00:50,188
Jadi, kini mereka meyakinkan orang-orang
bahwa Bumi itu datar,
1042
01:00:50,271 --> 01:00:53,983
tapi besok, mereka akan meyakinkanmu
tentang hal keliru lainnya.
1043
01:00:54,317 --> 01:00:57,820
Pada 7 November, tagar "Pizzagate" lahir.
1044
01:00:57,904 --> 01:00:59,197
Pizzagate...
1045
01:01:00,782 --> 01:01:01,658
Astaga.
1046
01:01:03,159 --> 01:01:06,913
Aku masih tak yakinbagaimana awalnya ini terjadi,
1047
01:01:06,996 --> 01:01:12,377
tapi ide bahwa memesan piza berarti
memesan orang yang diperdagangkan.
1048
01:01:12,460 --> 01:01:15,046
Saat grup itu makin besar di Facebook,
1049
01:01:15,129 --> 01:01:19,926
mesin rekomendasi Facebook
mulai menyarankan para pengguna biasa
1050
01:01:20,009 --> 01:01:21,761
untuk bergabung dengan grup Pizzagate.
1051
01:01:22,053 --> 01:01:27,392
Jadi, jika pengguna, misalnya,
anti-vaksin, meyakini teori jejak kimia,
1052
01:01:27,475 --> 01:01:30,645
atau menunjukkan kepada algoritme Facebook
1053
01:01:30,728 --> 01:01:33,398
bahwa mereka cenderung memercayai
teori konspirasi,
1054
01:01:33,481 --> 01:01:36,859
mesin rekomendasi Facebook akan menyajikan
grup Pizzagate.
1055
01:01:36,943 --> 01:01:41,072
Akhirnya, ini berujung pada seorang priayang muncul dengan pistol
1056
01:01:41,155 --> 01:01:44,617
dan memutuskan dia akan membebaskananak-anak dari basemen
1057
01:01:44,701 --> 01:01:47,078
dari tempat piza yang tak punya basemen.
1058
01:01:47,161 --> 01:01:49,997
- Kenapa kau kemari?
- Memastikan tak ada apa-apa di sana.
1059
01:01:50,581 --> 01:01:52,291
- Soal apa?
- Jaringan pedofilia.
1060
01:01:52,375 --> 01:01:53,835
- Soal apa?
- Jaringan pedofilia.
1061
01:01:53,918 --> 01:01:55,878
Maksudnya, Pizzagate.
1062
01:01:55,962 --> 01:02:00,216
Ini contoh teori konspirasi
1063
01:02:00,299 --> 01:02:03,678
yang disebarkan di semua jejaring sosial.
1064
01:02:03,761 --> 01:02:07,974
Mesin rekomendasi jejaring sosial itu
secara sukarela menyajikannya kepada orang
1065
01:02:08,057 --> 01:02:10,643
yang tak pernah sama sekali mencari
istilah "Pizzagate".
1066
01:02:10,727 --> 01:02:12,353
PIZZAGATE
WADAH DEMOKRAT DAN PEDOFIL
1067
01:02:12,437 --> 01:02:14,439
Ada sebuah studi MIT yang menyebutkan
1068
01:02:14,522 --> 01:02:16,441
berita palsu di Twitter menyebar
1069
01:02:16,524 --> 01:02:19,569
enam kali lebih cepat
daripada berita sebenarnya.
1070
01:02:19,902 --> 01:02:21,863
Seperti apa dunia itu
1071
01:02:21,946 --> 01:02:24,907
jika ada yang lebih unggul enam kali lipat
daripada yang lain?
1072
01:02:25,283 --> 01:02:27,660
Kita bisa membayangkan semua hal ini
1073
01:02:27,744 --> 01:02:31,706
seperti mengubah neraca perilaku manusia.
1074
01:02:31,789 --> 01:02:34,709
Mereka membuat sebagian perilaku
lebih sulit atau lebih mudah.
1075
01:02:34,792 --> 01:02:37,420
Kita selalu bebas menghadapi yang sulit,
1076
01:02:37,503 --> 01:02:38,796
tapi jarang ada yang mau.
1077
01:02:38,880 --> 01:02:43,092
Jadi, dalam skala besar di masyarakat,
kita memiringkan neraca itu,
1078
01:02:43,176 --> 01:02:45,970
mengubah pikiran
dan perilaku miliaran orang.
1079
01:02:46,053 --> 01:02:52,018
Kita menciptakan sistem yang berprasangka
terhadap informasi palsu.
1080
01:02:52,643 --> 01:02:54,437
Bukan karena kita mau,
1081
01:02:54,520 --> 01:02:58,816
tapi karena informasi palsu memberi
semua perusahaan itu lebih banyak uang
1082
01:02:59,400 --> 01:03:01,486
daripada kebenaran.
ebenaran itu membosankan.
1083
01:03:01,986 --> 01:03:04,489
Ini model bisnis yang mencari profit
dari disinformasi.
1084
01:03:04,906 --> 01:03:08,159
Kita menghasilkan uang
dengan membebaskan pesan tak terkontrol
1085
01:03:08,701 --> 01:03:11,412
diterima siapa saja dengan harga terbaik.
1086
01:03:11,662 --> 01:03:13,748
Karena perubahan iklim? Ya.
1087
01:03:13,831 --> 01:03:16,751
Itu hoaks. Ya, itu nyata. Itulah intinya.
1088
01:03:16,834 --> 01:03:20,046
Makin sering mereka membahasnyadan makin kita terpecah,
1089
01:03:20,129 --> 01:03:22,340
kekuatan dan kendali merekaakan makin besar.
1090
01:03:22,423 --> 01:03:25,551
Facebook punya triliunan pos umpan beritaseperti ini.
1091
01:03:26,552 --> 01:03:29,263
Mereka tak bisa tahu
apa yang nyata atau benar.
1092
01:03:29,972 --> 01:03:33,726
Itu sebabnya pembahasan ini
sangat penting sekarang.
1093
01:03:33,810 --> 01:03:37,021
Bukan hanya COVID-19 yang menyebar cepat.
1094
01:03:37,104 --> 01:03:40,191
Ada rangkaian informasi yang salahtentang virus ini di internet.
1095
01:03:40,274 --> 01:03:43,694
Ide bahwa minum lebih banyak airakan menghapus virus korona dari tubuh
1096
01:03:43,778 --> 01:03:47,490
adalah salah satu mitos soal virus iniyang beredar di media sosial.
1097
01:03:47,573 --> 01:03:50,451
Pemerintah merencanakan peristiwa ini,menciptakan virusnya,
1098
01:03:50,827 --> 01:03:53,579
dan melakukan simulasitentang reaksi berbagai negara.
1099
01:03:53,955 --> 01:03:55,581
Virus korona itu hoaks.
1100
01:03:56,165 --> 01:03:57,959
SARS, virus korona.
1101
01:03:58,376 --> 01:04:01,045
Lihatlah tahun pembuatannya. 2018.
1102
01:04:01,128 --> 01:04:03,798
Kurasa pemerintah Amerika memulai ini.
1103
01:04:04,215 --> 01:04:07,343
Tak ada yang sakit.
1104
01:04:07,426 --> 01:04:09,095
Tak ada yang kenal orang yang sakit.
1105
01:04:09,512 --> 01:04:12,849
Mungkin pemerintah menggunakan
virus korona sebagai alasan
1106
01:04:12,932 --> 01:04:15,643
agar semua orang tetap di rumah
karena ada hal lain terjadi.
1107
01:04:15,726 --> 01:04:18,020
Virus korona tidak membunuh orang,
1108
01:04:18,104 --> 01:04:20,940
tapi radiasi 5G yang mereka pancarkan.
1109
01:04:21,023 --> 01:04:22,525
MENARA 5G DIPOTONG DAN DIBAKAR
1110
01:04:22,608 --> 01:04:24,569
Kita dibombardir dengan rumor.
1111
01:04:25,403 --> 01:04:28,823
Orang-orang meledakkan menara seluler.
1112
01:04:28,906 --> 01:04:32,159
Kita melihat Rusia dan Cina menyebarkanrumor dan teori konspirasi.
1113
01:04:32,243 --> 01:04:35,246
Tadi pagi,muncul kepanikan dan protes di Ukraina...
1114
01:04:35,329 --> 01:04:38,916
Orang tak tahu apa yang benardan kini menjadi masalah hidup dan mati.
1115
01:04:40,001 --> 01:04:42,628
Sumber-sumber yang menyebarkan
informasi virus korona palsu
1116
01:04:42,712 --> 01:04:45,798
telah mengumpulkan
sekitar 52 juta keterlibatan.
1117
01:04:45,882 --> 01:04:50,094
Maksudmu, larutan perak akan efektif.
1118
01:04:50,177 --> 01:04:54,140
Anggaplah itu belum diuji
pada jenis virus korona ini...
1119
01:04:54,223 --> 01:04:57,226
Apa yang kita lihat dengan COVIDhanyalah versi ekstrem
1120
01:04:57,310 --> 01:05:00,688
dari apa yang terjadidi seluruh ekosistem informasi kita.
1121
01:05:00,980 --> 01:05:04,942
Media sosial memperkuat gosipdan desas-desus eksponensial
1122
01:05:05,026 --> 01:05:07,111
hingga kita tak tahu apa yang benar,
1123
01:05:07,194 --> 01:05:09,113
apa pun isu yang kita pedulikan.
1124
01:05:26,130 --> 01:05:27,465
Kau masih tergabung di tim?
1125
01:05:30,468 --> 01:05:34,597
Aku akan membeli camilan
sebelum latihan jika kau mau ikut.
1126
01:05:37,016 --> 01:05:38,684
Lupakan saja.
1127
01:05:39,936 --> 01:05:44,982
KAMI MEMBUTUHKANMU,
BERGABUNGLAH SEKARANG
1128
01:05:45,066 --> 01:05:47,526
Sembilan dari sepuluh orangmerasa tak puas saat ini.
1129
01:05:47,610 --> 01:05:50,613
Jika dipikir lagi, EC miripdengan gerakan politik dalam sejarah.
1130
01:05:50,821 --> 01:05:54,492
Kita melawan gangguan ini.
1131
01:05:54,575 --> 01:05:57,036
Kalian adalah kaumku. Aku percaya kalian.
1132
01:05:59,205 --> 01:06:02,583
- Konten Extreme Center itu hebat.
- Dia amat menyukainya.
1133
01:06:02,667 --> 01:06:03,626
Melakukan lelang.
1134
01:06:04,585 --> 01:06:08,547
Ada 843 penawar, dia terjual
seharga 4,35 sen ke pabrik senjata.
1135
01:06:08,631 --> 01:06:10,841
Ayo promosikan beberapa acara ini.
1136
01:06:10,925 --> 01:06:13,511
Unjuk rasa mendatang di zona geografisnya
akhir pekan ini.
1137
01:06:13,594 --> 01:06:15,179
Aku juga punya naravlog baru.
1138
01:06:17,848 --> 01:06:22,979
Sejujurnya, percayalah,aku bersedia melakukan apa saja.
1139
01:06:23,062 --> 01:06:24,939
Maksudku, apa saja.
1140
01:06:32,154 --> 01:06:33,197
- Berlanggananlah
- Ben?
1141
01:06:33,280 --> 01:06:35,950
dan kembalilah lagi karena percayalah,
1142
01:06:36,617 --> 01:06:38,869
aku punya rencana sangat besar.
1143
01:06:38,953 --> 01:06:40,204
Rencana sangat besar.
1144
01:06:40,788 --> 01:06:45,292
Salah satu masalah dengan Facebookadalah sebagai alat persuasi,
1145
01:06:45,793 --> 01:06:47,920
itu mungkin hal terhebatyang pernah dibuat.
1146
01:06:48,170 --> 01:06:52,508
Sekarang, bayangkan artinya itu
di tangan diktator atau pemimpin otoriter.
1147
01:06:53,718 --> 01:06:57,638
Jika kita ingin mengendalikan
populasi negaramu,
1148
01:06:57,722 --> 01:07:01,308
tak pernah ada alat
yang seefektif Facebook.
1149
01:07:04,937 --> 01:07:07,398
Beberapa implikasi yang paling meresahkan
1150
01:07:07,481 --> 01:07:11,235
dari pemerintah dan pelaku jahat lain
yang menjadikan media sosial senjata
1151
01:07:11,527 --> 01:07:13,612
adalah menyebabkan bahaya di dunia nyata.
1152
01:07:13,696 --> 01:07:15,072
Kurasa contoh paling menonjol
1153
01:07:15,156 --> 01:07:17,658
yang banyak diberitakan
adalah kejadian di Myanmar.
1154
01:07:17,742 --> 01:07:19,160
KANTOR KEPRESIDENAN MYANMAR
1155
01:07:19,243 --> 01:07:21,203
Di Myanmar,
saat orang memikirkan internet,
1156
01:07:21,287 --> 01:07:22,913
yang terpikir adalah Facebook.
1157
01:07:22,997 --> 01:07:25,916
Yang sering terjadi adalah
saat orang-orang membeli ponsel,
1158
01:07:26,000 --> 01:07:29,920
pemilik toko ponsel
akan memasangkan Facebook
1159
01:07:30,004 --> 01:07:31,505
dan membuatkan mereka akun.
1160
01:07:31,589 --> 01:07:34,884
Jadi, saat mendapatkan ponsel,
hal pertama yang mereka buka
1161
01:07:34,967 --> 01:07:37,595
dan yang mereka tahu cara membukanya
hanyalah Facebook.
1162
01:07:38,179 --> 01:07:41,891
Penyelidikan mengejutkan baru mengungkap
makin sulitnya Facebook
1163
01:07:41,974 --> 01:07:43,809
mengatasi ujaran kebencian di Myanmar.
1164
01:07:43,893 --> 01:07:46,020
BERHENTI MEMBUNUH MUSLIM
1165
01:07:46,103 --> 01:07:49,190
Facebook benar-benar memberi militer
dan pelaku jahat lainnya
1166
01:07:49,273 --> 01:07:51,776
cara baru memanipulasi opini publik
1167
01:07:51,859 --> 01:07:55,529
dan membantu memicu kekerasan
terhadap Muslim Rohingya
1168
01:07:55,613 --> 01:07:57,406
yang termasuk pembunuhan massal,
1169
01:07:58,074 --> 01:07:59,867
membakar seluruh desa,
1170
01:07:59,950 --> 01:08:00,951
pemerkosaan massal,
1171
01:08:01,035 --> 01:08:03,704
dan kejahatan berat lain
terhadap kemanusiaan
1172
01:08:03,788 --> 01:08:08,209
yang kini membuat 700.000 Muslim Rohingya
harus meninggalkan Myanmar.
1173
01:08:11,170 --> 01:08:16,550
Ini bukan karena pelaku propaganda
yang gencar tak ada sebelumnya,
1174
01:08:16,634 --> 01:08:19,762
tapi karena semua platform ini
memungkinkan
1175
01:08:19,845 --> 01:08:23,724
penyebaran narasi manipulatif
dengan sangat mudah
1176
01:08:23,808 --> 01:08:25,434
dan tanpa membayar mahal.
1177
01:08:25,518 --> 01:08:27,812
Jika aku ingin memanipulasi pemilu,
1178
01:08:27,895 --> 01:08:30,564
aku bisa masuk ke grup teori konspirasi
di Facebook,
1179
01:08:30,648 --> 01:08:34,443
menemukan 100 orang
yang percaya bahwa Bumi benar-benar datar
1180
01:08:34,860 --> 01:08:37,780
dan menganggap pendaratan di bulan
adalah teori konspirasi,
1181
01:08:37,863 --> 01:08:41,450
lalu bisa kuminta Facebook memberiku
seribu pengguna yang tampak seperti itu.
1182
01:08:42,118 --> 01:08:46,080
Facebook akan dengan senang hati mengirimribuan pengguna yang mirip mereka
1183
01:08:46,163 --> 01:08:49,416
yang kini bisa kujejalidengan teori konspirasi lainnya.
1184
01:08:51,127 --> 01:08:53,129
Terjual seharga 3,4 sen per impresi.
1185
01:08:53,379 --> 01:08:56,173
- Video EC baru untuk dipromosikan.
- Satu iklan lagi siap.
1186
01:08:58,509 --> 01:09:02,138
Algoritme dan politisi manipulatif menjadi
sangat ahli
1187
01:09:02,221 --> 01:09:04,056
dalam mempelajari cara memicu kita,
1188
01:09:04,140 --> 01:09:08,352
makin mahir menciptakan berita palsu
yang kita serap seolah-olah itu kenyataan
1189
01:09:08,435 --> 01:09:10,813
dan membingungkan kita
untuk meyakini kebohongan itu.
1190
01:09:10,896 --> 01:09:14,150
Seolah-olah kita kehilangan kendali
atas jati diri dan keyakinan kita.
1191
01:09:31,375 --> 01:09:32,668
...agar mereka bisa memihak.
1192
01:09:32,751 --> 01:09:34,879
Ada kebohongan di sini dan di sana.
1193
01:09:34,962 --> 01:09:39,967
Agar mereka bisa terus berkuasadan mengendalikan semuanya.
1194
01:09:40,050 --> 01:09:42,636
Mereka bisa mengendalikan pikiran kita
1195
01:09:42,720 --> 01:09:46,390
agar mereka bisa menyimpan rahasia mereka.
1196
01:09:46,473 --> 01:09:48,601
CDC MENGAKU MENUTUPI
FAKTA VAKSIN MEMICU AUTISME
1197
01:09:48,684 --> 01:09:50,895
Bayangkan duniatempat kebenaran tak dipercaya.
1198
01:09:50,978 --> 01:09:52,813
VAKSIN ITU BERACUN
LINDUNGI ANAK KITA
1199
01:09:52,897 --> 01:09:55,649
Semua orang percayapemerintah membohongi mereka.
1200
01:09:56,317 --> 01:09:58,444
Semuanya adalah teori konspirasi.
1201
01:09:58,527 --> 01:10:01,197
"Aku tak boleh percaya siapa pun.Aku benci pihak lain."
1202
01:10:01,280 --> 01:10:02,698
Itulah arah semua ini.
1203
01:10:02,781 --> 01:10:06,160
Gempa bumi politik di Eropa
terus bergemuruh,
1204
01:10:06,243 --> 01:10:08,412
kali ini di Italia dan Spanyol.
1205
01:10:08,495 --> 01:10:11,999
Koalisi sentris tradisional Eropakehilangan mayoritas suaranya
1206
01:10:12,082 --> 01:10:15,002
sementara partai sayap kanan dan kirialami peningkatan.
1207
01:10:19,715 --> 01:10:20,591
Mundur.
1208
01:10:21,675 --> 01:10:22,509
Baiklah, ayo.
1209
01:10:28,390 --> 01:10:31,268
Akun-akun ini dengan sengajadan secara khusus berusaha
1210
01:10:31,352 --> 01:10:33,896
menebar pertikaian politik di Hong Kong.
1211
01:10:38,609 --> 01:10:39,610
Baiklah, Ben.
1212
01:10:42,863 --> 01:10:45,032
Bagaimana rasanya menjadi negara
1213
01:10:45,115 --> 01:10:48,410
yang sumber informasi utamanya
adalah Facebook dan media sosial?
1214
01:10:48,953 --> 01:10:50,871
Demokrasi hancur begitu cepat.
1215
01:10:50,955 --> 01:10:51,830
Enam bulan.
1216
01:10:51,914 --> 01:10:53,791
Setelah kekacauan di Chicago,
1217
01:10:53,874 --> 01:10:57,086
bentrokan antara pemrotes dan pendukung,
1218
01:10:58,003 --> 01:11:01,632
Demokrasi menghadapi krisis kepercayaan.
1219
01:11:01,715 --> 01:11:04,343
Yang kita lihat adalah serangan global
terhadap demokrasi.
1220
01:11:05,135 --> 01:11:07,930
Mayoritas negara yang menjadi targetadalah negara-negara
1221
01:11:08,013 --> 01:11:10,099
yang menjalankan pemilu demokratis.
1222
01:11:10,724 --> 01:11:12,518
Ini terjadi dalam skala besar.
1223
01:11:12,601 --> 01:11:15,562
Oleh pihak negara dan pemilik jutaan dolar
yang berkata,
1224
01:11:15,646 --> 01:11:18,524
"Aku ingin mengacaukan Kenya
atau Kamerun.
1225
01:11:18,607 --> 01:11:20,651
Angola? Itu hanya seharga ini."
1226
01:11:20,734 --> 01:11:23,362
Pemilu luar biasa berlangsunghari Minggu lalu di Brasil.
1227
01:11:23,445 --> 01:11:25,823
Dengan kampanye yang didukungmedia sosial.
1228
01:11:31,036 --> 01:11:33,956
Kami dari industri teknologitelah menciptakan alat
1229
01:11:34,248 --> 01:11:37,418
untuk mengacaukan
dan mengikis struktur masyarakat,
1230
01:11:37,501 --> 01:11:40,254
di setiap negara sekaligus, di mana-mana.
1231
01:11:40,337 --> 01:11:44,508
Ini terjadi di Jerman, Spanyol, Prancis,
Brasil, Australia.
1232
01:11:44,591 --> 01:11:46,927
Beberapa negara maju di dunia
1233
01:11:47,428 --> 01:11:49,221
kini saling menghancurkan
1234
01:11:49,305 --> 01:11:50,931
dan apa kesamaan mereka?
1235
01:11:51,974 --> 01:11:56,312
Sepengetahuanmu, apa kau percaya
Facebook memengaruhi hasil pemilu 2016?
1236
01:11:56,854 --> 01:11:58,188
Itu sulit.
1237
01:11:59,148 --> 01:12:00,024
Itu...
1238
01:12:01,275 --> 01:12:04,653
Kenyataannya adalah
ada begitu banyak faktor.
1239
01:12:04,737 --> 01:12:07,865
Perwakilan dari Facebook, Twitter,
dan Google kembali ke Capitol Hill
1240
01:12:07,948 --> 01:12:09,450
untuk kesaksian hari kedua
1241
01:12:09,533 --> 01:12:12,578
soal campur tangan Rusia
dalam pemilu 2016.
1242
01:12:12,661 --> 01:12:17,291
Manipulasi oleh pihak ketiga
bukanlah peretasan.
1243
01:12:18,500 --> 01:12:21,462
Rusia tak meretas Facebook.
1244
01:12:21,628 --> 01:12:24,965
Yang mereka lakukan adalah
menggunakan alat yang dibuat Facebook
1245
01:12:25,049 --> 01:12:27,843
untuk pengiklan dan pengguna yang sah,
1246
01:12:27,926 --> 01:12:30,346
yang mereka terapkan untuk tujuan jahat.
1247
01:12:31,972 --> 01:12:34,016
Itu seperti perang
dengan kendali jarak jauh.
1248
01:12:34,475 --> 01:12:36,602
Satu negara bisa memanipulasi negara lain
1249
01:12:36,685 --> 01:12:39,229
tanpa menyerbu perbatasan fisiknya.
1250
01:12:39,521 --> 01:12:41,023
Kita melihat video kekerasan ini.
1251
01:12:41,106 --> 01:12:43,317
Tampaknya itu bak sampah yang didorong...
1252
01:12:43,400 --> 01:12:45,903
Namun, itu bukan soal siapa
yang ingin kita pilih,
1253
01:12:46,362 --> 01:12:50,574
tapi soal menabur kekacauan
dan perpecahan di masyarakat.
1254
01:12:50,657 --> 01:12:53,077
Ini terjadi di Huntington Beach,sebuah demonstrasi...
1255
01:12:53,160 --> 01:12:54,870
Ini soal membuat dua pihak
1256
01:12:54,953 --> 01:12:58,082
yang tak bisa
dan mau saling mendengar lagi,
1257
01:12:58,165 --> 01:12:59,875
yang tak saling percaya lagi.
1258
01:12:59,958 --> 01:13:02,252
Ini kota tempat kebencian diumbar
1259
01:13:03,295 --> 01:13:05,464
dan berubah menjadi kekerasan rasial.
1260
01:13:05,547 --> 01:13:07,633
KETEGANGAN VIRGINIA
TIGA TEWAS DALAM KEKERASAN
1261
01:13:20,145 --> 01:13:20,979
Ben!
1262
01:13:21,605 --> 01:13:22,439
Cassandra!
1263
01:13:22,981 --> 01:13:23,816
- Cass!
- Ben!
1264
01:13:23,899 --> 01:13:25,484
Kemari kau!
1265
01:13:27,486 --> 01:13:31,156
Angkat tangan. Berlutut. Tiarap.
1266
01:13:36,120 --> 01:13:37,204
- Tenang...
- Ben!
1267
01:13:37,287 --> 01:13:38,580
Hei! Angkat tangan!
1268
01:13:39,623 --> 01:13:41,291
Berbaliklah. Tiarap.
1269
01:13:56,807 --> 01:13:59,643
Apa kita ingin sistem ini dijual
kepada penawar tertinggi?
1270
01:13:59,726 --> 01:14:01,311
PRANCIS 2019
1271
01:14:01,395 --> 01:14:05,399
Demokrasi yang bisa dijual dan kita bisa
menjangkau benak siapa pun yang kita mau,
1272
01:14:05,482 --> 01:14:08,694
membuat kebohongan pada populasi tertentu
dan membuat perang budaya?
1273
01:14:09,236 --> 01:14:10,237
Apa kita mau itu?
1274
01:14:14,783 --> 01:14:16,201
Kita adalah bangsa...
1275
01:14:16,952 --> 01:14:18,620
yang tak saling bicara lagi.
1276
01:14:18,704 --> 01:14:19,997
SENATOR FLORIDA, AS
1277
01:14:20,080 --> 01:14:23,000
Kita bangsa orang yang berhenti berteman
dengan orang
1278
01:14:23,083 --> 01:14:25,294
karena pilihan mereka di pemilu lalu.
1279
01:14:25,961 --> 01:14:28,422
Kita bangsa yang mengisolasi diri
1280
01:14:28,505 --> 01:14:30,966
untuk menonton saluran
yang membenarkan kita saja.
1281
01:14:32,509 --> 01:14:36,805
Pesan saya hari ini
adalah kesukuan menghancurkan kita.
1282
01:14:37,347 --> 01:14:39,183
Ini menghancurkan negara kita.
1283
01:14:40,225 --> 01:14:43,103
Bukan seperti ini
cara orang dewasa waras bertindak.
1284
01:14:43,187 --> 01:14:45,397
Jika semua berhak meyakini
fakta yang mereka mau,
1285
01:14:45,481 --> 01:14:49,401
tak perlu ada kompromi
dan orang-orang tak perlu berkumpul.
1286
01:14:49,485 --> 01:14:51,695
Bahkan,
orang-orang tak perlu berinteraksi.
1287
01:14:52,321 --> 01:14:56,617
Kita harus memiliki pemahaman bersama
tentang kenyataan.
1288
01:14:57,367 --> 01:14:58,410
Atau kita bukan negara.
1289
01:14:58,911 --> 01:15:02,998
Jadi, solusi jangka panjangnya
adalah membangun lebih banyak alat IA
1290
01:15:03,081 --> 01:15:08,128
yang menemukan pola penggunaan layanan
yang mustahil dilakukan orang sungguhan.
1291
01:15:08,212 --> 01:15:11,840
Kita mengizinkan para pakar teknologi
menganggap ini sebagai masalah
1292
01:15:11,924 --> 01:15:14,009
yang siap mereka pecahkan.
1293
01:15:15,135 --> 01:15:16,470
Itu bohong.
1294
01:15:17,638 --> 01:15:20,766
Orang-orang membahas IA
seolah-olah itu akan paham kebenaran.
1295
01:15:21,683 --> 01:15:23,810
IA takkan menyelesaikan masalah ini.
1296
01:15:24,228 --> 01:15:27,189
IA tak bisa memecahkan
masalah berita palsu.
1297
01:15:28,649 --> 01:15:31,026
Google tak punya pilihan untuk bilang,
1298
01:15:31,109 --> 01:15:34,363
"Apa ini konspirasi? Apa ini kebenaran?"
1299
01:15:34,655 --> 01:15:36,240
Karena mereka tak tahu kebenaran.
1300
01:15:36,823 --> 01:15:40,410
Mereka tak punya proksi kebenaran
yang lebih baik dari klik.
1301
01:15:41,870 --> 01:15:45,123
Jika kita tak setuju soal apa yang benar
1302
01:15:45,207 --> 01:15:47,584
atau kebenaran itu sungguh ada,
1303
01:15:48,293 --> 01:15:49,294
kita akan hancur.
1304
01:15:49,878 --> 01:15:52,089
Ini masalah di bawah masalah lain,
1305
01:15:52,172 --> 01:15:54,424
karena jika tak bisa sepakat
soal apa yang benar,
1306
01:15:55,092 --> 01:15:57,803
kita tak bisa keluar
dari semua masalah kita.
1307
01:16:05,352 --> 01:16:07,854
Sebaiknya sarankan dia ikuti
Klub Sepak Bola Bumi Datar.
1308
01:16:07,938 --> 01:16:10,399
Jangan tunjukkan kabar olahraga lagi.
Dia tak tertarik.
1309
01:16:39,970 --> 01:16:42,764
Banyak orang di Silicon Valleyyang meyakini sebuah teori
1310
01:16:42,848 --> 01:16:45,225
bahwa kita sedang membangunotak super global
1311
01:16:45,309 --> 01:16:48,020
dan semua penggunahanyalah neuron kecil yang bisa ditukar.
1312
01:16:48,103 --> 01:16:49,563
Tak ada yang penting.
1313
01:16:50,230 --> 01:16:53,150
Itu memaksa orang mengambil peran aneh
1314
01:16:53,233 --> 01:16:56,069
yang menjadikan kita
sebuah elemen komputer kecil
1315
01:16:56,153 --> 01:16:58,905
yang diprogram lewat manipulasi perilaku
1316
01:16:58,989 --> 01:17:02,367
untuk melayani otak raksasa ini
dan kita tak penting.
1317
01:17:02,451 --> 01:17:06,455
Kita takkan dibayar, diakui,
dan tak bisa menentukan nasib sendiri.
1318
01:17:06,538 --> 01:17:09,416
Kami akan diam-diam memanipulasimu
karena kau simpul komputer,
1319
01:17:09,499 --> 01:17:12,336
jadi, kami harus memprogrammu
karena begitulah simpul komputer.
1320
01:17:20,093 --> 01:17:21,094
Astaga.
1321
01:17:21,887 --> 01:17:25,390
Saat memikirkan teknologiyang menjadi ancaman eksistensial,
1322
01:17:25,474 --> 01:17:28,060
itu pernyataan berani dan...
1323
01:17:29,603 --> 01:17:33,982
Maka akan mudah bagi kita untuk berpikir,
"Baiklah, aku membawa ponsel...
1324
01:17:35,525 --> 01:17:37,235
menggulir, mengeklik, menggunakannya.
1325
01:17:37,319 --> 01:17:39,237
Di mana ancaman eksistensialnya?
1326
01:17:40,238 --> 01:17:41,615
Ada komputer super,
1327
01:17:41,698 --> 01:17:44,034
di sisi lain layar, mengarah ke otakku,
1328
01:17:44,451 --> 01:17:47,537
membuatku menonton satu video lagi.
Di mana ancaman eksistensialnya?"
1329
01:17:54,252 --> 01:17:59,341
Ini bukan soal teknologiyang menjadi ancaman eksistensial.
1330
01:18:02,511 --> 01:18:04,721
DENGAR PENDAPAT SENAT AS
SOAL TEKNOLOGI PERSUASIF
1331
01:18:04,805 --> 01:18:06,348
Namun, kemampuan teknologi
1332
01:18:06,431 --> 01:18:08,975
untuk menghadirkan kemungkinan terburukdi masyarakat
1333
01:18:09,559 --> 01:18:13,522
dan kemungkinan terburuk itulah
ancaman eksistensialnya.
1334
01:18:13,605 --> 01:18:15,899
SENAT AMERIKA SERIKAT
1335
01:18:18,777 --> 01:18:20,570
Jika teknologi menciptakan
1336
01:18:21,655 --> 01:18:24,533
kekacauan massal, kemarahan,ketidaksopanan,
1337
01:18:24,616 --> 01:18:26,326
kurangnya saling percaya,
1338
01:18:27,452 --> 01:18:30,622
kesepian, alienasi,peningkatan polarisasi,
1339
01:18:30,706 --> 01:18:33,333
peretasan pemilu, populisme,
1340
01:18:33,917 --> 01:18:36,962
gangguan, dan ketidakmampuan berfokus
pada isu sebenarnya...
1341
01:18:37,963 --> 01:18:39,214
itulah masyarakat.
1342
01:18:40,340 --> 01:18:46,388
Kini masyarakat tak mampu
menyembuhkan dirinya
1343
01:18:46,471 --> 01:18:48,724
dan berubah menjadi semacam kekacauan.
1344
01:18:51,977 --> 01:18:54,938
Ini memengaruhi semua orang,
meski kita tak memakai produk ini.
1345
01:18:55,480 --> 01:18:57,524
Semua ini telah menjadi
Frankenstein digital
1346
01:18:57,607 --> 01:19:00,110
yang mengubah dunia
sesuai bayangan mereka,
1347
01:19:00,193 --> 01:19:01,862
entah itu kesehatan mental anak-anak
1348
01:19:01,945 --> 01:19:04,489
atau politik dan wacana politik kita,
1349
01:19:04,573 --> 01:19:07,492
tanpa bertanggung jawab membahasnya
di ranah publik.
1350
01:19:07,576 --> 01:19:10,579
- Jadi, itu kembali ke...
- Menurutmu siapa yang bertanggung jawab?
1351
01:19:10,662 --> 01:19:13,582
Kurasa kita harus meminta platform
bertanggung jawab
1352
01:19:13,665 --> 01:19:15,584
karena saat mengambil alih iklan pemilu,
1353
01:19:15,667 --> 01:19:17,753
mereka bertanggung jawab
melindungi pemilu.
1354
01:19:17,836 --> 01:19:20,464
Saat menguasai kesehatan mental anak
atau acara Sabtu pagi,
1355
01:19:20,547 --> 01:19:22,716
mereka bertanggung jawab
melindungi Sabtu pagi.
1356
01:19:23,800 --> 01:19:27,929
Perlombaan untuk menarik perhatian orang
tak akan hilang.
1357
01:19:28,638 --> 01:19:31,850
Teknologi kita akan menjadi lebih menyatu
dengan kehidupan kita.
1358
01:19:31,933 --> 01:19:34,978
IA akan lebih mahir memprediksi
hal yang membuat kita melihat layar,
1359
01:19:35,061 --> 01:19:37,105
bukan lebih buruk dalam memprediksinya.
1360
01:19:38,940 --> 01:19:42,027
Usiaku 62 tahun,
1361
01:19:42,110 --> 01:19:45,113
makin tua
seiring percakapan ini berlangsung,
1362
01:19:45,197 --> 01:19:47,365
tapi aku akan memberitahumu...
1363
01:19:48,700 --> 01:19:52,370
Aku mungkin akan mati
dan mungkin akan bersyukur untuk itu
1364
01:19:52,454 --> 01:19:54,372
saat semua ini membuahkan hasil.
1365
01:19:54,790 --> 01:19:59,753
Karena kupikir ini membuatku sangat takut.
1366
01:20:00,921 --> 01:20:03,298
Apa kau sependapat?
1367
01:20:03,548 --> 01:20:06,885
Atau aku bereaksi berlebihan
pada situasi yang kurang kuketahui?
1368
01:20:09,930 --> 01:20:11,640
Apa yang paling kau cemaskan?
1369
01:20:15,519 --> 01:20:18,480
Kurasa dalam jangka pendek...
1370
01:20:19,523 --> 01:20:20,524
perang saudara.
1371
01:20:24,444 --> 01:20:29,908
Jika kita teruskan situasi saat ini,
anggaplah hingga 20 tahun lagi...
1372
01:20:31,117 --> 01:20:34,579
peradaban kita mungkin akan hancur
karena kebodohan yang disengaja.
1373
01:20:34,663 --> 01:20:37,958
Kita mungkin gagal menghadapi
tantangan perubahan iklim.
1374
01:20:38,041 --> 01:20:42,087
Kita mungkin memperburuk demokrasi dunia
1375
01:20:42,170 --> 01:20:46,132
sehingga mereka jatuh
ke dalam disfungsi autokrat yang aneh.
1376
01:20:46,216 --> 01:20:48,510
Kita mungkin merusak ekonomi global.
1377
01:20:49,135 --> 01:20:52,264
Kita mungkin tak selamat.
1378
01:20:52,347 --> 01:20:54,808
Aku sungguh menganggap ini eksistensial.
1379
01:21:02,482 --> 01:21:04,985
Apa ini generasi terakhir
1380
01:21:05,068 --> 01:21:08,822
yang akan tahu rasanyasebelum ilusi ini terjadi?
1381
01:21:11,074 --> 01:21:14,578
Bagaimana kita terbangun dari matriks
saat kita tak tahu ada di matriks?
1382
01:21:17,747 --> 01:21:23,253
"MENJADI UTOPIA ATAU DILUPAKAN,
AKAN DITENTUKAN OLEH LOMBA ESTAFET
1383
01:21:23,336 --> 01:21:27,299
HINGGA SAAT TERAKHIR..."
BUCKMINSTER FULLER
1384
01:21:27,382 --> 01:21:30,635
Banyak ucapan kami yang terdengar
seolah-olah ini...
1385
01:21:31,511 --> 01:21:33,680
hanyalah hanya malapetaka
dan kesuraman sepihak.
1386
01:21:33,763 --> 01:21:36,808
Seperti, "Astaga,
teknologi menghancurkan dunia...
1387
01:21:36,892 --> 01:21:39,519
dan anak-anak," tapi tidak.
1388
01:21:40,228 --> 01:21:45,567
Ini membingungkan
karena ini utopia sekaligus distopia.
1389
01:21:45,942 --> 01:21:50,447
Aku bisa menekan tombol di ponselku
dan mobil akan muncul dalam 30 detik,
1390
01:21:50,530 --> 01:21:52,699
lalu aku bisa pergi ke tujuanku.
1391
01:21:53,033 --> 01:21:55,785
Itu ajaib. Itu luar biasa.
1392
01:21:56,161 --> 01:21:58,788
Saat kami membuat tombol "Suka",
motivasi kami adalah,
1393
01:21:58,872 --> 01:22:01,499
"Bisakah kita menyebarkan aura positif
dan cinta di dunia?"
1394
01:22:01,583 --> 01:22:06,379
Lalu berpikir bahwa kini remaja tertekan
saat tak banyak dapat respons "Suka"
1395
01:22:06,463 --> 01:22:08,632
atau itu bisa mengarah
ke polarisasi politik,
1396
01:22:08,715 --> 01:22:09,883
tak terpikir oleh kami.
1397
01:22:10,175 --> 01:22:12,344
Kurasa mereka tak berniat jahat.
1398
01:22:13,511 --> 01:22:15,764
Hanya model bisnisnya yang bermasalah.
1399
01:22:15,847 --> 01:22:20,226
Kita bisa menutup layanannya
dan menghancurkan apa pun itu,
1400
01:22:20,310 --> 01:22:24,397
nilai pemegang saham 20 miliar dolar,
dituntut...
1401
01:22:24,481 --> 01:22:27,108
Namun, kita tak bisa membalikkan
keadaan seperti masa lalu.
1402
01:22:27,442 --> 01:22:30,403
Kita bisa membuat modifikasi kecil,
tapi pada akhirnya,
1403
01:22:30,487 --> 01:22:34,032
pendapatan dan penggunaan harus meningkat,
kuartal dari kuartal.
1404
01:22:34,658 --> 01:22:37,535
Makin besar itu,
makin sulit bagi siapa pun untuk berubah.
1405
01:22:38,495 --> 01:22:43,458
Yang kulihat adalah sekelompok orang yang
terjebak oleh model bisnis,
1406
01:22:43,541 --> 01:22:46,169
insentif ekonomi,
dan tekanan pemegang saham
1407
01:22:46,252 --> 01:22:48,922
yang membuatnya hampir mustahil
untuk melakukan hal lain.
1408
01:22:49,005 --> 01:22:50,840
Kurasa kita harus menerima fakta
1409
01:22:50,924 --> 01:22:53,176
bahwa perusahaan boleh berfokus
menghasilkan uang.
1410
01:22:53,259 --> 01:22:56,888
Yang buruk adalah saat tak ada regulasi,
aturan, dan persaingan
1411
01:22:56,972 --> 01:23:00,850
dan perusahaan bertindak
sebagai pemerintah yang asli.
1412
01:23:01,142 --> 01:23:03,353
Lalu mereka berkata,
"Kami bisa mengatur diri."
1413
01:23:03,436 --> 01:23:05,981
Itu sebuah kebohongan. Itu konyol.
1414
01:23:06,064 --> 01:23:09,150
Insentif keuangan bisa dibilang
mengatur dunia,
1415
01:23:09,234 --> 01:23:15,573
jadi, apa pun solusi masalah ini
haruslah mengubah insentif keuangan itu.
1416
01:23:16,157 --> 01:23:18,785
Tak ada alasan fiskal
agar perusahaan ini berubah.
1417
01:23:19,160 --> 01:23:21,329
Itu sebabnya kita perlu peraturan.
1418
01:23:21,413 --> 01:23:24,290
Perusahaan telepon punya
banyak data sensitif soal kita
1419
01:23:24,374 --> 01:23:27,544
dan ada banyak hukum yang memastikan
mereka tak berbuat salah.
1420
01:23:27,627 --> 01:23:31,506
Kita hampir tak punya hukum
tentang privasi digital misalnya.
1421
01:23:31,589 --> 01:23:34,426
Kita bisa memajaki pemungutan
dan pemrosesan data.
1422
01:23:34,509 --> 01:23:37,554
Sama seperti saat kita membayar
tagihan air
1423
01:23:37,637 --> 01:23:39,723
dengan memantau jumlah penggunaan air,
1424
01:23:39,806 --> 01:23:43,226
kenakan pajak pada perusahaan ini
atas aset data yang mereka miliki.
1425
01:23:43,309 --> 01:23:44,769
Itu memberi mereka alasan fiskal
1426
01:23:44,853 --> 01:23:47,856
untuk tak memperoleh semua data
di planet ini.
1427
01:23:48,148 --> 01:23:50,567
Hukum jauh tertinggal dalam hal ini.
1428
01:23:50,650 --> 01:23:55,864
Yang kutahu, situasi saat ini ada
bukan untuk melindungi pengguna,
1429
01:23:55,947 --> 01:23:58,700
tapi untuk perlindungan hak dan privilese
1430
01:23:58,783 --> 01:24:01,453
dari semua perusahaan raksasa
yang sangat kaya ini.
1431
01:24:02,203 --> 01:24:05,832
Apa kita akan selalu tunduk
kepada orang terkaya dan paling berkuasa?
1432
01:24:05,915 --> 01:24:07,417
Atau kita akan bilang,
1433
01:24:07,959 --> 01:24:12,047
"Ada kalanya saat kepentingan nasional,
1434
01:24:12,130 --> 01:24:15,592
ada kalanya saat kepentingan orang
atau para pengguna,
1435
01:24:15,675 --> 01:24:17,385
sebenarnya lebih penting
1436
01:24:18,011 --> 01:24:21,473
daripada keuntungan
bagi orang yang sudah menjadi miliarder"?
1437
01:24:21,848 --> 01:24:26,603
Pasar-pasar ini merusak demokrasi
dan kebebasan.
1438
01:24:26,686 --> 01:24:28,521
Mereka harus dilarang.
1439
01:24:29,147 --> 01:24:31,816
Ini bukan proposal radikal.
1440
01:24:31,900 --> 01:24:34,194
Ada pasar lain yang kita larang.
1441
01:24:34,277 --> 01:24:36,988
Kita melarang pasar organ manusia.
1442
01:24:37,197 --> 01:24:39,491
Kami melarang pasar budak manusia.
1443
01:24:39,949 --> 01:24:44,037
Karena mereka punya konsekuensi merusak
yang tak terelakkan.
1444
01:24:44,662 --> 01:24:45,830
Kita hidup di dunia
1445
01:24:45,914 --> 01:24:50,251
tempat pohon mati bernilai lebih,
secara finansial, daripada yang hidup.
1446
01:24:50,335 --> 01:24:53,838
Dunia tempat paus mati lebih berharga
daripada yang hidup.
1447
01:24:53,922 --> 01:24:56,341
Jika ekonomi kita terus bekerja
seperti itu
1448
01:24:56,424 --> 01:24:58,134
dan perusahaan tak diatur,
1449
01:24:58,218 --> 01:25:00,678
mereka akan terus menghancurkan pohon,
1450
01:25:00,762 --> 01:25:01,763
membunuh paus,
1451
01:25:01,846 --> 01:25:06,101
menambang tanah,
dan terus menarik minyak dari tanah,
1452
01:25:06,184 --> 01:25:08,394
meski kita tahu itu menghancurkan planet
1453
01:25:08,478 --> 01:25:12,148
dan membuat dunia yang lebih buruk
untuk generasi mendatang.
1454
01:25:12,232 --> 01:25:13,858
Ini pemikiran jangka pendek
1455
01:25:13,942 --> 01:25:16,694
berdasarkan perilaku
yang menuhankan keuntungan ini,
1456
01:25:16,778 --> 01:25:20,073
seolah-olah secara ajaib,
tiap perusahaan yang bertindak egois ini
1457
01:25:20,156 --> 01:25:21,950
akan memberikan hasil terbaik.
1458
01:25:22,033 --> 01:25:24,494
Ini sudah memengaruhi lingkungan
sejak lama.
1459
01:25:24,702 --> 01:25:27,205
Yang menakutkan
dan semoga ini menjadi pemicu terakhir
1460
01:25:27,288 --> 01:25:29,249
yang akan menyadarkan kita
sebagai peradaban
1461
01:25:29,332 --> 01:25:31,709
akan betapa salahnya teori ini sejak awal
1462
01:25:31,793 --> 01:25:35,004
adalah menganggap
bahwa kini kitalah pohon dan pausnya.
1463
01:25:35,088 --> 01:25:37,048
Perhatian kita bisa ditambang.
1464
01:25:37,132 --> 01:25:39,134
Kita akan lebih menguntungkan perusahaan
1465
01:25:39,217 --> 01:25:41,594
jika kita menghabiskan waktu
menatap layar,
1466
01:25:41,678 --> 01:25:42,971
menatap iklan,
1467
01:25:43,054 --> 01:25:45,890
daripada menghabiskan waktu itu
untuk menikmati hidup.
1468
01:25:45,974 --> 01:25:47,559
Jadi, kini kita melihat akibatnya.
1469
01:25:47,642 --> 01:25:50,687
Kita melihat perusahaan menggunakan
inteligensi artifisial yang kuat
1470
01:25:50,770 --> 01:25:53,606
untuk mengakali dan mencari cara
menarik perhatian kita
1471
01:25:53,690 --> 01:25:57,068
menuju hal yang mereka mau kita lihat,
daripada hal yang paling konsisten
1472
01:25:57,152 --> 01:25:59,237
dengan tujuan, nilai, dan hidup kita.
1473
01:26:02,991 --> 01:26:04,450
PIDATO UTAMA HARI INI
STEVE JOBS
1474
01:26:05,535 --> 01:26:06,911
Arti komputer bagiku adalah
1475
01:26:06,995 --> 01:26:10,290
ini alat paling luar biasa
yang pernah kami buat.
1476
01:26:11,124 --> 01:26:13,877
Itu setara dengan sepedauntuk pikiran kita.
1477
01:26:15,587 --> 01:26:20,341
Ide soal teknologi manusiawi,
itulah awal mula Silicon Valley.
1478
01:26:21,050 --> 01:26:25,722
Lalu kita kehilangan arah
karena itu menjadi tindakan yang keren,
1479
01:26:25,805 --> 01:26:27,265
bukan yang benar.
1480
01:26:27,557 --> 01:26:29,726
Dulu internet adalah
tempat yang aneh dan gila.
1481
01:26:30,018 --> 01:26:31,394
Itu eksperimental.
1482
01:26:31,519 --> 01:26:34,731
Dulu hal-hal kreatif terjadi di internet
dan tentu masih hingga kini,
1483
01:26:34,814 --> 01:26:38,610
tapi kini rasanya itu seperti mal raksasa.
1484
01:26:38,693 --> 01:26:44,282
Aku berpikir, "Astaga, pasti ada sesuatu
yang lebih dari itu."
1485
01:26:46,743 --> 01:26:48,411
Kurasa aku hanya optimistis.
1486
01:26:48,494 --> 01:26:52,165
Karena kurasa kita bisa mengubah
rupa dan arti media sosial.
1487
01:26:54,250 --> 01:26:57,921
Cara kerja teknologi bukan hukum fisika.
Tidak mustahil diubah.
1488
01:26:58,004 --> 01:27:02,175
Ini adalah pilihan yang dibuat
manusia sepertiku selama ini.
1489
01:27:02,967 --> 01:27:05,345
Manusia bisa mengubah teknologi itu.
1490
01:27:06,971 --> 01:27:09,974
Pertanyaannya sekarang adalah
apakah kita bersedia mengakui
1491
01:27:10,475 --> 01:27:15,438
bahwa hasil buruk itu adalah
wujud produk dari pekerjaan kita.
1492
01:27:21,027 --> 01:27:24,864
Kita membangun ini
dan bertanggung jawab untuk mengubahnya.
1493
01:27:37,168 --> 01:27:38,711
Model ekstraksi perhatian
1494
01:27:38,795 --> 01:27:42,298
bukanlah cara memperlakukan manusiayang kita mau.
1495
01:27:46,094 --> 01:27:48,137
Ini perasaanku saja atau...
1496
01:27:49,806 --> 01:27:50,848
Pria yang malang.
1497
01:27:51,474 --> 01:27:53,226
Struktur masyarakat yang sehat
1498
01:27:53,309 --> 01:27:56,145
bergantung pada keluarnya kitadari model bisnis merusak ini.
1499
01:28:04,696 --> 01:28:07,782
Kita bisa menuntutproduk ini dirancang secara manusiawi.
1500
01:28:09,409 --> 01:28:13,204
Kita bisa menuntut untuk tak diperlakukansebagai sumber daya yang bisa diekstraksi.
1501
01:28:15,164 --> 01:28:18,459
Tujuannya mungkin bisa berupacara kita membuat dunia lebih baik.
1502
01:28:20,461 --> 01:28:23,798
Dalam sejarah, setiap ada perubahanke arah yang lebih baik,
1503
01:28:23,881 --> 01:28:26,342
itu karena seseorang maju dan berkata,
1504
01:28:26,426 --> 01:28:28,428
"Ini bodoh. Kita bisa lebih baik."
1505
01:28:29,178 --> 01:28:32,557
Para kritikuslah yang mendorong perbaikan.
1506
01:28:33,141 --> 01:28:35,393
Para kritikuslahyang benar-benar optimistis.
1507
01:28:38,313 --> 01:28:39,147
Halo.
1508
01:28:46,195 --> 01:28:47,697
Maksudku, itu agak gila, bukan?
1509
01:28:47,780 --> 01:28:51,534
Seolah-olah desain fundamental
dari hal ini...
1510
01:28:52,994 --> 01:28:54,954
tidak berjalan ke arah yang baik.
1511
01:28:55,246 --> 01:28:56,873
Seluruhnya.
1512
01:28:56,956 --> 01:29:00,668
Jadi, terdengar gila jika berkata
kita harus mengubah semua itu,
1513
01:29:01,169 --> 01:29:03,046
tapi itu yang harus kita lakukan.
1514
01:29:04,380 --> 01:29:05,965
Menurutmu, kita akan berhasil?
1515
01:29:07,425 --> 01:29:08,343
Harus.
1516
01:29:21,314 --> 01:29:24,942
Sepertinya kau sangat optimistis.
1517
01:29:26,194 --> 01:29:27,403
Aku terdengar seperti itu?
1518
01:29:27,653 --> 01:29:30,198
Ya, maksudku...
Sulit kupercaya kau terus mengatakan itu
1519
01:29:30,281 --> 01:29:33,326
karena aku berpikir, "Sungguh?
Aku merasa kita menuju distopia.
1520
01:29:33,409 --> 01:29:35,370
Aku merasa kita menuju distopia
dengan cepat
1521
01:29:35,453 --> 01:29:37,914
dan butuh keajaiban
untuk mengeluarkan kita darinya."
1522
01:29:37,997 --> 01:29:40,375
Keajaiban itu, tentu saja,
adalah keinginan bersama.
1523
01:29:41,000 --> 01:29:44,587
Aku merasa optimistis
kita akan menemukan solusi,
1524
01:29:44,670 --> 01:29:47,048
tapi kurasa itu akan butuh waktu lama.
1525
01:29:47,131 --> 01:29:50,385
Karena tak semua orang menganggap ini
sebagai masalah.
1526
01:29:50,468 --> 01:29:55,890
Kurasa salah satu kegagalan besar
dalam teknologi saat ini
1527
01:29:55,973 --> 01:29:58,643
adalah kegagalan kepemimpinan
1528
01:29:58,726 --> 01:30:01,979
dari orang-orang yang tampil
dan melakukan percakapan terbuka
1529
01:30:02,063 --> 01:30:05,900
yang bukan hanya soal hal-hal baik,
tapi juga yang tak sempurna
1530
01:30:05,983 --> 01:30:08,194
agar seseorang bisa membangun
sesuatu yang baru.
1531
01:30:08,486 --> 01:30:10,321
Pada akhirnya,
1532
01:30:10,405 --> 01:30:14,617
mesin ini takkan berubah
sampai ada tekanan publik yang besar.
1533
01:30:14,700 --> 01:30:18,329
Dengan melakukan percakapan ini
dan menyuarakan pendapat kita,
1534
01:30:18,413 --> 01:30:21,082
dalam beberapa kasus
melalui teknologi ini,
1535
01:30:21,165 --> 01:30:24,252
kita bisa mulai mengubah keadaan
dan pembahasan.
1536
01:30:24,335 --> 01:30:27,004
Ini mungkin terdengar aneh,
tapi ini dunia dan komunitasku.
1537
01:30:27,088 --> 01:30:29,674
Aku tak membenci
dan mau merugikan Google atau Facebook.
1538
01:30:29,757 --> 01:30:32,885
Aku hanya ingin mengubah mereka
agar mereka tak menghancurkan dunia.
1539
01:30:32,969 --> 01:30:35,513
Aku sudah menghapus banyak aplikasi
dari ponselku
1540
01:30:35,596 --> 01:30:37,723
yang kurasa hanya membuang waktuku.
1541
01:30:37,807 --> 01:30:40,685
Semua aplikasi media sosial dan berita.
1542
01:30:40,768 --> 01:30:42,520
Aku pun mematikan notifikasi
1543
01:30:42,603 --> 01:30:45,815
pada apa pun yang menggetarkan kakiku
dengan informasi
1544
01:30:45,898 --> 01:30:48,943
yang tak tepat waktu
dan penting bagiku saat ini.
1545
01:30:49,026 --> 01:30:51,279
Karena alasan itu juga,
aku tak mengantongi kue.
1546
01:30:51,362 --> 01:30:53,197
Kurangi jumlah notifikasi yang didapat.
1547
01:30:53,281 --> 01:30:54,449
Matikan notifikasi.
1548
01:30:54,532 --> 01:30:55,950
Mematikan semua notifikasi.
1549
01:30:56,033 --> 01:30:58,536
Aku tak menggunakan Google lagi,
tapi Qwant
1550
01:30:58,619 --> 01:31:01,497
yang tak menyimpan riwayat pencarian kita.
1551
01:31:01,581 --> 01:31:04,417
Jangan pernah menerima
video rekomendasi di YouTube.
1552
01:31:04,500 --> 01:31:07,003
Selalu memilih.
Itu cara melawan yang lain.
1553
01:31:07,295 --> 01:31:12,133
Ada banyak ekstensi Chrome
yang menghapus rekomendasi.
1554
01:31:12,216 --> 01:31:15,636
Aku suka kau merekomendasikan sesuatu
untuk membatalkan yang kau buat.
1555
01:31:15,720 --> 01:31:16,554
Ya.
1556
01:31:16,929 --> 01:31:18,473
Sebelum membagi,
1557
01:31:18,556 --> 01:31:21,684
periksa fakta, pertimbangkan sumbernya,
riset lebih banyak di Google.
1558
01:31:21,767 --> 01:31:25,104
Jika sepertinya itu dirancang
untuk memancing emosi kita,
1559
01:31:25,188 --> 01:31:26,314
mungkin memang begitu.
1560
01:31:26,731 --> 01:31:29,025
Intinya, kita memilih dengan klik.
1561
01:31:29,108 --> 01:31:30,359
Jika mengeklik umpan klik,
1562
01:31:30,443 --> 01:31:33,779
kita menciptakan insentif keuangan
yang melanggengkan sistem yang ada.
1563
01:31:33,863 --> 01:31:37,909
Pastikan kita mendapat beragam informasi
dalam hidupmu sendiri.
1564
01:31:38,117 --> 01:31:40,995
Aku mengikuti orang yang tak kusukai
di Twitter
1565
01:31:41,078 --> 01:31:44,207
karena aku ingin melihat
sudut pandang berbeda.
1566
01:31:44,582 --> 01:31:46,584
Perhatikan banyak orang
di industri teknologi
1567
01:31:46,667 --> 01:31:49,045
tak memberikan perangkat ini
kepada anak mereka.
1568
01:31:49,128 --> 01:31:51,255
Anak-anakku tak menggunakan media sosial.
1569
01:31:51,964 --> 01:31:53,549
Apa itu aturan atau...
1570
01:31:53,633 --> 01:31:54,509
Itu aturannya.
1571
01:31:55,092 --> 01:31:57,845
Kami fanatik soal itu.
1572
01:31:57,929 --> 01:31:59,222
Kami gila.
1573
01:31:59,305 --> 01:32:05,603
Kami tak memberikan anak-anak kami
waktu di depan layar.
1574
01:32:05,686 --> 01:32:08,564
Aku sudah memikirkan
tiga aturan sederhana
1575
01:32:08,648 --> 01:32:12,610
yang mempermudah hidup keluarga
dan itu dibenarkan oleh penelitian.
1576
01:32:12,693 --> 01:32:15,571
Aturan pertama adalah
tak ada gawai di kamar tidur
1577
01:32:15,655 --> 01:32:17,281
pada waktu tetap setiap malam.
1578
01:32:17,365 --> 01:32:20,535
Apa pun waktunya, 30 menit sebelum tidur,
semua gawai keluar.
1579
01:32:20,618 --> 01:32:24,038
Aturan kedua adalah tak ada media sosial
sampai SMA.
1580
01:32:24,121 --> 01:32:26,374
Secara pribadi,
kurasa usianya harus 16 tahun.
1581
01:32:26,457 --> 01:32:28,960
SMP sudah cukup sulit.
Jadi, jauhkan hingga SMA.
1582
01:32:29,043 --> 01:32:32,964
Aturan ketiga adalah menyusun
anggaran waktu dengan anak-anak kita.
1583
01:32:33,047 --> 01:32:34,799
Jika bicara dengan mereka dan berkata,
1584
01:32:34,882 --> 01:32:37,802
"Berapa jam sehari
kau mau menggunakan gawaimu?
1585
01:32:37,885 --> 01:32:39,637
Menurutmu, berapa durasi yang sesuai,"
1586
01:32:39,720 --> 01:32:41,597
jawaban mereka sering kali masuk akal.
1587
01:32:42,056 --> 01:32:44,642
Dengar, aku tahu betul
1588
01:32:44,725 --> 01:32:48,563
aku tak akan membuat semua orang
menghapus akun media sosial mereka,
1589
01:32:48,646 --> 01:32:50,439
tapi kurasa ada beberapa orang
1590
01:32:50,523 --> 01:32:54,485
dan membuat beberapa orang
menghapus akun mereka itu sangat penting.
1591
01:32:54,569 --> 01:32:58,406
Alasannya adalah itu menciptakan ruang
untuk percakapan
1592
01:32:58,489 --> 01:33:00,908
karena aku ingin ada cukup banyak orang
di masyarakat
1593
01:33:00,992 --> 01:33:05,079
yang bebas dari mesin manipulasi
untuk melakukan percakapan sosial
1594
01:33:05,162 --> 01:33:07,540
yang tak dibatasi oleh mesin manipulasi.
1595
01:33:07,623 --> 01:33:10,126
Jadi, lakukanlah! Keluar dari sistem.
1596
01:33:10,334 --> 01:33:12,670
Ya, hapuslah. Lepaskan benda bodoh itu.
1597
01:33:13,546 --> 01:33:16,507
Dunia ini indah.
Lihat, di luar sana bagus.
1598
01:33:18,467 --> 01:33:19,969
IKUTI KAMI DI MEDIA SOSIAL!
1599
01:33:20,052 --> 01:33:21,887
HANYA BERCANDA
1600
01:33:21,971 --> 01:33:27,476
AYO MEMBAHAS CARA MEMPERBAIKINYA
THESOCIALDILEMMA.COM
1601
01:33:32,064 --> 01:33:34,609
Terjemahan subtitle oleh Alphino Fajar
1603
01:33:35,305 --> 01:34:35,887
Dukung kami dan jadilah anggota VIP
supaya semua iklan tidak ditampilkan di www.OpenSubtitles.org
137011
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.