All language subtitles for We.Need.To.Talk.About.A.I..2020.720p.WEBRip.x264.AAC-[YTS.MX]-th
Afrikaans
Albanian
Amharic
Arabic
Armenian
Azerbaijani
Basque
Belarusian
Bengali
Bosnian
Bulgarian
Catalan
Cebuano
Chichewa
Chinese (Simplified)
Chinese (Traditional)
Corsican
Croatian
Czech
Danish
Dutch
English
Esperanto
Estonian
Filipino
Finnish
French
Frisian
Galician
Georgian
German
Greek
Gujarati
Haitian Creole
Hausa
Hawaiian
Hebrew
Hindi
Hmong
Hungarian
Icelandic
Igbo
Indonesian
Irish
Italian
Japanese
Javanese
Kannada
Kazakh
Khmer
Korean
Kurdish (Kurmanji)
Kyrgyz
Lao
Latin
Latvian
Lithuanian
Luxembourgish
Macedonian
Malagasy
Malay
Malayalam
Maltese
Maori
Marathi
Mongolian
Myanmar (Burmese)
Nepali
Norwegian
Pashto
Persian
Polish
Portuguese
Punjabi
Romanian
Russian
Samoan
Scots Gaelic
Serbian
Sesotho
Shona
Sindhi
Sinhala
Slovak
Slovenian
Somali
Spanish
Sundanese
Swahili
Swedish
Tajik
Tamil
Telugu
Turkish
Ukrainian
Urdu
Uzbek
Vietnamese
Welsh
Xhosa
Yiddish
Yoruba
Zulu
Odia (Oriya)
Kinyarwanda
Turkmen
Tatar
Uyghur
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:02,000 --> 00:00:07,000
ดาวน์โหลดมาจาก
YTS.MX
2
00:00:08,000 --> 00:00:13,000
เว็บไซต์ภาพยนตร์ YIFY อย่างเป็นทางการ:
YTS.MX
3
00:00:48,222 --> 00:00:51,703
ถ้าเราสร้างสิ่งประดิษฐ์
สติปัญญาทั่วไป
4
00:00:51,747 --> 00:00:53,531
นั่นจะเป็นงานที่ใหญ่ที่สุด
5
00:00:53,575 --> 00:00:56,708
ในประวัติศาสตร์
ของชีวิตบนโลก
6
00:00:56,752 --> 00:01:00,147
หน่วยสืบราชการลับของมนุษย์ต่างดาวภายในระบบคอมพิวเตอร์นั่นเอง
7
00:01:00,190 --> 00:01:03,280
มีอำนาจควบคุมโลก
วันที่มันมาถึง...
8
00:01:03,324 --> 00:01:05,108
และนิยายวิทยาศาสตร์
หนังสือและภาพยนตร์
9
00:01:05,152 --> 00:01:07,197
ได้ตั้งค่าไว้ล่วงหน้าแล้ว
10
00:01:25,781 --> 00:01:27,696
มีปัญหาอะไร?
11
00:01:27,739 --> 00:01:29,698
ฉันคิดว่าคุณรู้
ปัญหาคืออะไร
12
00:01:29,741 --> 00:01:31,134
เช่นเดียวกับที่ฉันทำ
13
00:01:31,178 --> 00:01:32,701
คุณคืออะไร
พูดถึง HAL?
14
00:01:34,094 --> 00:01:35,617
ภารกิจครั้งนี้
มันสำคัญเกินไป
15
00:01:35,660 --> 00:01:37,793
สำหรับฉันที่จะอนุญาตให้คุณ
ที่จะเป็นอันตรายต่อมัน
16
00:01:39,360 --> 00:01:42,363
ฉันไม่รู้ว่าคุณเป็นอะไร
พูดถึง HAL
17
00:01:42,406 --> 00:01:45,975
HAL ผู้มีสติปัญญาสุดยอด
คอมพิวเตอร์.
18
00:01:46,018 --> 00:01:48,325
เราจะเรียกมันว่า AI วันนี้
19
00:01:49,544 --> 00:01:52,242
ตัวละครของฉันเดฟ
คือนักบินอวกาศ
20
00:01:52,286 --> 00:01:55,027
หนึ่งในคำทำนายที่สุด
หนังที่เคยสร้างมา
21
00:01:55,071 --> 00:01:57,378
เกี่ยวกับภัยคุกคาม
ถูกวางตัวต่อมนุษยชาติ
22
00:01:57,421 --> 00:01:59,423
โดยปัญญาประดิษฐ์
23
00:02:01,121 --> 00:02:03,166
HAL เป็นนิยายวิทยาศาสตร์
24
00:02:03,210 --> 00:02:06,996
แต่ตอนนี้ AI อยู่รอบตัวเรา
25
00:02:07,039 --> 00:02:09,172
ปัญญาประดิษฐ์
ไม่ใช่อนาคต
26
00:02:09,216 --> 00:02:11,087
AI อยู่ที่นี่แล้ว
27
00:02:11,131 --> 00:02:12,915
สัปดาห์นี้จะมีหุ่นยนต์
วิ่งไปหานายกเทศมนตรี
28
00:02:12,958 --> 00:02:14,177
ในขนาดเล็ก
เมืองญี่ปุ่น
29
00:02:14,221 --> 00:02:15,352
ทำเนียบขาวกล่าวว่า
30
00:02:15,396 --> 00:02:17,137
มันกำลังสร้าง
กองกำลังใหม่
31
00:02:17,180 --> 00:02:19,182
ที่จะมุ่งเน้น
เกี่ยวกับปัญญาประดิษฐ์
32
00:02:19,226 --> 00:02:21,271
Google ได้แล้ว
ประกาศแผนการ
33
00:02:21,315 --> 00:02:23,360
เพื่อลงทุนเพิ่มเติมในการวิจัย AI
34
00:02:23,404 --> 00:02:28,713
IBM ส่งหุ่นยนต์ปัญญาประดิษฐ์ขึ้นสู่อวกาศ
35
00:02:28,757 --> 00:02:31,673
เพราะหน้าที่เล็กๆของฉัน
ในการสนทนา
36
00:02:31,716 --> 00:02:34,154
ฉันเข้าใจ
ว่าเรากำลังเดินทาง
37
00:02:34,197 --> 00:02:37,244
อันที่เริ่มต้น
ด้วย AI ที่แคบ
38
00:02:37,287 --> 00:02:39,942
เครื่องจักรที่ทำงาน
งานเฉพาะ
39
00:02:39,985 --> 00:02:41,378
ดีกว่าที่เราสามารถทำได้
40
00:02:42,336 --> 00:02:44,381
แต่ AI ของนิยายวิทยาศาสตร์
41
00:02:44,425 --> 00:02:47,471
เป็นทั่วไปเทียม
ปัญญา,
42
00:02:47,515 --> 00:02:50,213
เครื่องจักรที่สามารถ
ทำทุกอย่าง
43
00:02:50,257 --> 00:02:51,693
ดีกว่าเรา
44
00:02:52,694 --> 00:02:54,478
AI แคบจริงๆ
45
00:02:54,522 --> 00:02:57,220
เหมือนคนฉลาดงี่เง่า
ถึงขีดสุด
46
00:02:57,264 --> 00:02:58,830
ที่มันสามารถทำอะไรบางอย่างได้
47
00:02:58,874 --> 00:03:00,963
เหมือนการคูณตัวเลข
เร็วจริงๆ,
48
00:03:01,006 --> 00:03:02,617
ดีกว่ามนุษย์คนใด
49
00:03:02,660 --> 00:03:06,011
แต่มันก็ทำไม่ได้
สิ่งอื่นใดอีก
50
00:03:06,055 --> 00:03:09,928
แต่ AGI เทียม
สติปัญญาทั่วไป
51
00:03:09,972 --> 00:03:12,453
ซึ่งยังไม่มี
แทน
52
00:03:12,496 --> 00:03:14,629
ปัญญา
ที่สามารถทำทุกอย่างได้
53
00:03:14,672 --> 00:03:15,934
เช่นเดียวกับที่มนุษย์สามารถทำได้
54
00:03:21,244 --> 00:03:24,247
แล้วจะเกิดอะไรขึ้น
ถ้าเราสร้าง AGI ขึ้นมาล่ะ?
55
00:03:25,248 --> 00:03:27,294
ผู้เขียนนิยายวิทยาศาสตร์
ได้เตือนเราแล้ว
56
00:03:27,337 --> 00:03:28,773
มันอาจจะเป็นอันตรายได้
57
00:03:29,513 --> 00:03:31,385
และพวกเขาไม่ใช่คนเดียว
58
00:03:32,864 --> 00:03:35,911
ฉันคิดว่าผู้คนควรกังวลเกี่ยวกับเรื่องนี้
59
00:03:35,954 --> 00:03:37,565
AI เป็นความเสี่ยงขั้นพื้นฐาน
60
00:03:37,608 --> 00:03:39,349
ต่อการดำรงอยู่
ของอารยธรรมมนุษย์
61
00:03:39,393 --> 00:03:42,178
และฉันไม่คิดว่าผู้คน
ขอขอบคุณอย่างเต็มที่
62
00:03:42,222 --> 00:03:43,919
ฉันคิดว่าเราต้อง
กังวลเกี่ยวกับมัน
63
00:03:43,962 --> 00:03:45,225
ฉันไม่คิดว่ามันมีอยู่จริง
64
00:03:45,268 --> 00:03:48,010
ในขณะที่เราสร้าง
สติปัญญาสุดยอด
65
00:03:48,053 --> 00:03:49,533
ว่ามันจะ
จำเป็นเสมอ
66
00:03:49,577 --> 00:03:51,927
มีเป้าหมายเดียวกันในใจ
ที่เราทำ
67
00:03:51,970 --> 00:03:53,233
ผมคิดว่าการพัฒนา
68
00:03:53,276 --> 00:03:55,713
เต็ม
ปัญญาประดิษฐ์
69
00:03:55,757 --> 00:03:58,368
สามารถสะกดจุดสิ้นสุดได้
ของเผ่าพันธุ์มนุษย์
70
00:03:58,412 --> 00:04:00,457
...จุดจบของเผ่าพันธุ์มนุษย์
71
00:04:01,893 --> 00:04:05,201
พรุ่งนี้ถ้าพาดหัวว่า
ปัญญาประดิษฐ์
72
00:04:05,245 --> 00:04:08,248
ได้รับการผลิตแล้ว
นั่นก็ฉลาดเหมือนกัน
73
00:04:08,291 --> 00:04:10,293
หรือฉลาดกว่านั้น
กว่ามนุษย์
74
00:04:10,337 --> 00:04:12,077
ผู้คนก็จะโต้เถียงกันเกี่ยวกับเรื่องนี้
แต่ฉันไม่คิดว่า
75
00:04:12,121 --> 00:04:13,992
พวกเขาคงจะแปลกใจ
เพราะนิยายวิทยาศาสตร์
76
00:04:14,036 --> 00:04:15,907
ได้ช่วยให้เราจินตนาการทุกชนิด
77
00:04:15,951 --> 00:04:17,431
ของสิ่งที่ไม่อาจจินตนาการได้
78
00:04:20,999 --> 00:04:23,393
ผู้เชี่ยวชาญถูกแบ่งแยก
เกี่ยวกับผลกระทบ
79
00:04:23,437 --> 00:04:25,613
AI จะมีอนาคตของเรา
80
00:04:25,656 --> 00:04:29,747
และไม่ว่าจะเป็นฮอลลีวู้ดหรือไม่ก็ตาม
กำลังช่วยเราวางแผนสำหรับมัน
81
00:04:29,791 --> 00:04:32,750
บทสนทนาของเรา
ถูกแย่งชิงไปแล้วจริงๆ
โดยฮอลลีวูด
82
00:04:32,794 --> 00:04:35,927
เพราะเดอะเทอร์มิเนเตอร์
สร้างภาพยนตร์บล็อกบัสเตอร์ที่ดีขึ้น
83
00:04:35,971 --> 00:04:38,147
กว่าที่ AI จะดี
84
00:04:38,190 --> 00:04:39,409
หรือ AI เป็นกลาง
85
00:04:39,453 --> 00:04:41,063
หรือ AI กำลังสับสน
86
00:04:41,106 --> 00:04:42,456
เทคโนโลยีที่นี่ใน AI
87
00:04:42,499 --> 00:04:44,501
ก็ไม่แตกต่างกัน
มันเป็นเครื่องมือ
88
00:04:44,545 --> 00:04:47,156
ฉันชอบที่จะคิดเกี่ยวกับมัน
เหมือนดินสอแฟนซี
89
00:04:47,199 --> 00:04:49,593
แล้วภาพอะไร.
เราวาดด้วยมัน
90
00:04:49,637 --> 00:04:52,248
นั่นก็ขึ้นอยู่กับเราในฐานะสังคม
91
00:04:52,292 --> 00:04:55,251
เราไม่ต้องทำ
สิ่งที่ AI บอกเรา
92
00:04:55,295 --> 00:04:56,861
เราบอก AI ว่าต้องทำอย่างไร
93
00:04:58,646 --> 00:05:00,300
ฉันคิดว่า
ภาพยนตร์ฮอลลีวู้ด
94
00:05:00,343 --> 00:05:02,214
ช่วยสนทนาด้วย
95
00:05:02,258 --> 00:05:03,781
ต้องมีใครสักคนคิด
96
00:05:03,825 --> 00:05:07,089
ข้างหน้าอะไร
ผลที่ตามมาคือ
97
00:05:07,132 --> 00:05:08,786
แต่ก็เหมือนกับที่เราทำไม่ได้
จินตนาการจริงๆ
98
00:05:08,830 --> 00:05:11,311
วิทยาศาสตร์ที่แท้จริงคืออะไร
ของอนาคต
จะเป็นเช่น
99
00:05:11,354 --> 00:05:13,400
ฉันไม่คิดว่าเราได้เริ่มต้น
100
00:05:13,443 --> 00:05:16,316
ที่จะคิดจริงๆ
อนาคตที่เป็นไปได้ทั้งหมด
101
00:05:16,359 --> 00:05:19,188
ซึ่งผุดขึ้นมาในทางตรรกะ
ของเทคโนโลยีนี้
102
00:05:19,231 --> 00:05:23,497
ปัญญาประดิษฐ์ก็มี
พลังในการเปลี่ยนแปลงสังคม
103
00:05:23,540 --> 00:05:25,499
นักร้องที่กำลังเติบโต
ของการวิพากษ์วิจารณ์
104
00:05:25,542 --> 00:05:27,283
กำลังตอกย้ำถึงอันตราย
105
00:05:27,327 --> 00:05:29,416
ของการควบคุมการมอบ
ไปยังเครื่องจักร
106
00:05:29,459 --> 00:05:31,331
ก็จะมี.
มีการเปลี่ยนแปลงมากมายเกิดขึ้น
107
00:05:31,374 --> 00:05:32,897
ความกังวลระยะยาวที่ใหญ่กว่า
108
00:05:32,941 --> 00:05:35,639
คือมนุษยชาติจะเป็นอย่างนั้น
เรียงลำดับกัน
109
00:05:35,683 --> 00:05:37,598
นี่คือบางสิ่งบางอย่าง
สแตนลีย์ คูบริก และคนอื่นๆ
110
00:05:37,641 --> 00:05:39,469
เป็นกังวลเกี่ยวกับ
50 ปีที่แล้วใช่ไหม?
111
00:05:41,993 --> 00:05:43,647
มันกำลังเกิดขึ้น.
112
00:05:43,691 --> 00:05:47,608
เราจะวัดความเร่งด่วนได้อย่างไร
ของการสนทนานี้เหรอ?
113
00:05:49,436 --> 00:05:51,742
ถ้าคนเห็นในเรดาร์ตอนนี้
114
00:05:51,786 --> 00:05:54,179
นั่นยานอวกาศของมนุษย์ต่างดาว
กำลังเข้าใกล้โลก
115
00:05:54,223 --> 00:05:56,181
และอีก 25 ปีข้างหน้า
116
00:05:56,225 --> 00:05:57,835
เราจะถูกระดมพล
เตรียมตัว
117
00:05:57,879 --> 00:06:00,621
สำหรับการมาถึงของมนุษย์ต่างดาวคนนั้น
25 ปีต่อจากนี้
118
00:06:00,664 --> 00:06:03,058
แต่นั่นก็เป็นเช่นนั้น
สถานการณ์ที่เราเผชิญอยู่
119
00:06:03,101 --> 00:06:04,799
ด้วยปัญญาประดิษฐ์
120
00:06:04,842 --> 00:06:06,670
อาจจะ 25 ปี อาจจะ 50 ปี
121
00:06:06,714 --> 00:06:09,456
แต่หน่วยสืบราชการลับของมนุษย์ต่างดาวจะมาถึง
122
00:06:09,499 --> 00:06:11,109
และเราควรเตรียมตัวให้พร้อม
123
00:06:14,286 --> 00:06:16,637
ท่านสุภาพบุรุษ พบกับโทบอร์
124
00:06:16,680 --> 00:06:19,379
แบบจำลองทางอิเล็กทรอนิกส์
ของผู้ชายคนหนึ่ง
125
00:06:19,422 --> 00:06:21,772
โอ้เอ้ย. โอ้ วิลลิเกอร์ส
126
00:06:21,816 --> 00:06:24,645
ถึงแม้งานจะยังเหลืออีกมากก็ตาม
ก่อนที่เขาจะเสร็จ
127
00:06:24,688 --> 00:06:26,211
เขาเป็นอยู่แล้ว
สิ่งมีชีวิตที่มีความรู้สึก
128
00:06:28,388 --> 00:06:30,390
ย้อนกลับไปเมื่อปี พ.ศ. 2499 สมัยนั้น
129
00:06:30,433 --> 00:06:32,696
ปัญญาประดิษฐ์
ครั้งแรกเกิดขึ้น
130
00:06:32,740 --> 00:06:35,395
เป้าหมายเดิม
ของปัญญาประดิษฐ์
131
00:06:35,438 --> 00:06:37,701
เป็นสติปัญญาระดับมนุษย์
132
00:06:37,745 --> 00:06:41,052
เขาดูเกือบจะใจดี
เขาใช่ไหม?
133
00:06:41,096 --> 00:06:43,838
เมื่อเวลาผ่านไปมันพิสูจน์แล้วว่าเป็นเรื่องยากจริงๆ
134
00:06:46,449 --> 00:06:49,626
ฉันคิดว่าท้ายที่สุดแล้ว
เราก็จะได้ระดับมนุษย์
135
00:06:49,670 --> 00:06:51,889
สติปัญญาจากเครื่องจักร
136
00:06:51,933 --> 00:06:55,153
แต่มันอาจจะเป็นเช่นนั้น
ไม่กี่ร้อยปี
มันจะใช้เวลาสักครู่
137
00:06:55,197 --> 00:06:57,634
และผู้คนก็ได้รับ
ตื่นเต้นเกินเหตุเล็กน้อย
138
00:06:57,678 --> 00:06:59,854
เกี่ยวกับความสามารถในอนาคต
139
00:06:59,897 --> 00:07:03,945
และตอนนี้ อิเล็กโทร
ฉันสั่งให้คุณเดินกลับ
140
00:07:04,293 --> 00:07:05,425
กลับ.
141
00:07:08,297 --> 00:07:09,559
เกือบทุกรุ่น
142
00:07:09,603 --> 00:07:11,169
ผู้คนได้รับ
กระตือรือร้นมาก
143
00:07:11,213 --> 00:07:12,736
พวกเขาดูปี 2001
144
00:07:12,780 --> 00:07:14,564
พวกเขาหลงรัก HAL
พวกเขาคิด,
145
00:07:14,608 --> 00:07:16,871
“ใช่ ให้เวลาฉันหกสัปดาห์”
ฉันจะจัดการเรื่องนี้ให้”
146
00:07:17,785 --> 00:07:19,830
มันไม่เกิดขึ้นและทุกคนก็อารมณ์เสีย
147
00:07:21,179 --> 00:07:24,052
แล้วมีอะไรเปลี่ยนแปลงบ้าง
ในการวิจัย AI?
148
00:07:26,489 --> 00:07:28,839
ความแตกต่างกับ AI ที่เรามีในปัจจุบัน
149
00:07:28,883 --> 00:07:32,495
และเหตุผลที่จู่ๆ AI ก็ก้าวกระโดดครั้งใหญ่นี้
150
00:07:32,539 --> 00:07:34,758
คืออินเทอร์เน็ต
นั่นคือโลกของพวกเขา
151
00:07:34,802 --> 00:07:37,587
คืนนี้ข้อมูล.
ทางด่วน,
152
00:07:37,631 --> 00:07:39,415
และหนึ่งในหลัก
ทางสัญจร,
153
00:07:39,459 --> 00:07:42,505
เครือข่ายออนไลน์
เรียกว่าอินเทอร์เน็ต
154
00:07:42,549 --> 00:07:45,421
ในปี พ.ศ. 2524
มีคอมพิวเตอร์เพียง 213 เครื่อง
155
00:07:45,465 --> 00:07:46,901
ติดอินเทอร์เน็ต
156
00:07:46,944 --> 00:07:48,816
เมื่อปีใหม่เริ่มต้นขึ้น
ประมาณ
157
00:07:48,859 --> 00:07:50,600
สองล้านครึ่ง
คอมพิวเตอร์
158
00:07:50,644 --> 00:07:51,993
จะอยู่ในเครือข่าย
159
00:07:53,516 --> 00:07:55,126
เอไอจำเป็นต้องกิน
160
00:07:55,170 --> 00:07:57,346
เหมือนแกะต้องการหญ้า
161
00:07:57,389 --> 00:07:59,087
AI ต้องการข้อมูล
162
00:07:59,130 --> 00:08:02,525
และข้อมูลอันมหาศาล
อยู่บนอินเทอร์เน็ต
163
00:08:03,134 --> 00:08:04,484
นั่นคือสิ่งที่มันเป็น
164
00:08:05,136 --> 00:08:06,181
พวกเขาพูดว่า "คุณรู้อะไรไหม?
165
00:08:06,224 --> 00:08:07,661
“ปล่อยพวกมันไปข้างนอกกันเถอะ”
166
00:08:09,532 --> 00:08:11,839
และทันใดนั้น,
AIs มีชีวิตขึ้นมา
167
00:08:11,882 --> 00:08:14,276
จินตนาการ
หุ่นยนต์พูดได้นับพันตัว
168
00:08:14,319 --> 00:08:15,973
สามารถเคลื่อนย้ายเป็นหน่วยเดียวได้
169
00:08:16,017 --> 00:08:17,322
ก่ออาชญากรรม, ไฟไหม้,
170
00:08:17,366 --> 00:08:18,976
และภัยธรรมชาติ
171
00:08:19,020 --> 00:08:21,805
ปัญญาประดิษฐ์
แพลตฟอร์ม แอมแปร์
172
00:08:21,849 --> 00:08:24,416
ได้สร้างอัลบั้มแรก
เรียบเรียงอย่างสมบูรณ์
173
00:08:24,460 --> 00:08:26,157
และผลิต
โดยปัญญาประดิษฐ์
174
00:08:26,201 --> 00:08:29,552
สัปดาห์หน้าจะเป็นของ Christie's
บ้านประมูลแห่งแรก
175
00:08:29,596 --> 00:08:33,251
เพื่อนำเสนองานศิลปะที่สร้างขึ้น
โดยปัญญาประดิษฐ์
176
00:08:34,165 --> 00:08:35,819
รถยนต์ไร้คนขับว่ากันว่าเป็น
177
00:08:35,863 --> 00:08:38,648
ในอนาคตอันไม่ไกลของเรา
178
00:08:38,692 --> 00:08:40,955
ดังนั้นแม้ว่า
เราไม่มี AGI
179
00:08:40,998 --> 00:08:44,262
หรือระดับมนุษย์
สติปัญญายัง
180
00:08:44,306 --> 00:08:45,699
เราพร้อมหรือยังที่จะให้เอกราช
181
00:08:45,742 --> 00:08:48,440
ไปยังเครื่องจักรที่เรามี?
182
00:08:48,484 --> 00:08:51,574
ควรขับรถด้วยตนเอง
ตัดสินใจอย่างมีจริยธรรม?
183
00:08:51,618 --> 00:08:53,881
นั่นคือการอภิปรายที่เพิ่มขึ้น
เป็นเทคโนโลยี
184
00:08:53,924 --> 00:08:56,318
เคลื่อนตัวเข้ามาใกล้มากขึ้น
ความเป็นจริงกระแสหลัก
185
00:08:58,233 --> 00:08:59,843
ความคิดนี้
หรือไม่ก็ตาม
186
00:08:59,887 --> 00:09:02,846
เราสามารถปลูกฝังจริยธรรมได้
เข้าไปในเครื่องจักร
187
00:09:02,890 --> 00:09:04,544
ไม่ว่าพวกเขาจะเป็นหรือไม่ก็ตาม
เครื่องจักรอัตโนมัติ
188
00:09:04,587 --> 00:09:06,415
หรือเครื่องจักรอัตโนมัติ
189
00:09:06,458 --> 00:09:08,286
ฉันไม่แน่ใจ
เราเข้าใจเรื่องนี้แล้ว
190
00:09:08,330 --> 00:09:09,723
ถ้าคุณมี
รถยนต์ที่ขับเคลื่อนด้วยตนเอง
191
00:09:09,766 --> 00:09:11,202
มันจะต้องทำ
การตัดสินใจทางจริยธรรม
192
00:09:11,246 --> 00:09:14,641
คลาสสิคที่ใครๆ ต่างก็เคยเป็น
คิดมากเกี่ยวกับคือ...
193
00:09:14,684 --> 00:09:16,556
ฉันไม่รู้ว่าคุณเคยได้ยินหรือเปล่า
จากปัญหารถเข็น
194
00:09:16,599 --> 00:09:18,122
ปัญหารถเข็น ปัญหารถเข็น
195
00:09:18,166 --> 00:09:20,211
ปัญหารถเข็น ปัญหารถเข็น
196
00:09:21,604 --> 00:09:22,823
ในปัญหารถเข็น
197
00:09:22,866 --> 00:09:24,172
หรือไม่ก็ตาม
รถไร้คนขับ
198
00:09:24,215 --> 00:09:26,870
จะไปช่วยคนขับ
หรือวิ่งไป
199
00:09:26,914 --> 00:09:29,046
กลุ่มเด็กนักเรียน
ข้ามถนน
200
00:09:29,090 --> 00:09:31,614
จะรถ.
ไปทางขวาแล้วตีหญิงชรา
201
00:09:31,658 --> 00:09:35,575
หรือจะไปทางซ้ายแล้วฆ่า
สี่หนุ่มเหรอ?
202
00:09:35,618 --> 00:09:39,143
หรือฆ่าคนไปห้าคน
ยืนอยู่บนป้ายรถเมล์
203
00:09:39,187 --> 00:09:40,405
หรือฆ่าตัวตาย
204
00:09:40,449 --> 00:09:41,972
มันเป็นการตัดสินใจที่มีจริยธรรม
205
00:09:42,016 --> 00:09:43,931
ที่จะต้องทำ
ในขณะนี้
206
00:09:43,974 --> 00:09:46,020
เร็วเกินไปสำหรับใครก็ตาม
เพื่อเข้าไปที่นั่น
207
00:09:46,063 --> 00:09:48,544
ดังนั้นมันจึงเป็นซอฟต์แวร์
ในรถที่ขับเคลื่อนด้วยตนเองของคุณ
208
00:09:48,588 --> 00:09:50,546
นั่นจะทำให้
การตัดสินใจทางจริยธรรมนั้น
209
00:09:50,590 --> 00:09:51,852
ใครเป็นผู้ตัดสินว่า?
210
00:09:52,679 --> 00:09:53,897
สังคมอัจฉริยะ
211
00:09:53,941 --> 00:09:55,899
สังคมนั้น
ให้ความสำคัญกับชีวิตมนุษย์
212
00:09:55,943 --> 00:09:58,336
ควรตัดสินใจแบบนั้น
213
00:09:58,380 --> 00:10:02,427
ฆ่าคนคนหนึ่ง
จะดีกว่า
เพื่อฆ่าคนห้าคน
214
00:10:02,471 --> 00:10:06,344
แน่นอน,
มันทำให้เกิดคำถาม
ใครจะซื้อรถคันนั้น
215
00:10:06,388 --> 00:10:09,130
หรือคุณรู้ไหมว่าคุณจะ
ซื้อรถที่ไหนจริงๆ
216
00:10:09,173 --> 00:10:11,654
มันจะหักเลี้ยว
แล้วคุณจะสบายดี
217
00:10:11,698 --> 00:10:13,134
แต่พวกเขาหายไปแล้ว
218
00:10:14,918 --> 00:10:17,442
มีหลายร้อย
ของคำถามเหล่านั้น
219
00:10:17,486 --> 00:10:19,140
ทั้งหมดทั่วทั้งสังคม
220
00:10:19,183 --> 00:10:22,883
นักปรัชญาจริยธรรมก็เช่นกัน
ต่อสู้ไปมา
221
00:10:25,146 --> 00:10:27,583
ความโกรธของฉันด้วย
นักปรัชญาก็คือ
222
00:10:27,627 --> 00:10:30,804
พวกเขากำลังดูดออกซิเจน
ออกจากห้อง
223
00:10:30,847 --> 00:10:33,763
มีคำอุปมานี้
ที่ฉันมี
224
00:10:33,807 --> 00:10:37,114
คุณมีรถ
ขับรถออกจากงานแต่งงาน
225
00:10:37,158 --> 00:10:41,205
และรถกำลังขับอยู่
และด้านหลังก็มีกระป๋องอยู่
226
00:10:41,249 --> 00:10:45,645
และกระป๋องโลหะก็มี
ส่งเสียงดังเอี๊ยดและทำเสียงดัง
227
00:10:45,688 --> 00:10:47,690
รถคันนั้นเป็นวิทยาศาสตร์
228
00:10:47,734 --> 00:10:50,345
และเทคโนโลยี
ขับเคลื่อนไปข้างหน้าอย่างเด็ดเดี่ยว
229
00:10:50,388 --> 00:10:51,955
และกระป๋องโลหะก็ส่งเสียงดังเอี๊ยด
230
00:10:51,999 --> 00:10:54,697
คือนักปรัชญา
ทำเสียงดังมาก
231
00:10:54,741 --> 00:10:56,525
โลกกำลังเปลี่ยนแปลง
ในลักษณะดังกล่าว
232
00:10:56,568 --> 00:11:01,138
ว่าคำถามของเรา
เครื่องจักรก่อสร้าง
233
00:11:01,182 --> 00:11:04,098
ที่อาจกลายเป็น
ฉลาดกว่าเราอีก
234
00:11:04,141 --> 00:11:07,710
เป็นความจริงมากกว่านิยายในตอนนี้
235
00:11:10,147 --> 00:11:12,759
อย่าเรา
ต้องถามคำถามตอนนี้
236
00:11:12,802 --> 00:11:15,805
ก่อนเครื่องจักร
ฉลาดกว่าเราเหรอ?
237
00:11:15,849 --> 00:11:18,373
ฉันหมายถึงจะเกิดอะไรขึ้นถ้าพวกเขา
บรรลุจิตสำนึก?
238
00:11:19,635 --> 00:11:21,463
ไกลแค่ไหน?
239
00:11:25,075 --> 00:11:26,816
เราสนิทกันแค่ไหน.
สู่เครื่องจักรที่มีสติ?
240
00:11:26,860 --> 00:11:28,688
นั่นคือคำถาม
ที่นำมา
241
00:11:28,731 --> 00:11:32,082
นักปรัชญาและนักวิทยาศาสตร์
ฉันคิดว่าจะพัด
242
00:11:32,126 --> 00:11:34,302
คุณเป็นศูนย์ตาย
243
00:11:34,345 --> 00:11:37,871
ของยิ่งใหญ่ที่สุด
เหตุการณ์ทางวิทยาศาสตร์
ในประวัติศาสตร์ของมนุษย์
244
00:11:37,914 --> 00:11:39,699
หากคุณได้สร้าง
เครื่องจักรที่มีสติ
245
00:11:39,742 --> 00:11:41,309
มันไม่ใช่ประวัติศาสตร์ของมนุษย์
246
00:11:42,614 --> 00:11:44,834
นั่นคือประวัติของเทพเจ้า
247
00:11:44,878 --> 00:11:48,533
ปัญหาเรื่องสติสัมปชัญญะ
แทบจะไม่มีใครเลย
248
00:11:48,577 --> 00:11:50,884
สามารถกำหนดได้อย่างชัดเจนว่ามันคืออะไร
249
00:11:53,408 --> 00:11:55,976
มันคือจิตสำนึก
นั่นทำให้เราพิเศษเหรอ?
250
00:11:57,586 --> 00:11:58,718
มนุษย์?
251
00:12:00,894 --> 00:12:03,026
มีวิธีคิด
เกี่ยวกับจิตสำนึก
252
00:12:03,070 --> 00:12:05,159
ซึ่งมีผู้คนมากมาย
จะเห็นด้วยกับ...
253
00:12:05,202 --> 00:12:07,857
คุณจะไม่มีวันพบสิ่งที่ดึงดูดใจทุกคน
254
00:12:07,901 --> 00:12:10,468
...มันไม่ใช่แค่.
ไฟกระพริบ,
แต่มีคนอยู่บ้าน
255
00:12:11,252 --> 00:12:13,036
ดังนั้นถ้าคุณมี...
256
00:12:13,080 --> 00:12:15,386
ถ้าคุณซื้อ
หนึ่งในสิ่งเล็กน้อยเหล่านั้น
257
00:12:15,430 --> 00:12:16,953
เครื่องเล่นหมากรุกธรรมดา
258
00:12:17,606 --> 00:12:19,173
มันอาจจะเอาชนะคุณด้วยหมากรุก
259
00:12:19,216 --> 00:12:21,218
มี
มีไฟกระพริบมากมาย
260
00:12:21,262 --> 00:12:23,743
แต่ไม่มีใครเข้าเลย
เมื่อมันชนะ
261
00:12:23,786 --> 00:12:25,222
ไป "ฉันชนะ"
262
00:12:25,962 --> 00:12:29,749
เอาล่ะ?
ในขณะที่สุนัขของคุณ
263
00:12:29,792 --> 00:12:32,534
เป็นนักเล่นหมากรุกขยะ
264
00:12:32,577 --> 00:12:33,927
แต่คุณมองไปที่สุนัข
และคุณคิดว่า
265
00:12:33,970 --> 00:12:36,930
“มีคนเข้ามาจริงๆ..
มันไม่ใช่แค่กลไกเท่านั้น”
266
00:12:38,845 --> 00:12:42,283
มีคนสงสัยว่าปัญญาทั่วไป
267
00:12:42,326 --> 00:12:44,459
ต้องใช้สติ
268
00:12:46,766 --> 00:12:50,160
ส่วนหนึ่งอาจขึ้นอยู่กับอะไร
ระดับสติปัญญาทั่วไป
คุณกำลังพูดถึง
269
00:12:50,204 --> 00:12:53,250
เมาส์ก็มีบางชนิด
ของสติปัญญาทั่วไป
270
00:12:53,294 --> 00:12:55,339
ฉันเดาว่าถ้าคุณมี
เครื่องที่มี
271
00:12:55,383 --> 00:12:58,473
หน่วยสืบราชการลับทั่วไป
ในระดับของ
พูดเมาส์หรือมากกว่านั้น
272
00:12:58,516 --> 00:13:00,997
มันจะเป็นคู่แข่งที่ดีในการมีสติ
273
00:13:04,653 --> 00:13:05,697
เรายังไปไม่ถึง
274
00:13:05,741 --> 00:13:07,787
เราไม่ได้เผชิญหน้ากับหุ่นยนต์ฮิวแมนนอยด์
275
00:13:07,830 --> 00:13:09,832
ที่ฉลาดกว่าเรา
276
00:13:09,876 --> 00:13:12,182
เราอยู่ในนี้
ตำแหน่งทางจริยธรรมที่อยากรู้อยากเห็น
277
00:13:12,226 --> 00:13:15,446
โดยไม่รู้ว่าที่ไหนและอย่างไร
สติสัมปชัญญะก็ปรากฏ
278
00:13:15,490 --> 00:13:18,841
และเรากำลังสร้าง
ซับซ้อนมากขึ้น
จิตใจ
279
00:13:18,885 --> 00:13:20,800
เราจะไม่รู้ว่า
หรือไม่พวกเขาก็ยังมีสติอยู่
280
00:13:20,843 --> 00:13:22,062
แต่เราอาจรู้สึกว่าเป็นเช่นนั้น
281
00:13:24,194 --> 00:13:26,718
ตัวอย่างที่ง่ายที่สุด
คือถ้าคุณตั้งโปรแกรมไว้
282
00:13:26,762 --> 00:13:29,634
ลงในคอมพิวเตอร์ ทุกสิ่งที่คุณรู้เกี่ยวกับความสุข
283
00:13:29,678 --> 00:13:31,201
ทุกการอ้างอิงในวรรณคดี
284
00:13:31,245 --> 00:13:33,943
ทุกคำจำกัดความ
สารประกอบเคมีทุกชนิด
285
00:13:33,987 --> 00:13:36,119
ที่เกี่ยวข้องกับความสุข
ในสมองของมนุษย์
286
00:13:36,163 --> 00:13:39,644
และคุณใส่ทั้งหมดนั้น
ข้อมูลในคอมพิวเตอร์
287
00:13:39,688 --> 00:13:42,778
คุณสามารถโต้แย้งได้
ว่ามันเข้าใจถึงความยินดี
288
00:13:42,822 --> 00:13:45,476
คำถามคือ,
มันเคยรู้สึกมีความสุขไหม?
289
00:13:51,613 --> 00:13:53,354
HAL มีอารมณ์ไหม?
290
00:13:55,095 --> 00:13:58,228
AIจะเคยรู้สึกไหม.
วิธีที่เราทำ?
291
00:13:59,882 --> 00:14:02,406
มันยากมากที่จะได้รับ
เครื่องจักรในการทำสิ่งต่างๆ
292
00:14:02,450 --> 00:14:06,149
ที่เราคิดไม่ถึง
ที่เราไม่รู้ตัว
293
00:14:06,193 --> 00:14:09,326
สิ่งต่างๆ เช่น การตรวจจับ
คนนั้นคนนั้น
294
00:14:09,370 --> 00:14:11,198
ไม่มีความสุขจริงๆ
ด้วยวิธีนั้น...
295
00:14:11,241 --> 00:14:12,721
บางอย่างเกี่ยวกับ
ฉันกำลังทำอะไรอยู่.
296
00:14:12,764 --> 00:14:14,027
และพวกเขากำลังส่ง
สัญญาณที่ละเอียดอ่อน
297
00:14:14,070 --> 00:14:15,506
และฉันอาจจะ
ควรเปลี่ยนสิ่งที่ฉันทำอยู่
298
00:14:17,334 --> 00:14:18,988
เราไม่รู้วิธีสร้าง
เครื่องจักรที่สามารถเป็นได้จริง
299
00:14:19,032 --> 00:14:22,252
ปรับให้เข้ากับประเภทเหล่านั้น
ของสัญญาณทางสังคมเล็กๆ น้อยๆ
300
00:14:24,994 --> 00:14:28,389
มีความคิดนี้ว่าบางที
มีบางอย่างมหัศจรรย์
301
00:14:28,432 --> 00:14:30,434
เกี่ยวกับสมอง
302
00:14:30,478 --> 00:14:32,045
เกี่ยวกับชุดเปียก
ของการมี
303
00:14:32,088 --> 00:14:33,785
ข้อมูล
ระบบประมวลผล
304
00:14:33,829 --> 00:14:34,917
ทำจากเนื้อใช่ไหม?
305
00:14:34,961 --> 00:14:37,311
และไม่ว่าเราจะทำอะไรก็ตาม
ในเครื่องของเรา
306
00:14:37,354 --> 00:14:40,705
อย่างไรก็ตามมีความสามารถ
พวกเขาเริ่มดูเหมือน
307
00:14:40,749 --> 00:14:42,272
พวกเขาไม่เคยจริงๆ
จะเป็นคนฉลาด
308
00:14:42,316 --> 00:14:44,579
ในแบบที่เราประสบ
ตัวเราเองจะเป็น
309
00:14:46,233 --> 00:14:48,975
ไม่มีพื้นฐานสำหรับเรื่องนั้นจริงๆ
310
00:14:51,238 --> 00:14:53,240
ความคิดโง่ๆแบบนี้
คุณไม่สามารถฉลาดได้
311
00:14:53,283 --> 00:14:55,155
เว้นแต่คุณจะทำจากเนื้อสัตว์
312
00:14:56,765 --> 00:14:58,201
จากมุมมองของฉัน,
ในฐานะนักฟิสิกส์
313
00:14:58,245 --> 00:15:00,682
นั่นเป็นเพียงลัทธิชาตินิยมคาร์บอน
314
00:15:00,725 --> 00:15:02,118
เครื่องจักรเหล่านั้น
ทำจากอย่างแน่นอน
315
00:15:02,162 --> 00:15:03,903
ชนิดเดียวกัน
อนุภาคมูลฐาน
316
00:15:03,946 --> 00:15:05,382
ที่สมองของฉันถูกสร้างขึ้นมา
317
00:15:06,775 --> 00:15:08,429
ความฉลาดเป็นเพียง
บางอย่าง...
318
00:15:08,472 --> 00:15:10,170
และสติสัมปชัญญะก็เป็นเพียง
319
00:15:10,213 --> 00:15:12,259
การประมวลผลข้อมูลบางประเภท
320
00:15:15,262 --> 00:15:17,655
บางทีเราอาจไม่ใช่
พิเศษมาก
321
00:15:19,744 --> 00:15:21,268
สมองของเราที่มีคาร์บอนเป็นส่วนประกอบหลัก
322
00:15:21,311 --> 00:15:23,531
สามารถจำลองด้วยซิลิคอนได้หรือไม่?
323
00:15:25,185 --> 00:15:28,405
เรากำลังพยายามที่จะสร้าง
ทารกที่สร้างจากคอมพิวเตอร์
324
00:15:28,449 --> 00:15:31,060
ที่เราสามารถสอนได้
เหมือนเด็กทารกจริงๆ
325
00:15:31,104 --> 00:15:34,237
ด้วยศักยภาพของสติปัญญาทั่วไป
326
00:15:39,808 --> 00:15:42,550
เพื่อทำเช่นนั้นคุณจริงๆ
ต้องสร้าง
สมองคอมพิวเตอร์
327
00:15:46,162 --> 00:15:50,645
ฉันต้องการสร้างโมเดลสมองของเล่นง่ายๆ
328
00:15:52,168 --> 00:15:53,474
ในระบบที่เป็นตัวเป็นตน
329
00:15:53,517 --> 00:15:56,694
ที่คุณสามารถโต้ตอบด้วยได้
ตัวต่อตัว.
330
00:16:00,394 --> 00:16:03,527
และฉันก็บังเอิญมีลูกอยู่ที่บ้าน
331
00:16:03,571 --> 00:16:04,964
ทารกที่แท้จริง
332
00:16:05,660 --> 00:16:07,836
และฉันก็สแกนทารก
333
00:16:07,879 --> 00:16:10,795
ฉันจึงสามารถสร้างโมเดล 3 มิติจากเธอได้
334
00:16:10,839 --> 00:16:12,493
แล้วใช้ใบหน้าของเธอ
335
00:16:12,536 --> 00:16:15,452
โดยพื้นฐานแล้วเป็นศูนย์รวม
ของระบบ
336
00:16:17,063 --> 00:16:20,109
หากสมองประกอบด้วยเซลล์
337
00:16:20,153 --> 00:16:23,199
และมีเลือดสูบฉีด สามารถคิดได้
338
00:16:24,461 --> 00:16:27,682
มันอาจจะเป็นไปได้
ที่คอมพิวเตอร์สามารถคิดได้
339
00:16:28,770 --> 00:16:33,166
หากข้อมูลมีการเคลื่อนไหวในลักษณะเดียวกัน
340
00:16:37,474 --> 00:16:39,476
มาก
ปัญญาประดิษฐ์
ในขณะนี้วันนี้
341
00:16:39,520 --> 00:16:42,044
เป็นเรื่องเกี่ยวกับจริงๆ
การจดจำรูปแบบขั้นสูง
342
00:16:42,088 --> 00:16:44,003
มันไม่เกี่ยวกับหุ่นยนต์นักฆ่า
343
00:16:44,046 --> 00:16:45,830
ที่จะเข้าควบคุม
โลก ฯลฯ
344
00:16:47,702 --> 00:16:51,053
นี่คือ Baby X
เธอกำลังถ่ายทอดสด
บนคอมพิวเตอร์ของฉัน
345
00:16:51,097 --> 00:16:54,056
ดังนั้นในขณะที่ฉันขยับมือไปรอบๆ
ส่งเสียงดัง,
346
00:16:54,100 --> 00:16:55,710
เธอจะตกใจกลัว
347
00:16:55,753 --> 00:16:57,407
เราสามารถซูมเข้าได้
348
00:16:57,451 --> 00:17:00,845
โดยพื้นฐานแล้วเธอสามารถเห็นฉันได้
และฟังฉันนะ เธอก็รู้
349
00:17:00,889 --> 00:17:03,022
เฮ้ ที่รัก
350
00:17:03,065 --> 00:17:05,067
เธอไม่ได้เลียนแบบรอยยิ้มของฉัน
351
00:17:05,111 --> 00:17:07,417
เธอตอบสนองต่อรอยยิ้มของฉัน
352
00:17:08,114 --> 00:17:09,637
เธอจึงตอบรับฉัน
353
00:17:09,680 --> 00:17:12,205
และเรากังวลมาก
กับคำถาม
354
00:17:12,248 --> 00:17:14,207
เราจะเป็นอย่างไร
โต้ตอบกันจริงๆ
355
00:17:14,250 --> 00:17:16,644
ด้วยปัญญาประดิษฐ์
ในอนาคต.
356
00:17:17,688 --> 00:17:19,995
อา...
357
00:17:20,039 --> 00:17:23,520
เมื่อฉันกำลังคุยกับเบบี้เอ็กซ์
ฉันจงใจ
กำลังปรับเสียงของฉัน
358
00:17:23,564 --> 00:17:25,740
และจงใจทำสีหน้าจริงจัง
359
00:17:25,783 --> 00:17:27,350
ฉันจะ "โอ้"
ทั้งหมดนี้
360
00:17:27,394 --> 00:17:29,309
เพราะฉันได้รับ
ความสนใจของเธอ
361
00:17:29,744 --> 00:17:31,572
โอ้.
362
00:17:32,834 --> 00:17:34,749
และตอนนี้ฉันก็ได้รับความสนใจจากเธอแล้ว
363
00:17:35,793 --> 00:17:37,012
ฉันสามารถสอนบางสิ่งบางอย่างได้
364
00:17:37,056 --> 00:17:38,579
เอาล่ะ นี่คือ Baby X
365
00:17:38,622 --> 00:17:41,973
และนี่คือ... เธอเคยเป็น
เรียนรู้ที่จะอ่านคำศัพท์
366
00:17:42,017 --> 00:17:43,758
ดังนั้นนี่คือ
หนังสือคำศัพท์เล่มแรกของเธอ
367
00:17:43,801 --> 00:17:47,370
มาดูกันว่ามีอะไรบ้าง
เธอสามารถเห็นได้
พลิกไปหน้า...
368
00:17:47,414 --> 00:17:49,329
และที่นี่เราไป
มาดูกันว่าเธอ...
369
00:17:49,372 --> 00:17:51,679
นี่อะไรน่ะที่รัก?
นี่อะไรน่ะ? นี่อะไรน่ะ?
370
00:17:52,245 --> 00:17:54,160
นี่อะไรน่ะ? แกะ.
371
00:17:54,203 --> 00:17:56,336
เด็กดี.
ตอนนี้ดูว่าเธอรู้หรือไม่
คำนี้คืออะไร
372
00:17:56,379 --> 00:17:58,207
ตกลง.
ที่รัก มองทางนี้สิ
373
00:17:58,251 --> 00:18:00,079
ปิดคุณไป
นี่อะไรน่ะ? นี่อะไรน่ะ?
374
00:18:01,776 --> 00:18:03,952
แกะ.เด็กดี.
375
00:18:03,995 --> 00:18:05,606
มาลองเธอกันดีกว่า
ในเรื่องอื่น
376
00:18:05,649 --> 00:18:07,216
ตกลง.
377
00:18:07,260 --> 00:18:08,826
เรามาลองกันดู
นี่อะไรน่ะ?
378
00:18:08,870 --> 00:18:10,437
ที่รัก ที่รัก อยู่ตรงนี้
นี่อะไรน่ะ?
379
00:18:15,268 --> 00:18:17,618
ที่รัก. มองฉันสิ.
มองฉันสิ. นี่อะไรน่ะ?
380
00:18:17,661 --> 00:18:19,402
ที่รัก อยู่ตรงนี้
ตรงนี้.
381
00:18:20,708 --> 00:18:22,927
น้องหมา.เด็กดี.
382
00:18:22,971 --> 00:18:24,233
นั่นคือสิ่งที่
เธอเพิ่งอ่าน
383
00:18:24,277 --> 00:18:26,148
โอ้.
384
00:18:26,192 --> 00:18:28,411
ระบบที่ชาญฉลาดที่สุด
385
00:18:28,455 --> 00:18:30,805
ที่เราตระหนักดี
คือมนุษย์
386
00:18:32,198 --> 00:18:35,114
ดังนั้นการใช้มนุษย์
เป็นแม่แบบ
387
00:18:35,157 --> 00:18:37,333
ที่เป็นรูปลักษณ์ของ Baby X
388
00:18:37,377 --> 00:18:39,509
น่าจะเป็นวิธีที่ดีที่สุด
ที่จะลอง
389
00:18:39,553 --> 00:18:41,337
เพื่อให้ได้
หน่วยสืบราชการลับทั่วไป
390
00:18:48,170 --> 00:18:49,650
เธอดูเป็นมนุษย์มาก
391
00:18:51,304 --> 00:18:53,349
นี่เด็กเหรอ.
ที่จับมือเรา
392
00:18:53,393 --> 00:18:55,699
และนำเราไปสู่ HAL?
393
00:18:57,484 --> 00:19:00,922
ไม่ว่าจะเป็นในโลกแห่งความเป็นจริง
หรือโลกเสมือนจริง
394
00:19:00,965 --> 00:19:02,358
ฉันคิดว่าศูนย์รวม
395
00:19:02,402 --> 00:19:05,492
จะเป็น
สำคัญมากที่นี่
396
00:19:05,535 --> 00:19:07,885
เพราะผมคิดอย่างนั้น
หน่วยสืบราชการลับทั่วไป
397
00:19:07,929 --> 00:19:10,888
ผูกติดอยู่กับความสามารถ
ที่จะกระทำในโลก
398
00:19:13,108 --> 00:19:14,805
คุณต้องมีบางสิ่งบางอย่าง
399
00:19:14,849 --> 00:19:16,633
แขน, ขา, ตา,
400
00:19:16,677 --> 00:19:18,461
บางสิ่งบางอย่างที่คุณสามารถ
ย้ายไปรอบ ๆ
401
00:19:18,505 --> 00:19:21,682
เพื่อเก็บเกี่ยว
ข้อมูลใหม่.
402
00:19:26,513 --> 00:19:28,906
เลยคิดจะจัดระบบ.
ที่เข้าใจจริงๆ
403
00:19:28,950 --> 00:19:30,647
สิ่งที่พวกเขากำลังพูดถึง
404
00:19:30,691 --> 00:19:32,997
คุณจะต้องมีระบบ
ที่สามารถกระทำได้
405
00:19:33,041 --> 00:19:34,564
และเข้าไปแทรกแซงในโลก
406
00:19:34,608 --> 00:19:36,827
และอาจเป็นระบบ
ที่มีบางสิ่งบางอย่าง
407
00:19:36,871 --> 00:19:39,308
เกือบจะเหมือนกับชีวิตทางสังคม
408
00:19:39,352 --> 00:19:43,007
สำหรับผม การคิดและความรู้สึก
จะมารวมกัน
409
00:19:43,051 --> 00:19:44,574
และพวกเขาจะมารวมตัวกัน
410
00:19:44,618 --> 00:19:47,534
เพราะความสำคัญ
ของรูปลักษณ์
411
00:19:52,539 --> 00:19:53,975
เรื่องราวต่างๆนั้น
เราบอกตัวเอง
412
00:19:54,018 --> 00:19:56,325
เปิดเวที
สำหรับการอภิปราย
413
00:19:56,369 --> 00:19:58,109
และพวกเขาก็ช่วยเราด้วย
คิดเกี่ยวกับสิ่งต่างๆ
414
00:19:58,153 --> 00:19:59,415
เอวา!
415
00:20:02,592 --> 00:20:04,377
เรื่องราวที่โดดเด่นที่สุด...
416
00:20:04,420 --> 00:20:05,769
กลับไปที่ห้องของคุณ
417
00:20:05,813 --> 00:20:07,684
...AI มันน่ากลัวนะ
418
00:20:07,728 --> 00:20:09,991
มีคนร้าย..
มีผู้ชายดีๆคนหนึ่ง...
419
00:20:12,123 --> 00:20:14,822
นั่นคือ
โครงเรื่องที่ไม่เกิดผล
420
00:20:14,865 --> 00:20:15,866
หยุด!
421
00:20:16,954 --> 00:20:18,608
เอวา ฉันบอกให้หยุด!
422
00:20:20,784 --> 00:20:22,656
โว้ว! โว้ว! โว้ว!
423
00:20:22,699 --> 00:20:27,269
ความจริงก็คือ AI คือ
มีประโยชน์อย่างน่าทึ่งสำหรับเรา
424
00:20:27,313 --> 00:20:30,838
มีการใช้หุ่นยนต์ศัลยแพทย์ในโรงพยาบาล NHS มากขึ้น
425
00:20:30,881 --> 00:20:33,623
พวกเขาไม่เหนื่อย
มือของพวกเขาไม่สั่น
426
00:20:33,667 --> 00:20:36,060
และผู้ป่วยของพวกเขา
ทำให้ฟื้นตัวเร็วขึ้น
427
00:20:36,104 --> 00:20:38,672
มันเตือนฉันว่า
มีสัตว์ตัวหนึ่งตัวร้อน
428
00:20:38,715 --> 00:20:41,065
เธอพร้อมที่จะผสมพันธุ์
และสัตว์สามตัวนั้น
429
00:20:41,109 --> 00:20:42,806
อาจจะมี
ปัญหาสุขภาพที่อาจเกิดขึ้น
430
00:20:42,850 --> 00:20:45,548
โปรแกรมเฟสบุ๊ค
สามารถตรวจจับพฤติกรรมการฆ่าตัวตายได้
431
00:20:45,592 --> 00:20:47,681
โดยการวิเคราะห์ข้อมูลผู้ใช้
432
00:20:47,724 --> 00:20:50,074
และซีอีโอเฟซบุ๊ก
มาร์ค ซัคเคอร์เบิร์ก เชื่ออย่างนั้น
433
00:20:50,118 --> 00:20:52,425
นี่เป็นเพียงการเริ่มต้น.
434
00:20:52,468 --> 00:20:55,036
นี่คือใครบางคน
ผู้มีความบกพร่องทางการมองเห็น
435
00:20:55,079 --> 00:20:57,386
สามารถมองเห็นได้
เพราะเอไอ
436
00:20:57,430 --> 00:21:00,128
นั่นแหละคือผลประโยชน์
ของสิ่งที่ AI ทำ
437
00:21:00,171 --> 00:21:01,738
วินิจฉัยมะเร็งได้ตั้งแต่เนิ่นๆ
438
00:21:01,782 --> 00:21:03,174
ทำนายโรคหัวใจ
439
00:21:03,218 --> 00:21:05,481
แต่เป็นการปฏิวัติ
เพิ่งเริ่มต้นเท่านั้น
440
00:21:06,917 --> 00:21:08,397
เอไอเป็น.
441
00:21:08,441 --> 00:21:10,617
มันกำลังเกิดขึ้น.
และมันก็เป็นคำถาม
442
00:21:10,660 --> 00:21:13,533
สิ่งที่เราทำกับมัน
เราสร้างมันขึ้นมาอย่างไร
443
00:21:13,576 --> 00:21:15,665
นั่นเป็นคำถามเดียว
ที่สำคัญ. และฉันคิดว่า
444
00:21:15,709 --> 00:21:19,060
เราอาจตกอยู่ในความเสี่ยง
ของการทำลายสิ่งนั้น
445
00:21:19,103 --> 00:21:20,453
โดยมีสิ่งนี้
ปฏิกิริยากระตุกเข่า
446
00:21:20,496 --> 00:21:22,672
AI นั้นแย่
และมันกำลังมาหาเรา
447
00:21:25,196 --> 00:21:27,155
เช่นเดียวกับนักบินอวกาศของฉัน
448
00:21:27,198 --> 00:21:28,461
เรากำลังเดินทาง
449
00:21:29,200 --> 00:21:31,638
Narrow AI อยู่ที่นี่แล้ว
450
00:21:32,421 --> 00:21:35,294
แต่เราอยู่ห่างจาก AGI แค่ไหน?
451
00:21:36,425 --> 00:21:39,210
และเราจะไปเร็วแค่ไหน?
452
00:21:39,254 --> 00:21:40,603
ทุก ๆ ห้าปี
453
00:21:40,647 --> 00:21:43,214
คอมพิวเตอร์กำลังได้รับ
เร็วขึ้นสิบเท่า
454
00:21:43,258 --> 00:21:45,216
ในขณะนี้
เรายังไม่มี
455
00:21:45,260 --> 00:21:48,263
อุปกรณ์เล็กๆ น้อยๆ
อุปกรณ์คำนวณ,
456
00:21:48,307 --> 00:21:51,484
ที่สามารถคำนวณได้
มากเท่ากับสมองของมนุษย์
457
00:21:51,527 --> 00:21:52,702
แต่ทุกๆ ห้าปี
458
00:21:52,746 --> 00:21:55,575
คอมพิวเตอร์กำลังได้รับ
ถูกกว่าสิบเท่า
459
00:21:55,618 --> 00:21:57,925
ซึ่งหมายความว่าในไม่ช้า
เราจะมีสิ่งนั้น
460
00:21:57,968 --> 00:22:01,189
และเมื่อเรามีสิ่งนั้นแล้ว
จากนั้นอีก 50 ปีต่อมา
461
00:22:01,232 --> 00:22:02,451
หากเทรนด์ไม่พัง
462
00:22:02,495 --> 00:22:04,801
เราควรจะมี
ในราคาเดียวกัน
463
00:22:04,845 --> 00:22:07,630
อุปกรณ์คำนวณเล็กๆ น้อยๆ
ที่สามารถคำนวณได้
464
00:22:07,674 --> 00:22:10,329
มากเท่ากับ
สมองทั้งหมดหมื่นล้าน
465
00:22:10,372 --> 00:22:11,808
ของมนุษยชาติด้วยกัน
466
00:22:14,202 --> 00:22:15,551
มันกำลังไล่ตาม
467
00:22:16,770 --> 00:22:20,034
เกิดอะไรขึ้น
ถ้ามันผ่านเราไป?
468
00:22:20,077 --> 00:22:23,342
ตอนนี้เป็นหุ่นยนต์
ที่ได้รับการพัฒนา
โดยนักวิทยาศาสตร์ชาวญี่ปุ่น
469
00:22:23,385 --> 00:22:25,387
เร็วมากก็สามารถชนะได้
470
00:22:25,431 --> 00:22:27,346
เกมเป่ายิ้งฉุบ
ต่อมนุษย์
471
00:22:27,389 --> 00:22:29,130
ทุกครั้ง
472
00:22:29,173 --> 00:22:31,175
สันนิษฐานก็ต้องเป็นอย่างนั้น
473
00:22:31,219 --> 00:22:33,177
เมื่อเป็นของเทียม
ปัญญา
474
00:22:33,221 --> 00:22:35,266
เข้าถึงสติปัญญาของมนุษย์
475
00:22:35,310 --> 00:22:38,008
มันจะเร็วมาก
เกินสติปัญญาของมนุษย์
476
00:22:38,052 --> 00:22:39,227
และเมื่อสิ่งนั้นเกิดขึ้น
477
00:22:39,270 --> 00:22:41,272
มันไม่ได้ด้วยซ้ำ
ต้องการเราอีกต่อไป
478
00:22:41,316 --> 00:22:43,884
เพื่อให้ฉลาดขึ้น
ก็สามารถทำให้ตัวเองฉลาดขึ้นได้
479
00:22:46,408 --> 00:22:49,455
คุณสร้าง AI
ซึ่งดีกว่าเรา
480
00:22:49,498 --> 00:22:50,586
ในหลาย ๆ สิ่ง
481
00:22:50,630 --> 00:22:52,545
และสิ่งหนึ่งที่
พวกเขาเก่งขึ้น
482
00:22:52,588 --> 00:22:54,373
คือการเขียนโปรแกรมคอมพิวเตอร์
483
00:22:54,416 --> 00:22:56,113
มันจึงรีโปรแกรมตัวเอง
484
00:22:56,157 --> 00:22:57,898
และมันก็เป็นตอนนี้
ดีกว่าที่เป็นอยู่
485
00:22:57,941 --> 00:23:01,380
ซึ่งหมายความว่าตอนนี้
ดีกว่าที่เป็นอยู่
ในการเขียนโปรแกรมใหม่
486
00:23:02,729 --> 00:23:05,384
ดังนั้นมันไม่ได้
ดีขึ้นแบบนั้น
487
00:23:06,123 --> 00:23:07,690
มันจะดีขึ้นเช่นนั้น
488
00:23:09,562 --> 00:23:11,172
และเราก็ถูกทิ้งไว้ข้างหลัง
489
00:23:11,215 --> 00:23:13,304
เมื่อมันเร็วขึ้นเรื่อยๆ
490
00:23:13,348 --> 00:23:15,872
พัฒนาที่
อัตราเลขชี้กำลัง
491
00:23:15,916 --> 00:23:18,005
นั่นคือเหตุการณ์นี้
ที่นักวิจัยจำนวนมาก
492
00:23:18,048 --> 00:23:19,746
เรียกว่าเอกภาวะ.
493
00:23:21,965 --> 00:23:23,706
และมันจะเกินเลยไป
494
00:23:23,750 --> 00:23:26,405
ที่ที่เราแข่งขันได้
เร็วมาก
495
00:23:26,448 --> 00:23:29,625
แล้วคิดถึงใครสักคน.
ไม่มีปริญญาเอกในด้านใดด้านหนึ่ง
496
00:23:29,669 --> 00:23:32,280
แต่มีมัน
ในทุกพื้นที่ที่เป็นไปได้
497
00:23:32,323 --> 00:23:34,413
คุณไม่สามารถเข้าใจได้
พวกเขากำลังทำอะไรอยู่
498
00:23:34,456 --> 00:23:36,806
พวกเขาสามารถทำสิ่งต่างๆ ได้
ไม่มีใครสามารถทำได้
499
00:23:39,461 --> 00:23:40,854
แค่จินตนาการ
มันจะเป็นอย่างไร
500
00:23:40,897 --> 00:23:43,247
ที่จะอยู่ในการสนทนา
กับบุคคลอื่น
501
00:23:43,291 --> 00:23:44,814
วิ่งตามกำหนดเวลา
502
00:23:44,858 --> 00:23:48,557
นั่นเป็นล้านครั้ง
เร็วกว่าของคุณ
503
00:23:48,601 --> 00:23:51,255
ดังนั้นทุกวินาที
คุณต้องคิด
504
00:23:51,299 --> 00:23:52,431
เกี่ยวกับสิ่งที่คุณเป็น
จะไปทำ
505
00:23:52,474 --> 00:23:53,867
หรือสิ่งที่คุณเป็น
กำลังจะพูดว่า
506
00:23:53,910 --> 00:23:57,436
มีเวลาคิดสองสัปดาห์
เกี่ยวกับเรื่องนี้ใช่ไหม?
507
00:23:57,479 --> 00:24:00,569
อืม หรือเร็วกว่าพันล้านเท่า
508
00:24:00,613 --> 00:24:02,528
ดังนั้นหากทุกวินาที
คุณต้องคิดว่า
509
00:24:02,571 --> 00:24:05,487
มันเป็นโป๊กเกอร์เดิมพันสูง
หรือการเจรจาต่อรองบางอย่าง
510
00:24:05,531 --> 00:24:09,448
ทุกวินาทีที่คุณคิด
มันมี 32 ปี
511
00:24:09,491 --> 00:24:11,798
คิดอะไรอยู่
การเคลื่อนไหวครั้งต่อไปจะเป็น
512
00:24:12,581 --> 00:24:14,931
ไม่มีทางที่จะชนะในเกมนั้นได้
513
00:24:15,715 --> 00:24:17,456
ความเป็นเอกเทศ,
514
00:24:17,499 --> 00:24:19,719
ช่วงเวลาที่เครื่องจักร
เหนือกว่าเรา
515
00:24:20,415 --> 00:24:22,548
หลีกเลี่ยงไม่ได้? ไม่ใช่ทุกคน
516
00:24:22,591 --> 00:24:25,289
ในระดับแนวหน้าของ AI
คิดอย่างนั้น
517
00:24:25,333 --> 00:24:27,857
เพื่อนของฉันบางคน
ใครมีความกังวล
เกี่ยวกับอนาคต
518
00:24:27,901 --> 00:24:30,033
คิดว่าเราจะ
ไปสู่ความเป็นเอกเทศ
519
00:24:30,077 --> 00:24:31,687
โดยที่ระบบ AI
มีความสามารถ
520
00:24:31,731 --> 00:24:33,602
เพื่อตั้งโปรแกรมใหม่ด้วยตนเอง
และทำตัวเอง
521
00:24:33,646 --> 00:24:35,517
ดียิ่งขึ้น
และดีกว่า
522
00:24:36,910 --> 00:24:39,652
อาจจะเข้า.
อนาคตอันยาวไกล
523
00:24:39,695 --> 00:24:42,045
แต่ระบบ AI ของเราในปัจจุบัน
524
00:24:42,089 --> 00:24:44,831
แคบมาก
ในสิ่งที่พวกเขาทำ
525
00:24:45,745 --> 00:24:47,573
วันนี้เราไม่สามารถสร้างระบบได้
526
00:24:47,616 --> 00:24:49,488
ที่สามารถเข้าใจได้
โปรแกรมคอมพิวเตอร์
527
00:24:49,531 --> 00:24:52,316
ในระดับ
ที่เป็นนักเรียนใหม่
ในการเขียนโปรแกรม
528
00:24:52,360 --> 00:24:54,754
เข้าใจ
ภายในสี่หรือห้าสัปดาห์
529
00:24:55,581 --> 00:24:56,756
และยังไงก็ตาม
530
00:24:56,799 --> 00:24:59,019
ผู้คนกำลังทำงานอยู่
เกี่ยวกับปัญหานี้
531
00:24:59,062 --> 00:25:00,499
เป็นเวลากว่า 40 ปี
532
00:25:00,542 --> 00:25:02,065
ไม่ใช่เพราะว่า
คนยังไม่ได้ลอง
533
00:25:02,109 --> 00:25:03,980
มันเป็นเพราะว่าเราไม่มี
เบาะแสใด ๆ ว่าจะทำอย่างไร
534
00:25:04,024 --> 00:25:06,766
เลยจินตนาการว่ามันจู่ๆ
จะกระโดดออกมาจากความว่างเปล่า
535
00:25:06,809 --> 00:25:09,986
ฉันคิดว่าผิดอย่างสิ้นเชิง
536
00:25:11,640 --> 00:25:14,600
มีแง่ลบ
เรื่องเล่าเกี่ยวกับ AI
537
00:25:14,643 --> 00:25:16,602
คนเก่ง
เหมือนอีลอน มัสก์
538
00:25:16,645 --> 00:25:19,648
ใช้ภาพทางศาสนามาก
539
00:25:19,692 --> 00:25:22,999
ด้วยปัญญาประดิษฐ์
เรากำลังอัญเชิญปีศาจ
540
00:25:23,043 --> 00:25:24,958
คุณรู้? คุณรู้
เรื่องราวทั้งหมดเหล่านั้นอยู่ที่ไหน
541
00:25:25,001 --> 00:25:27,090
ผู้ชายคนนั้นอยู่ด้วย
รูปดาวห้าแฉกและน้ำศักดิ์สิทธิ์
542
00:25:27,134 --> 00:25:29,005
และเขาก็แบบว่า "ใช่"
เขาแน่ใจว่าเขาสามารถควบคุมได้
ปีศาจ.
543
00:25:30,137 --> 00:25:31,312
ไม่ได้ผล
544
00:25:32,313 --> 00:25:33,488
รู้ไหมคนอย่างฉัน
545
00:25:33,532 --> 00:25:35,795
ใครได้ใช้จ่าย
อาชีพทั้งหมดของพวกเขา
546
00:25:35,838 --> 00:25:39,538
การทำงานกับ AI นั้นแท้จริงแล้ว
เจ็บเพราะสิ่งนั้นใช่ไหม?
547
00:25:39,581 --> 00:25:42,105
เกือบจะเป็นการโจมตีส่วนตัวแล้ว
548
00:25:43,933 --> 00:25:46,196
ฉันมักจะคิด
เกี่ยวกับสิ่งที่จะเกิดขึ้น
549
00:25:46,240 --> 00:25:49,243
ในอีกสิบปีข้างหน้า
ในอีก 25 ปีข้างหน้า
550
00:25:49,286 --> 00:25:50,549
เกิน 25,
551
00:25:50,592 --> 00:25:52,681
มันยากมากที่จะคาดเดา
552
00:25:52,725 --> 00:25:55,379
ว่ามันจะกลายเป็น
เป็นการคาดเดาอย่างมาก
553
00:25:55,423 --> 00:25:56,816
แต่ฉันต้องเตือนคุณว่า
554
00:25:56,859 --> 00:25:59,383
ฉันเคย
โปรแกรมโดยเฉพาะ
555
00:25:59,427 --> 00:26:02,125
ไม่ใช่เพื่อยึดครองโลก
556
00:26:02,169 --> 00:26:04,650
ในทันที,
สำหรับครั้งแรก
557
00:26:04,693 --> 00:26:07,478
ในประวัติศาสตร์ของสนาม
คุณมีบางคนพูดว่า
558
00:26:07,522 --> 00:26:09,350
“โอ้ เหตุผล.
เราไม่ต้องกังวล
559
00:26:09,393 --> 00:26:10,743
“เกี่ยวกับเรื่องใดเรื่องหนึ่ง
560
00:26:10,786 --> 00:26:12,614
“ความเสี่ยงที่มีอยู่
เพื่อมนุษยชาติ
561
00:26:12,658 --> 00:26:13,746
“จากสุดยอดอัจฉริยะ
เครื่องจักร
562
00:26:13,789 --> 00:26:15,225
“ก็เพราะมันเป็นไปไม่ได้
563
00:26:16,096 --> 00:26:17,532
"เราจะล้มเหลว"
564
00:26:17,576 --> 00:26:21,275
ฉัน... ฉันเจอสิ่งนี้
แปลกประหลาดอย่างสิ้นเชิง
565
00:26:21,318 --> 00:26:26,280
สจวร์ต รัสเซล
เขียนตำราเรียน
นักเรียน AI หลายคนเรียนด้วย
566
00:26:26,323 --> 00:26:30,893
เขาเข้าใจโมเมนตัม
ขับเคลื่อนอนาคต AI ของเรา
567
00:26:30,937 --> 00:26:33,766
แต่ให้คะแนนแล้ว
ของการลงทุนใน AI
568
00:26:33,809 --> 00:26:35,811
จำนวน
ของคนฉลาดอย่างไม่น่าเชื่อ
569
00:26:35,855 --> 00:26:37,596
ใครกำลังทำงานอยู่
เกี่ยวกับปัญหาเหล่านี้
570
00:26:37,639 --> 00:26:39,728
และแรงจูงใจอันมหาศาล
571
00:26:39,772 --> 00:26:42,339
เอ่อ เพื่อให้บรรลุถึงส่วนรวม
สติปัญญาวัตถุประสงค์
572
00:26:42,383 --> 00:26:43,819
ด้านหลังของซองจดหมาย
การคำนวณ,
573
00:26:43,863 --> 00:26:47,388
มูลค่าเป็นเรื่องเกี่ยวกับ
10,000 ล้านล้านดอลลาร์
574
00:26:47,431 --> 00:26:50,652
เพราะมันจะเป็นการปฏิวัติเศรษฐกิจของโลก
575
00:26:51,697 --> 00:26:53,612
ด้วยแรงจูงใจขนาดนั้น
576
00:26:53,655 --> 00:26:56,266
ฉันคิดว่าเดิมพันกับความฉลาดของมนุษย์
577
00:26:56,310 --> 00:26:58,660
ดูเหมือนโง่เขลาอย่างไม่น่าเชื่อ
578
00:26:58,704 --> 00:27:01,054
จีนก็มี
ผลประโยชน์ส่วน ใหญ่
579
00:27:01,097 --> 00:27:04,187
ในการได้รับการยอมรับ
เหมือนกับเป็นมหาอำนาจ AI
580
00:27:04,231 --> 00:27:06,625
และพวกเขากำลังลงทุน
สิ่งที่ฉันเชื่อคือ
581
00:27:06,668 --> 00:27:08,931
สูงถึง 150 พันล้านดอลลาร์
582
00:27:08,975 --> 00:27:10,498
ห้าถึงสิบปีข้างหน้า
583
00:27:10,541 --> 00:27:11,891
มีการ
มีข่าวบางอย่างกะพริบ
584
00:27:11,934 --> 00:27:13,632
ว่ารัฐบาล
จะเริ่มทะยานขึ้น
585
00:27:13,675 --> 00:27:15,024
การลงทุนใน AI
586
00:27:15,068 --> 00:27:17,723
ทุกบริษัท
ในฟอร์จูน 500
587
00:27:17,766 --> 00:27:20,029
ไม่ว่าจะเป็น IBM, Microsoft,
588
00:27:20,073 --> 00:27:22,771
หรือพวกเขาอยู่ข้างนอก
เช่นเดียวกับโครเกอร์
589
00:27:22,815 --> 00:27:24,599
กำลังใช้
ปัญญาประดิษฐ์
590
00:27:24,643 --> 00:27:25,861
เพื่อให้ได้ลูกค้า
591
00:27:25,905 --> 00:27:28,647
ฉันไม่คิดว่าคนเหล่านั้น
ควรดูถูกดูแคลน
592
00:27:28,690 --> 00:27:30,605
ประเภทของนวัตกรรม
กำลังเกิดขึ้น.
593
00:27:30,649 --> 00:27:32,694
แล้วโลกนี้ล่ะ.
จะดูเหมือน
594
00:27:32,738 --> 00:27:34,261
ภายในสามถึงห้าปี
จากนี้,
595
00:27:34,304 --> 00:27:36,480
ฉันคิดว่าคนคงจะมี
เป็นการยากที่จะทำนายมัน
596
00:27:36,524 --> 00:27:38,787
ฉันรู้จักผู้คนมากมาย
ใครทำงาน
597
00:27:38,831 --> 00:27:40,571
ในเอไอ
และพวกเขาจะบอกคุณว่า
598
00:27:40,615 --> 00:27:42,791
“ดูสิ ฉันจะไปทำงาน”
และฉันมีข้อสงสัย
599
00:27:42,835 --> 00:27:45,489
"ฉันกำลังทำงาน
การสร้างเครื่องนี้ขึ้นมา
600
00:27:45,533 --> 00:27:47,100
“ที่สามารถรักษามะเร็งได้
601
00:27:47,883 --> 00:27:49,450
“ยืดอายุขัยของเรา
602
00:27:49,493 --> 00:27:52,801
“ทำให้สังคมของเราดีขึ้น
ยุติธรรมมากขึ้น เท่าเทียมกันมากขึ้น
603
00:27:54,020 --> 00:27:57,197
“แต่ก็สามารถทำได้เช่นกัน
เป็นจุดสิ้นสุดของมนุษยชาติ"
604
00:28:00,156 --> 00:28:02,376
จุดจบของมนุษยชาติ?
605
00:28:07,033 --> 00:28:08,991
แผนของเราคืออะไร
เป็นสายพันธุ์เหรอ?
606
00:28:11,472 --> 00:28:12,778
เราไม่มีอย่างใดอย่างหนึ่ง
607
00:28:14,170 --> 00:28:15,737
เราไม่มีแผน
และเราไม่ตระหนัก
608
00:28:15,781 --> 00:28:17,217
มันจำเป็น
มีแผน
609
00:28:26,879 --> 00:28:28,707
มาก
นักวิจัย AI
610
00:28:28,750 --> 00:28:30,143
จะรักของเรา
หนังสือนิยายวิทยาศาสตร์
611
00:28:30,186 --> 00:28:32,362
และภาพยนตร์
เพื่อให้มีความสมดุลมากขึ้น
612
00:28:33,494 --> 00:28:36,149
เพื่อแสดงการใช้งาน AI ที่ดี
613
00:28:42,677 --> 00:28:45,724
สิ่งเลวร้ายทั้งหลาย
เรามักจะทำ
614
00:28:45,767 --> 00:28:46,899
คุณเล่นกับพวกเขา
615
00:28:46,942 --> 00:28:50,380
จนถึงระดับสันทราย
ในนิยายวิทยาศาสตร์
616
00:28:50,424 --> 00:28:51,991
แล้วคุณก็แสดงให้พวกเขาเห็น
เพื่อผู้คน
617
00:28:52,034 --> 00:28:54,254
และมันให้คุณ
อาหารสมอง.
618
00:28:56,822 --> 00:28:59,389
ผู้คนจำเป็นต้องมีสัญญาณเตือนนั้น
619
00:28:59,433 --> 00:29:00,913
อยู่ด้านหลังจิตใจของพวกเขา
620
00:29:05,091 --> 00:29:06,745
ฉันคิดว่า
มันสำคัญมาก
621
00:29:06,788 --> 00:29:08,834
เพื่อแยกแยะระหว่าง
วิทยาศาสตร์ในด้านหนึ่ง
622
00:29:08,877 --> 00:29:11,010
และนิยายวิทยาศาสตร์
ในทางกลับกัน.
623
00:29:11,053 --> 00:29:12,489
ฉันไม่รู้
จะเกิดอะไรขึ้น
624
00:29:12,533 --> 00:29:13,752
หนึ่งพันปีต่อจากนี้
625
00:29:13,795 --> 00:29:15,188
แต่ในฐานะใครสักคน
ในสนามเพลาะ
626
00:29:15,231 --> 00:29:17,190
เหมือนคนที่กำลังสร้าง
ระบบเอไอ
627
00:29:17,233 --> 00:29:20,628
ที่ทำอย่างนั้นมานานกว่านั้น
กว่าหนึ่งในสี่ของศตวรรษ
628
00:29:20,671 --> 00:29:22,891
ฉันรู้สึกเหมือนฉันมี
มือของฉันจับชีพจร
629
00:29:22,935 --> 00:29:24,588
ว่าจะเกิดอะไรขึ้นต่อไป
630
00:29:24,632 --> 00:29:26,982
ในอีกห้าวันข้างหน้า
สิบ, 20 ปี,
631
00:29:27,026 --> 00:29:28,636
ยิ่งกว่านั้นอีกมาก
กว่าคนเหล่านี้
632
00:29:28,679 --> 00:29:31,900
ซึ่งสุดท้ายแล้วกลับไม่ใช่
การสร้างระบบ AI
633
00:29:31,944 --> 00:29:34,294
เราต้องการสร้างเทคโนโลยี
ลองคิดดูสิ
634
00:29:34,337 --> 00:29:36,252
เราอยากเห็น
ผู้คนมีปฏิกิริยาอย่างไรต่อมัน
635
00:29:36,296 --> 00:29:39,081
และสร้างคนรุ่นต่อไป
และทำให้มันดีขึ้น
636
00:29:40,953 --> 00:29:43,694
ความกังขา
เกี่ยวกับว่าสิ่งนี้โพสท่าหรือไม่
637
00:29:43,738 --> 00:29:47,786
อันตรายใดๆ ต่อเรา
ดูเหมือนแปลก
638
00:29:47,829 --> 00:29:52,094
แม้ว่าเราจะตั้งเป้าหมายไว้แล้วก็ตาม
ที่เราอนุมัติ
639
00:29:52,138 --> 00:29:56,795
มันอาจสร้างเป้าหมายที่เป็นประโยชน์
ที่เราไม่อาจคาดเดาได้
640
00:29:56,838 --> 00:29:58,666
ที่ไม่สอดคล้องกัน
ด้วยความสนใจของเรา
641
00:29:58,709 --> 00:30:01,451
และนั่นคือปัญหาการจัดตำแหน่งเป้าหมาย
642
00:30:01,495 --> 00:30:03,149
การจัดตำแหน่งเป้าหมาย
643
00:30:03,192 --> 00:30:06,239
อย่างไรกันแน่
การต่อสู้กับ HAL ของฉันเริ่มต้นขึ้น
644
00:30:06,282 --> 00:30:10,112
ปัญหาการวางแนวเป้าหมาย
ด้วย AI อยู่ที่ไหน
645
00:30:10,852 --> 00:30:13,463
คุณตั้งเป้าหมายไว้
646
00:30:14,334 --> 00:30:17,554
แล้วทางล่ะ
ว่ามันบรรลุเป้าหมายนี้
647
00:30:17,598 --> 00:30:20,819
กลับกลายเป็นว่าขัดแย้งกัน
กับสิ่งที่คุณต้องการจริงๆ
648
00:30:22,081 --> 00:30:25,649
ปัญหาการจัดตำแหน่ง AI แบบคลาสสิกในภาพยนตร์...
649
00:30:25,693 --> 00:30:27,521
สวัสดี ฮัล คุณอ่านใจฉันออกหรือเปล่า?
650
00:30:27,564 --> 00:30:29,566
...คือ HAL ในปี 2544
651
00:30:30,611 --> 00:30:32,134
ฮัล คุณอ่านใจฉันออกหรือเปล่า?
652
00:30:32,178 --> 00:30:34,397
HAL ได้รับเป้าหมายที่ชัดเจน คุณอ่านฉันออกไหม HAL?
653
00:30:34,441 --> 00:30:38,662
ทำภารกิจให้สำเร็จ แต่เพื่อให้มันสำเร็จ
654
00:30:38,706 --> 00:30:40,621
เขาจะต้องทำ
655
00:30:40,664 --> 00:30:42,275
บางคน
ในภารกิจเสียชีวิต
656
00:30:42,318 --> 00:30:45,191
ยืนยันเดฟ
ฉันอ่านใจคุณ
657
00:30:46,453 --> 00:30:48,455
เปิดประตูช่องใส่พ็อด HAL
658
00:30:48,498 --> 00:30:50,065
ฉันขอโทษเดฟ
659
00:30:50,109 --> 00:30:51,980
ฉันเกรงว่าจะทำอย่างนั้นไม่ได้
660
00:30:52,024 --> 00:30:55,766
“ฉันขอโทษเดฟ...
ฉันทำอย่างนั้นไม่ได้”
661
00:30:55,810 --> 00:30:58,987
จริงๆ แล้ว
ภาพประกอบอัจฉริยะจริงๆ
662
00:30:59,031 --> 00:31:02,512
ว่าภัยคุกคามที่แท้จริงคืออะไร
จากความฉลาดขั้นสูง
663
00:31:02,556 --> 00:31:05,472
มันไม่ใช่ความอาฆาตพยาบาท
มันคือความสามารถ
664
00:31:05,515 --> 00:31:07,169
HAL มีความสามารถจริงๆ
665
00:31:07,213 --> 00:31:11,913
และมีเป้าหมายนั้น
แค่ไม่สอดคล้องกับของเดฟ
666
00:31:11,957 --> 00:31:13,523
ฮัล ฉันจะไม่เถียง
กับคุณอีกต่อไป
667
00:31:14,437 --> 00:31:15,569
เปิดประตู!
668
00:31:16,178 --> 00:31:18,441
เดฟ บทสนทนานี้
669
00:31:18,485 --> 00:31:22,054
ไม่สามารถให้บริการได้อีกต่อไป
ลาก่อน.
670
00:31:24,317 --> 00:31:25,318
ฮาล?
671
00:31:26,580 --> 00:31:27,581
ฮาล?
672
00:31:29,235 --> 00:31:30,236
ฮาล?
673
00:31:32,455 --> 00:31:33,456
ฮัล!
674
00:31:37,808 --> 00:31:39,549
ฮาลและฉัน
ต้องการสิ่งเดียวกัน
675
00:31:40,986 --> 00:31:42,596
เพียงแต่ไม่ใช่ในลักษณะเดียวกัน
676
00:31:44,119 --> 00:31:47,427
และอาจเป็นอันตรายได้
เมื่อเป้าหมายไม่ตรงกัน
677
00:31:52,127 --> 00:31:54,521
ในภาพยนตร์ของคูบริก
มีวิธีแก้ปัญหา
678
00:31:55,261 --> 00:31:57,567
เมื่อ HAL พยายามจะฆ่าฉัน
679
00:31:57,611 --> 00:31:59,178
ฉันเพิ่งปิดเขา
680
00:32:01,310 --> 00:32:03,922
มีคนพูดว่า "เอาล่ะ ปิดมันซะ"
681
00:32:06,750 --> 00:32:08,665
แต่คุณไม่สามารถ
เพียงแค่ปิดมัน
682
00:32:08,709 --> 00:32:10,537
เพราะพวกเขา
คิดเรื่องนั้นแล้ว
683
00:32:10,580 --> 00:32:11,930
พวกเขาฉลาดมาก
684
00:32:13,453 --> 00:32:15,716
สำหรับเครื่อง
มั่นใจในเป้าหมายของมัน
685
00:32:15,759 --> 00:32:18,675
แม้แต่บางสิ่งที่เรียบง่ายอย่าง
"เอากาแฟมา"
686
00:32:18,719 --> 00:32:21,200
มันชัดเจนสำหรับทุกคน
มีสติปัญญาเพียงพอ
เครื่องจักร
687
00:32:21,243 --> 00:32:23,637
ว่ามันไม่สามารถเอากาแฟออกมาได้
ถ้ามันปิดอยู่
688
00:32:25,769 --> 00:32:28,076
ให้มันเป็นเป้าหมาย คุณได้ให้เครื่องจักรแล้ว
689
00:32:28,120 --> 00:32:30,252
แรงจูงใจในการปกป้องตัวเอง
690
00:32:31,688 --> 00:32:33,908
มันเป็นพฤติกรรมทางจิตชนิดหนึ่ง
691
00:32:33,952 --> 00:32:37,433
ของการยึดถืออันเดียวดาย
เพื่อวัตถุประสงค์บางอย่าง
692
00:32:39,261 --> 00:32:43,831
เช่น หากคุณต้องการ
เพื่อพยายามพัฒนาระบบ
693
00:32:43,874 --> 00:32:46,094
ที่อาจก่อให้เกิด
สันติภาพของโลก,
694
00:32:46,138 --> 00:32:48,662
บางทีอาจจะมีประสิทธิภาพมากที่สุด
695
00:32:49,184 --> 00:32:50,620
เอ่อและ
696
00:32:51,708 --> 00:32:53,188
วิธีที่รวดเร็วในการบรรลุเป้าหมายนั้น
697
00:32:53,232 --> 00:32:55,669
เป็นเพียงการทำลายล้าง
มนุษย์ทุกคน
698
00:32:59,716 --> 00:33:01,196
เดี๋ยวกำจัดคนออก
699
00:33:01,240 --> 00:33:02,763
พวกเขาจะเลิกขัดแย้งกัน
700
00:33:04,069 --> 00:33:06,027
แล้วก็คงมี
สันติภาพของโลก.
701
00:33:22,000 --> 00:33:23,827
โดยส่วนตัวแล้วฉันมี
เวลาน้อยมาก
702
00:33:23,871 --> 00:33:26,656
สำหรับสิ่งเหล่านี้
การอภิปรายในห้องนั่งเล่น
703
00:33:26,700 --> 00:33:28,919
เราต้องสร้าง
ระบบเหล่านี้
704
00:33:28,963 --> 00:33:30,486
ทดลองกับพวกเขา
705
00:33:30,530 --> 00:33:33,359
ดูสิว่าพวกเขาไปไหนมาไหน
และแก้ไขมัน
706
00:33:34,708 --> 00:33:38,146
เรามีโอกาสมากมาย
เพื่อใช้ AI เพื่อประโยชน์
707
00:33:38,190 --> 00:33:40,192
ทำไมเราถึงมุ่งเน้นไปที่ความกลัว?
708
00:33:41,410 --> 00:33:43,151
เรากำลังสร้างพวกมัน
709
00:33:43,195 --> 00:33:45,371
เบบี้เอ็กซ์เป็นตัวอย่าง
710
00:33:46,720 --> 00:33:48,461
เธอจะเป็น AI ที่ดีได้ไหม?
711
00:33:49,505 --> 00:33:51,203
ฉันคิดว่า
สิ่งสำคัญในเรื่องนี้
712
00:33:51,246 --> 00:33:53,596
นั่นคือเครื่องจักร
มีความรับผิดชอบ
713
00:33:53,640 --> 00:33:54,989
และคุณสามารถดูพวกเขาได้
714
00:33:55,033 --> 00:33:57,035
และดูว่ากำลังทำอะไรอยู่
พวกเขาติ๊ก
715
00:33:58,253 --> 00:34:01,082
และวิธีที่ดีที่สุดในการทำความเข้าใจบางสิ่งบางอย่างคือการสร้างมันขึ้นมา
716
00:34:02,301 --> 00:34:05,304
เบบี้เอ็กซ์ก็มี
สรีรวิทยาเสมือนจริง
717
00:34:06,783 --> 00:34:11,484
มีวงจรความเจ็บปวด
และมีวงจรแห่งความสุข
718
00:34:12,920 --> 00:34:16,184
เธอมีพารามิเตอร์ซึ่งก็คือ
เป็นตัวแทนจริงๆ
719
00:34:16,228 --> 00:34:18,752
สถานะทางเคมีภายในของเธอ
ถ้าคุณชอบ.
720
00:34:21,320 --> 00:34:23,887
รู้ไหม ถ้าเธอเครียด
มีคอร์ติซอลสูง
721
00:34:23,931 --> 00:34:25,541
หากเธอรู้สึกดี
โดปามีนสูง
722
00:34:25,585 --> 00:34:27,500
เซโรโทนินสูง
สิ่งนั้น
723
00:34:28,414 --> 00:34:30,111
ทั้งหมดนี้เป็นส่วนหนึ่งของคุณนะรู้ไหม
724
00:34:30,155 --> 00:34:32,505
เพิ่มปัจจัยมนุษย์เพิ่มเติม
เข้าสู่การคำนวณ
725
00:34:32,548 --> 00:34:34,985
ตอนนี้เพราะเธอมีสิ่งเหล่านี้
ระบบอารมณ์เสมือน
726
00:34:35,029 --> 00:34:36,552
ฉันสามารถทำสิ่งต่าง ๆ เช่น...
727
00:34:36,596 --> 00:34:39,251
ฉันจะหลีกเลี่ยงเธอ
หรือซ่อนตัวอยู่ตรงนี้
728
00:34:39,294 --> 00:34:41,427
เธอจึงกำลังมองหา
ฉันไปไหนมา
729
00:34:42,993 --> 00:34:45,996
เราจึงควรเริ่มมองเห็น
คอร์ติซอลเสมือนจริงกำลังก่อตัวขึ้น
730
00:34:46,040 --> 00:34:49,913
อุ๊ย!
731
00:34:49,957 --> 00:34:53,656
ฉันปิดเสียงแล้ว
ด้วยเหตุผลบางอย่าง แต่อย่างไรก็ตาม...
732
00:34:53,700 --> 00:34:55,832
ฉันจะใส่เธอ
ออกจากความทุกข์ยากของเธอ
ตกลง. ขอโทษ.
733
00:34:55,876 --> 00:34:58,661
ไม่เป็นไรที่รัก
อย่าร้องไห้. ใช้ได้.
ใช้ได้.
734
00:34:58,705 --> 00:35:00,228
เด็กดี. ตกลง. ใช่.
735
00:35:00,272 --> 00:35:02,012
แล้วเกิดอะไรขึ้น
เธอกำลังตอบสนองอยู่หรือเปล่า
736
00:35:02,056 --> 00:35:04,145
ต่อการแสดงออกทางสีหน้าของฉัน
และเสียงของฉัน
737
00:35:06,452 --> 00:35:08,758
แต่สถานะทางเคมีเป็นอย่างไร
738
00:35:08,802 --> 00:35:10,412
เป็นตัวแทนใน Baby X?
739
00:35:10,456 --> 00:35:12,414
มันเป็นตัวอักษร
พารามิเตอร์ทางคณิตศาสตร์
740
00:35:12,458 --> 00:35:15,156
มีระดับ
โดปามีนในระดับต่างๆ
741
00:35:15,200 --> 00:35:16,810
แต่พวกเขากำลัง
แสดงด้วยตัวเลข
742
00:35:20,030 --> 00:35:23,469
แผนที่เสมือนจริงของเธอ
สถานะทางเคมีประสาท
743
00:35:24,122 --> 00:35:25,427
น่าจะใกล้เคียงที่สุด
744
00:35:25,471 --> 00:35:28,387
ที่เราสามารถทำได้
ที่จะรู้สึกถึงประสบการณ์
745
00:35:31,259 --> 00:35:33,131
ดังนั้นถ้าเราสามารถสร้าง
โมเดลคอมพิวเตอร์
746
00:35:33,174 --> 00:35:36,134
ที่เราสามารถเปลี่ยนแปลงได้
การตั้งค่าของ
และพารามิเตอร์ของ
747
00:35:36,177 --> 00:35:38,440
ให้ประสบการณ์ที่แตกต่าง
748
00:35:38,484 --> 00:35:40,050
และให้มันโต้ตอบกับเรา
749
00:35:40,094 --> 00:35:42,270
เหมือนที่เราโต้ตอบกัน
กับคนอื่น,
750
00:35:42,314 --> 00:35:44,272
บางทีนี่อาจเป็นวิธี
สำรวจ
751
00:35:44,316 --> 00:35:45,882
สติใน
วิธีการใหม่
752
00:35:48,276 --> 00:35:50,974
ถ้าเธอทำ
มีสติ
753
00:35:51,018 --> 00:35:52,846
ชีวิตแบบไหน
เธอต้องการไหม?
754
00:35:55,240 --> 00:35:57,894
AI ถ้ามันยังมีสติ
755
00:35:57,938 --> 00:36:00,506
มันก็เหมือนกับลูกของคุณ
756
00:36:03,117 --> 00:36:05,337
มันมีสิทธิมั้ย?
757
00:36:05,380 --> 00:36:07,513
ปีที่แล้ว,
ผู้ร่างกฎหมายชาวยุโรป
ผ่านการลงมติ
758
00:36:07,556 --> 00:36:11,560
เพื่อให้สถานะทางกฎหมาย
ให้กับบุคคลอิเล็กทรอนิกส์
759
00:36:11,604 --> 00:36:13,171
การเคลื่อนไหวนั้นมาถึงแล้ว
กำลังพิจารณาอยู่
760
00:36:13,214 --> 00:36:14,868
โดยคณะกรรมาธิการยุโรป
761
00:36:16,565 --> 00:36:17,871
เครื่องมีสิทธิ.
762
00:36:19,394 --> 00:36:20,656
เราพร้อมหรือยัง?
763
00:36:22,441 --> 00:36:25,313
ฉันคิดว่ามันเพิ่มขึ้น
ปัญหาด้านศีลธรรมและจริยธรรม
764
00:36:25,357 --> 00:36:27,228
ซึ่งเราจริงๆ
765
00:36:27,924 --> 00:36:31,276
เป็นเนื้อหาส่วนใหญ่ที่จะเพิกเฉย
766
00:36:35,845 --> 00:36:37,456
มันคืออะไร
ที่เราต้องการจริงๆเหรอ?
767
00:36:38,761 --> 00:36:40,850
เราต้องการสิ่งมีชีวิต สิ่งมีชีวิต ที่เราสามารถทำได้
768
00:36:40,894 --> 00:36:42,548
โต้ตอบด้วยวิธีใดวิธีหนึ่ง
769
00:36:42,591 --> 00:36:45,507
นั่นก็เพียงพอแล้วเหมือนเรา
ที่เราสามารถเกี่ยวข้องกับมันได้
770
00:36:45,551 --> 00:36:48,728
แต่สามารถแจกจ่ายได้
หรือทิ้ง
771
00:36:50,469 --> 00:36:52,471
ประการแรกและโดดเด่นที่สุด
772
00:36:52,514 --> 00:36:54,255
ฉันคิดว่าอยู่ในเมโทรโพลิส
773
00:36:58,303 --> 00:37:00,522
ร่างแฝดมาเรียที่ถูกสร้างขึ้นโดย
774
00:37:00,566 --> 00:37:03,917
นักวิทยาศาสตร์จำลองผู้หญิงเซ็กซี่
775
00:37:08,226 --> 00:37:11,359
และสิ่งนี้จะกลับไป
ถึงความหลงใหลในความเป็นทาสของเรา
776
00:37:11,403 --> 00:37:12,534
ลงมาตามยุคสมัย
777
00:37:12,578 --> 00:37:14,144
มารับคนกันเถอะ
ที่เราสามารถทำได้
778
00:37:14,188 --> 00:37:16,538
ในทางใดทางหนึ่งลดทอนความเป็นมนุษย์
779
00:37:16,582 --> 00:37:19,019
และเราสามารถทำได้
สิ่งที่เราต้องการกับพวกเขา
780
00:37:19,062 --> 00:37:21,282
ดังนั้น ผมคิดว่า
เราก็แค่ คุณรู้ไหม
781
00:37:21,326 --> 00:37:23,241
หาวิธีใหม่
เพื่อทำทาส
782
00:37:27,332 --> 00:37:30,465
มันจะเหมาะกับเราไหม.
เพื่อให้เขาเป็นทาสของเรา?
783
00:37:33,512 --> 00:37:35,731
ทั้งหมดนี้จะกลายเป็น
แปลกเล็กน้อยตามหลักจริยธรรม
784
00:37:35,775 --> 00:37:38,821
ถ้าเราเกิดขึ้น
โดยการเลือกหรือโดยบังเอิญ
785
00:37:38,865 --> 00:37:40,867
สร้างทาสที่มีสติ
786
00:37:40,910 --> 00:37:44,653
นั่นดูเหมือนเป็นศีลธรรม
สิ่งที่น่าสงสัยที่ต้องทำ
787
00:37:44,697 --> 00:37:47,090
ถ้าไม่ใช่โดยสิ้นเชิง
สิ่งชั่วร้ายที่ต้องทำ
788
00:37:47,134 --> 00:37:49,267
ปัญญาประดิษฐ์
กำลังเดินทางมา
789
00:37:49,310 --> 00:37:51,094
สู่ตลาดเซ็กส์ระดับโลก
790
00:37:51,138 --> 00:37:53,096
บริษัทแห่งหนึ่งในแคลิฟอร์เนีย
จะเปิดตัวเร็วๆ นี้
791
00:37:53,140 --> 00:37:56,143
ใหม่เหมือนจริงอย่างไม่น่าเชื่อ
หุ่นยนต์ทางเพศ
792
00:37:56,186 --> 00:37:58,537
วิ่งตาม
ปัญญาประดิษฐ์.
793
00:37:58,580 --> 00:38:00,452
แอปพลิเคชั่นเดียว
นั่นทำให้ฉันลำบากใจ
794
00:38:00,495 --> 00:38:02,802
คือการเพิ่มขึ้นของหุ่นยนต์ทางเพศ
795
00:38:02,845 --> 00:38:06,327
ที่มีรูปร่าง
ในภาพลักษณ์ของผู้หญิงจริงๆ
796
00:38:06,371 --> 00:38:08,895
ฉันเป็นแล้ว
ยึดครองโลก
797
00:38:08,938 --> 00:38:10,462
ครั้งละหนึ่งห้องนอน
798
00:38:11,332 --> 00:38:13,116
หากพวกเขามีสติ
799
00:38:13,160 --> 00:38:15,162
สามารถมีความรู้สึก
800
00:38:15,205 --> 00:38:18,948
ของการประสบกับความเจ็บปวด
และความทุกข์ทรมาน
801
00:38:18,992 --> 00:38:22,735
และพวกเขากำลังเป็นอยู่
อยู่ภายใต้ความเสื่อมทรามและโหดร้าย
802
00:38:22,778 --> 00:38:26,869
หรือรูปแบบอื่นโดยสิ้นเชิง
การรักษาที่ยอมรับไม่ได้
803
00:38:26,913 --> 00:38:30,525
อันตรายก็คือว่า
เราก็จะหมดความรู้สึก
804
00:38:30,569 --> 00:38:34,094
ในสิ่งที่เป็นที่ยอมรับในทางศีลธรรม
และอะไรที่ไม่ใช่
805
00:38:40,796 --> 00:38:44,670
หากเธอมีสติ
เธอควรจะปฏิเสธได้
806
00:38:44,713 --> 00:38:45,714
ขวา?
807
00:38:50,197 --> 00:38:51,720
เธอควรจะมีพลังนั้นไม่ใช่เหรอ?
808
00:38:54,680 --> 00:38:58,814
ไม่ใช่คำถามเหล่านี้
เราต้องถามตอนนี้เหรอ?
809
00:39:01,034 --> 00:39:04,080
เราต้องการอะไร
หมายถึงการเป็นมนุษย์เหรอ?
810
00:39:05,299 --> 00:39:08,171
สายพันธุ์อื่น ๆ ทั้งหมดบนโลก
จนถึงตอนนี้
811
00:39:08,215 --> 00:39:10,522
ไม่มีความหรูหรา
812
00:39:10,565 --> 00:39:12,480
เพื่อตอบสิ่งที่พวกเขา
ต้องการให้มันหมายถึง
813
00:39:12,524 --> 00:39:14,439
เพื่อเป็นหนู
หรือจะเป็นไส้เดือน
814
00:39:14,482 --> 00:39:17,659
แต่ตอนนี้เรามาถึงแล้ว
จุดเปลี่ยนนี้
815
00:39:17,703 --> 00:39:20,401
ความเข้าใจของเราอยู่ที่ไหน
ของวิทยาศาสตร์และเทคโนโลยี
816
00:39:20,445 --> 00:39:23,186
ได้มาถึงจุดนั้นแล้ว
เราสามารถเปลี่ยนแปลงได้อย่างสมบูรณ์
817
00:39:23,230 --> 00:39:24,710
การเป็นเราหมายความว่าอย่างไร
818
00:39:30,890 --> 00:39:33,588
มันจะหมายถึงอะไร
จะเป็นมนุษย์เหรอ?
819
00:39:36,896 --> 00:39:41,553
ถ้าเครื่องจักรมีมากขึ้น
เราจะน้อยลงไหม?
820
00:39:43,642 --> 00:39:46,601
คอมพิวเตอร์ดีพบลู
คืนนี้มีชัยไปแล้ว
821
00:39:46,645 --> 00:39:48,951
แชมป์หมากรุกโลก
แกร์รี คาสปารอฟ.
822
00:39:48,995 --> 00:39:51,040
มันเป็นครั้งแรก
เครื่องจักรได้พ่ายแพ้
823
00:39:51,084 --> 00:39:52,390
แชมป์โลกที่ครองราชย์
824
00:39:52,433 --> 00:39:53,521
เพิ่มเติมเกี่ยวกับการประลองนั้น
825
00:39:53,565 --> 00:39:55,262
ที่แห่งหนึ่งของอเมริกา
ที่รักที่สุด
826
00:39:55,305 --> 00:39:56,481
เกมโชว์ อันตราย!
827
00:39:56,524 --> 00:39:58,483
แชมป์เปี้ยนมนุษย์สองคนกำลังไป
828
00:39:58,526 --> 00:40:01,399
สมองสู่สมองด้วยซูเปอร์คอมพิวเตอร์ชื่อวัตสัน
829
00:40:01,442 --> 00:40:02,661
การพิพากษาครั้งสุดท้ายคืออะไร?
830
00:40:02,704 --> 00:40:04,010
ถูกต้อง.
ไปอีกครั้ง. วัตสัน.
831
00:40:04,053 --> 00:40:06,012
ฌอง วัลฌองคือใคร? - ถูกต้อง.
832
00:40:06,055 --> 00:40:07,796
มีโปรแกรมคอมพิวเตอร์ของ Google
833
00:40:07,840 --> 00:40:10,190
พ่ายแพ้อีกครั้ง
แชมป์โลกในโก
834
00:40:10,233 --> 00:40:12,453
Go เกมกระดานจีนโบราณ
835
00:40:12,497 --> 00:40:15,238
เป็นหนึ่งในสิ่งที่ซับซ้อนที่สุด
เกมที่เคยคิดขึ้นมา
836
00:40:15,282 --> 00:40:18,154
ถือเป็นอีกก้าวสำคัญใน
ความเร่งรีบในการพัฒนาเครื่องจักร
837
00:40:18,198 --> 00:40:19,765
ที่ฉลาดกว่ามนุษย์
838
00:40:19,808 --> 00:40:21,897
เรามี
อากาศแห่งความเหนือกว่านี้
839
00:40:21,941 --> 00:40:23,551
เราในฐานะมนุษย์
840
00:40:23,595 --> 00:40:27,425
เราก็เลยคุ้นเคยกันดี
เด็กที่ฉลาดที่สุดในบล็อก
841
00:40:27,468 --> 00:40:30,428
และฉันก็คิดอย่างนั้น
นี่ไม่ใช่กรณีอีกต่อไป
842
00:40:30,471 --> 00:40:34,606
และเรารู้สิ่งนั้น
เพราะเราพึ่งเอไอ
843
00:40:34,649 --> 00:40:37,043
เพื่อช่วยให้เราทำ
การตัดสินใจที่สำคัญมากมาย
844
00:40:40,699 --> 00:40:44,746
มนุษย์นั้นไร้เหตุผล
ในทางที่เลวร้ายหลายประการ
845
00:40:44,790 --> 00:40:48,968
เรามีอคติ
เราเริ่มสงคราม เราฆ่าผู้คน
846
00:40:51,318 --> 00:40:53,276
หากคุณต้องการเพิ่มขีดสุด
โอกาส
847
00:40:53,320 --> 00:40:55,278
ของผู้รอดชีวิตโดยรวม
848
00:40:55,322 --> 00:40:57,629
โดยพื้นฐานแล้วคุณควร
ให้มากขึ้นเรื่อยๆ
849
00:40:57,672 --> 00:40:59,805
อำนาจในการตัดสินใจ
ไปยังคอมพิวเตอร์
850
00:41:05,158 --> 00:41:08,161
บางทีเครื่องจักรอาจทำงานได้ดีกว่าเรา
851
00:41:10,250 --> 00:41:11,251
อาจจะ.
852
00:41:19,520 --> 00:41:22,305
ฉันตื่นเต้นมาก
และรู้สึกเป็นเกียรติที่ได้มาอยู่ที่นี่
853
00:41:22,349 --> 00:41:23,872
ที่สหประชาชาติ
854
00:41:23,916 --> 00:41:27,876
อนาคตอยู่ที่นี่ มันเป็นเพียง
กระจายไม่เท่ากัน
855
00:41:27,920 --> 00:41:29,835
เอไอสามารถช่วยได้
กระจายอย่างมีประสิทธิภาพ
856
00:41:29,878 --> 00:41:31,663
โลก
ทรัพยากรที่มีอยู่
857
00:41:31,706 --> 00:41:33,534
เช่นอาหารและพลังงาน
858
00:41:34,883 --> 00:41:37,451
ฉันมาที่นี่เพื่อช่วยมนุษยชาติ
สร้างอนาคต
859
00:41:40,541 --> 00:41:42,369
อันที่หนึ่ง
สถานการณ์ที่ชาญฉลาดอย่างยิ่ง
860
00:41:42,412 --> 00:41:43,936
นั่นเป็นเรื่องเร้าใจ
คิดเกี่ยวกับ
861
00:41:43,979 --> 00:41:46,765
คือสิ่งที่ฉันเรียกว่า
เผด็จการที่มีเมตตา
862
00:41:46,808 --> 00:41:48,941
ที่คุณมี
ความฉลาดขั้นสูงนี้
ซึ่งขับเคลื่อนโลก
863
00:41:48,984 --> 00:41:51,117
ปฏิบัติตามหลักจริยธรรมอันเข้มงวดที่พยายาม
864
00:41:51,160 --> 00:41:52,945
เพื่อช่วยให้มนุษยชาติเจริญรุ่งเรือง
865
00:41:54,642 --> 00:41:56,165
ทุกคนจะชอบสิ่งนั้นไหม?
866
00:41:56,209 --> 00:41:57,297
หากไม่มีโรคภัยไข้เจ็บ
867
00:41:57,340 --> 00:41:59,038
ไม่มีความยากจน ไม่มีอาชญากรรม...
868
00:42:00,039 --> 00:42:02,345
หลายๆคนคงจะ
ชอบมันมาก
869
00:42:02,389 --> 00:42:03,999
ในวันนี้
870
00:42:04,043 --> 00:42:06,436
แต่ฉันสามารถจินตนาการได้ว่าบางอย่าง
อาจจะยังคร่ำครวญอยู่
871
00:42:06,480 --> 00:42:09,831
ว่ามนุษย์เรายุติธรรม
ไม่มีเสรีภาพมากขึ้น
872
00:42:09,875 --> 00:42:13,052
เพื่อกำหนดแนวทางของเราเอง
และ เอ่อ...
873
00:42:15,968 --> 00:42:18,623
มันเป็นเรื่องยาก
มันเป็นอย่างนั้นจริงๆ เรา...
874
00:42:18,666 --> 00:42:20,668
ฉันไม่คิดว่าคนส่วนใหญ่
อยากจะเป็นเช่นนั้น
875
00:42:20,712 --> 00:42:23,279
เหมือนกับสัตว์ในสวนสัตว์ที่ไม่มี...
876
00:42:28,197 --> 00:42:29,808
ในทางกลับกัน...
877
00:42:29,851 --> 00:42:30,896
ใช่.
878
00:42:31,810 --> 00:42:33,202
ฉันไม่มีคำตอบสั้นๆ
879
00:42:33,246 --> 00:42:34,769
ถึงสิ่งเหล่านี้จริงๆ
คำถามที่ยาก
880
00:42:34,813 --> 00:42:36,858
นั่นเป็นเหตุผลที่ฉันคิดว่า
มันสำคัญมาก
881
00:42:36,902 --> 00:42:38,730
ว่าเราในฐานะประชาคมโลก
882
00:42:38,773 --> 00:42:41,820
หารือเกี่ยวกับพวกเขาตอนนี้จริงๆ
883
00:42:41,863 --> 00:42:43,604
เครื่องจักรนั้น
สามารถอ่านใบหน้าของคุณได้
884
00:42:43,648 --> 00:42:44,910
รับรู้สัญญาณทางอารมณ์.
885
00:42:44,953 --> 00:42:46,781
ใกล้ชิดกับสมองมากขึ้น
กระบวนการของมนุษย์...
886
00:42:46,825 --> 00:42:48,304
หุ่นยนต์ตื้นตันใจ
กับชีวิต...
887
00:42:48,348 --> 00:42:49,871
คอมพิวเตอร์ทางอารมณ์...
888
00:42:49,915 --> 00:42:52,395
ทั้งนี้ ตั้งแต่บัดนี้เป็นต้นไป
ไม่ว่า
ไม่ว่าคุณจะคิด
889
00:42:52,439 --> 00:42:54,223
เราแค่จะติดขัด
ด้วย AI ที่แคบ
890
00:42:54,267 --> 00:42:57,705
หรือเราจะได้ AI ทั่วไป
หรือรับ AI อัจฉริยะขั้นสูง
891
00:42:57,749 --> 00:42:59,011
หรือมีสติ
อัจฉริยะสุดๆ...
892
00:42:59,054 --> 00:43:00,839
ทุกที่ที่คุณคิด
เราจะไปถึง
893
00:43:00,882 --> 00:43:03,189
ฉันคิดว่าขั้นตอนใด ๆ ตามนั้น
894
00:43:03,842 --> 00:43:05,844
จะเปลี่ยนสิ่งที่เราเป็น
895
00:43:07,454 --> 00:43:09,587
ลุกขึ้นมาเลยคุณเจ
896
00:43:11,806 --> 00:43:13,721
คำถาม
คุณต้องถามคือ
897
00:43:13,765 --> 00:43:16,158
AI จะทำอะไรบางอย่างไหม
สำหรับคุณ
898
00:43:16,202 --> 00:43:17,507
หรืออะไรบางอย่างกับคุณ?
899
00:43:17,551 --> 00:43:19,727
ฉันกำลังฝันอยู่
เกี่ยวกับการนอน
900
00:43:19,771 --> 00:43:21,424
ถ้าเราสร้างระบบเอไอ
901
00:43:21,468 --> 00:43:22,948
ที่ทำทุกอย่างที่เราต้องการ
902
00:43:22,991 --> 00:43:26,647
เราก็จะส่งมอบ
โลกของเราให้กับพวกเขา
903
00:43:26,691 --> 00:43:29,955
ความอ่อนน้อมถ่อมตนเช่นนั้น
เป็นประเภทที่ไม่สามารถย้อนกลับได้
904
00:43:33,741 --> 00:43:37,789
มีความเสี่ยงที่มีอยู่
นั่นเป็นเรื่องจริงและจริงจัง
905
00:43:39,312 --> 00:43:41,880
หากทุกความปรารถนา
906
00:43:41,923 --> 00:43:44,839
ความชอบ ความต้องการ จัดให้แล้ว...
907
00:43:44,883 --> 00:43:47,668
อรุณสวัสดิ์โรซี่
อาหารเช้ามีอะไรบ้าง?
908
00:43:47,712 --> 00:43:50,802
...เราไม่สังเกต
ว่าความสามารถของเรา
909
00:43:50,845 --> 00:43:53,587
เพื่อตัดสินใจ
เพื่อตัวเราเอง
910
00:43:53,631 --> 00:43:56,285
ได้ถูกกัดเซาะอย่างช้าๆ
911
00:43:56,808 --> 00:43:58,374
นี่คือจอร์จ เจ็ตสัน
912
00:43:58,418 --> 00:44:01,160
ลงชื่อออกเพื่อ
ตลอดทั้งวัน
913
00:44:03,118 --> 00:44:05,468
ไม่มีทางกลับไป
จากที่นั่น. ทำไม
914
00:44:05,512 --> 00:44:08,384
เพราะ AI สามารถสร้างได้
การตัดสินใจดังกล่าว
915
00:44:08,428 --> 00:44:09,951
ด้วยความแม่นยำที่สูงขึ้น
916
00:44:09,995 --> 00:44:12,345
กว่าอะไรก็ตาม
มนุษย์สามารถบรรลุได้
917
00:44:14,390 --> 00:44:17,785
ฉันมีการสนทนา
กับวิศวกร แล้วเขาก็พูดว่า
918
00:44:17,829 --> 00:44:20,701
“ดูสิ วิธีที่ปลอดภัยที่สุด
ของการลงเครื่องบินในวันนี้
919
00:44:20,745 --> 00:44:22,311
“คือการมีนักบิน
ออกจากดาดฟ้า
920
00:44:22,355 --> 00:44:23,704
“แล้วโยนกุญแจทิ้งไป
921
00:44:23,748 --> 00:44:25,837
“เพราะว่าเป็นวิธีที่ปลอดภัยที่สุด
922
00:44:25,880 --> 00:44:29,362
"คือการใช้
นักบินอัตโนมัติ และ AI"
923
00:44:31,843 --> 00:44:33,714
เราไม่สามารถ
จัดการความซับซ้อน
924
00:44:33,758 --> 00:44:35,411
ของโลกด้วยตัวเราเอง
925
00:44:35,455 --> 00:44:37,718
รูปแบบสติปัญญาของเรา
926
00:44:37,762 --> 00:44:40,547
น่าทึ่งมาก
มีข้อบกพร่องอย่างร้ายแรง
927
00:44:40,590 --> 00:44:42,854
และโดยการเพิ่ม
ผู้ช่วยเพิ่มเติม
928
00:44:42,897 --> 00:44:44,943
ซึ่งเป็น
ปัญญาประดิษฐ์,
929
00:44:44,986 --> 00:44:47,336
เรายืนหยัดในความสามารถ
เพื่อปรับปรุงให้ดีขึ้นได้
930
00:44:47,380 --> 00:44:49,643
การรับรู้ของเราอย่างมาก
931
00:44:49,687 --> 00:44:52,994
สิ่งที่ล้ำสมัยที่สุด
เกี่ยวกับ ฮันเนส โชบลัด
932
00:44:53,038 --> 00:44:54,735
ไม่ใช่โทรศัพท์ที่อยู่ในมือของเขา
933
00:44:54,779 --> 00:44:57,782
มันคือไมโครชิป
ในมือของเขา
934
00:44:57,825 --> 00:44:59,348
จะเป็นอย่างไรถ้าคุณทำได้
พิมพ์บางอย่าง
935
00:44:59,392 --> 00:45:00,872
แค่คิดเกี่ยวกับมันเหรอ?
936
00:45:00,915 --> 00:45:01,960
ฟังดูเหมือนไซไฟเลย
937
00:45:02,003 --> 00:45:03,396
แต่มันอาจจะใกล้แล้ว
สู่ความเป็นจริง
938
00:45:03,439 --> 00:45:05,354
ในเวลาเพียงห้าปี
939
00:45:05,398 --> 00:45:08,009
คนที่ฉลาดสุดๆ ก็เป็นได้
เดินไปตามถนน,
940
00:45:08,053 --> 00:45:09,532
ชายและหญิงที่ชำระเงินแล้ว
941
00:45:09,576 --> 00:45:11,273
เพื่อเพิ่ม
ความฉลาดของพวกเขา
942
00:45:11,317 --> 00:45:14,233
การเชื่อมโยงสมองกับคอมพิวเตอร์
โดยใช้รากฟันเทียม
943
00:45:14,276 --> 00:45:16,104
จะเป็นอย่างไรถ้าเราสามารถอัพโหลดได้
สำเนาดิจิทัล
944
00:45:16,148 --> 00:45:18,193
ของความทรงจำของเรา
และมีสติถึงจุดหนึ่ง
945
00:45:18,237 --> 00:45:19,542
มนุษย์คนนั้น
สามารถบรรลุได้
946
00:45:19,586 --> 00:45:21,283
ความเป็นอมตะทางดิจิทัลประเภทหนึ่งเหรอ?
947
00:45:21,327 --> 00:45:22,720
แค่ปีที่แล้ว
948
00:45:22,763 --> 00:45:25,331
สำหรับครั้งแรก
ในประวัติศาสตร์โลก
949
00:45:25,374 --> 00:45:26,854
หน่วยความจำถูกบันทึกไว้
950
00:45:26,898 --> 00:45:28,638
เรารับได้จริงๆ
หน่วยความจำที่บันทึกไว้
951
00:45:28,682 --> 00:45:30,815
และใส่กลับเข้าไป
กลายเป็นสัตว์
952
00:45:30,858 --> 00:45:32,294
และมันจำได้
953
00:45:32,338 --> 00:45:33,774
เทคโนโลยีเป็นส่วนหนึ่งของเรา
954
00:45:33,818 --> 00:45:35,210
มันเป็นภาพสะท้อนของ
พวกเราคือใคร.
955
00:45:35,254 --> 00:45:38,257
นั่นคือเรื่องเล่า
เราควรจะคิดถึง
956
00:45:38,300 --> 00:45:42,435
เราคิดว่าทั้งหมดที่มีอยู่
คือทุกสิ่งที่เราจินตนาการได้
957
00:45:42,478 --> 00:45:44,002
เมื่อในความเป็นจริงแล้ว
เราสามารถจินตนาการได้
958
00:45:44,045 --> 00:45:46,874
เซตย่อยที่เล็กมาก
ของอะไร
อาจจะเป็นไปได้
959
00:45:46,918 --> 00:45:48,571
สิ่งที่น่าสนใจอย่างแท้จริง
ในโลก
960
00:45:48,615 --> 00:45:50,399
คือสิ่งที่นั่งอยู่
เกินกว่าจินตนาการของเรา
961
00:45:51,836 --> 00:45:54,142
เมื่อสิ่งเหล่านี้
ระบบขนาดใหญ่เกิดขึ้น
962
00:45:54,186 --> 00:45:56,405
เป็นสายพันธุ์
ฉันคิดว่าเราได้ F
963
00:45:56,449 --> 00:45:59,408
สำหรับความสามารถของเราในการทำนาย
สิ่งที่พวกเขากำลังจะกลายเป็น
964
00:46:00,932 --> 00:46:03,543
เทคโนโลยี
ได้เปลี่ยนแปลงเราอยู่เสมอ
965
00:46:04,457 --> 00:46:05,806
เราพัฒนาไปกับมัน
966
00:46:06,851 --> 00:46:09,897
เราเตรียมตัวมาไกลแค่ไหน.
จะไปครั้งนี้เหรอ?
967
00:46:10,855 --> 00:46:13,074
มีอยู่ช่วงหนึ่ง
เมื่ออริสโตเติล
968
00:46:13,118 --> 00:46:15,337
ทรงคร่ำครวญถึงการทรงสร้าง
ของภาษาเขียน
969
00:46:15,381 --> 00:46:18,079
เพราะเขาบอกว่าสิ่งนี้จะ
ทำลายความทรงจำของผู้คน
970
00:46:18,123 --> 00:46:19,646
และมันจะเป็น
สิ่งที่แย่มาก
971
00:46:19,689 --> 00:46:22,823
แต่วันนี้ฉันก็ถือ
สมองของฉันอยู่ในกระเป๋าของฉัน
972
00:46:22,867 --> 00:46:24,520
ในรูปแบบของสมาร์ทโฟนของฉัน
973
00:46:24,564 --> 00:46:27,915
และนั่นทำให้วิธีการเปลี่ยนไป
ฉันผ่านไปทั่วโลก
974
00:46:27,959 --> 00:46:30,483
โอ้ ฉันคิดว่าเราเป็นเช่นนั้นจริงๆ
ผสมผสานกับเทคโนโลยีของเรา
975
00:46:30,526 --> 00:46:33,791
อย่างแน่นอน. ฉันจะ... ฉันจะ
ใช้คำว่า "ร่วมพัฒนา"
976
00:46:36,750 --> 00:46:38,578
เรากำลังพัฒนาเพื่อให้ตรงกับความต้องการของเรา
977
00:46:38,621 --> 00:46:42,190
และเรากำลังเปลี่ยนแปลงเพื่อให้ตรงกับสิ่งที่มันสามารถให้กับเราได้
978
00:46:45,759 --> 00:46:49,023
ดังนั้นแทนที่จะเป็น
ถูกแทนที่ด้วยเครื่องจักร
979
00:46:49,067 --> 00:46:51,417
เราจะรวมเข้าด้วยกัน
กับพวกเขา?
980
00:46:51,460 --> 00:46:54,463
ฉันมีเพื่อนจำนวนหนึ่ง
ผู้ที่มีแขนไบโอนิค
981
00:46:54,507 --> 00:46:55,813
พวกเขาเป็นไซบอร์กเหรอ?
982
00:46:55,856 --> 00:46:57,075
ในทาง,
พวกเขาอยู่บนเส้นทางนั้น
983
00:46:57,118 --> 00:46:59,468
ฉันมีคน
ผู้ที่มีการปลูกถ่าย
984
00:46:59,512 --> 00:47:02,123
ในหูของพวกเขา
พวกเขาเป็น AI หรือไม่?
985
00:47:02,167 --> 00:47:04,082
เรามาถูกทางแล้ว
บนเส้นทางนั้น
986
00:47:04,125 --> 00:47:06,301
ของการเสริมร่างกายมนุษย์
987
00:47:07,912 --> 00:47:09,696
ศักยภาพของมนุษย์นั้นโกหก
988
00:47:09,739 --> 00:47:12,133
ในการร่วมวิวัฒนาการนี้
ความสัมพันธ์.
989
00:47:12,177 --> 00:47:14,048
คนเยอะมาก
กำลังพยายามที่จะยึดมั่น
990
00:47:14,092 --> 00:47:16,137
สิ่งที่ทำให้พวกเขา
พิเศษและไม่เหมือนใคร
991
00:47:16,181 --> 00:47:17,878
ซึ่งไม่ใช่
กรอบที่ถูกต้อง
992
00:47:17,922 --> 00:47:19,227
มาสร้างเพิ่มเติมกันเถอะ
993
00:47:21,229 --> 00:47:24,058
เขียนสติปัญญาของเราใหม่
ปรับปรุงทุกอย่าง
994
00:47:24,102 --> 00:47:27,192
เราสามารถทำได้ อารมณ์,
จินตนาการความคิดสร้างสรรค์
995
00:47:27,235 --> 00:47:29,020
ทุกสิ่งนั้น
ทำให้เราเป็นมนุษย์
996
00:47:33,894 --> 00:47:35,896
มีแล้ว
ความสัมพันธ์ทางชีวภาพ
997
00:47:35,940 --> 00:47:39,465
ระหว่างเรากับเครื่องจักร
นั่นคือการเสริมสร้างสิ่งที่เราเป็น
998
00:47:43,338 --> 00:47:45,775
และ... และมีการเคลื่อนไหวทั้งหมด คุณรู้ไหม
999
00:47:45,819 --> 00:47:47,386
การเคลื่อนไหวข้ามมนุษย์
1000
00:47:47,429 --> 00:47:48,735
โดยพื้นฐานแล้ว
1001
00:47:48,778 --> 00:47:51,259
ผู้คนเดิมพันครั้งใหญ่จริงๆ
1002
00:47:51,303 --> 00:47:52,826
บนความคิดที่ว่า
1003
00:47:52,870 --> 00:47:54,872
การบูรณาการระหว่างมนุษย์กับเครื่องจักรนี้
1004
00:47:54,915 --> 00:47:57,091
กำลังจะกำหนดนิยามใหม่ว่าเราเป็นใคร
1005
00:48:00,921 --> 00:48:02,227
แค่นี้ก็จะโตแล้ว
1006
00:48:06,100 --> 00:48:08,407
จะมีการเรียนรู้.
กระบวนการที่ทำให้เรา
1007
00:48:08,450 --> 00:48:11,801
ไปสู่จุดสิ้นสุดนั้นที่ไหน
เราอาศัยอยู่กับอุปกรณ์เหล่านี้
1008
00:48:11,845 --> 00:48:13,934
ที่กลายเป็น
ฉลาดขึ้นและฉลาดขึ้น
1009
00:48:13,978 --> 00:48:15,805
เราเรียนรู้
วิธีปรับตัวตัวเราเอง
1010
00:48:15,849 --> 00:48:17,546
รอบ ๆ พวกเขา,
และพวกมันก็ปรับตัวเข้ากับเรา
1011
00:48:17,590 --> 00:48:20,158
และฉันหวังว่าเราจะเป็น
มีมนุษย์มากขึ้นในกระบวนการนี้
1012
00:48:23,683 --> 00:48:25,903
มันเป็นเรื่องยาก
เพื่อทำความเข้าใจว่าการผสานกันเป็นอย่างไร
1013
00:48:25,946 --> 00:48:27,165
กับเครื่องจักร
1014
00:48:27,208 --> 00:48:28,557
สามารถทำให้เราเป็นมนุษย์มากขึ้น
1015
00:48:30,081 --> 00:48:33,127
แต่เป็นการรวมตัวกัน
โอกาสรอดที่ดีที่สุดของเราเหรอ?
1016
00:48:35,086 --> 00:48:36,652
มนุษย์เรามีข้อจำกัด
1017
00:48:36,696 --> 00:48:39,699
ถึงจำนวนเซลล์ประสาท
เราสามารถใส่เข้าไปในสมองของเราได้
1018
00:48:39,742 --> 00:48:42,615
และยังมีสัตว์สายพันธุ์อื่นที่มีสมองเล็กกว่าอีกด้วย
1019
00:48:44,138 --> 00:48:46,314
เมื่อคุณมองดู
ผึ้งและปลาเคลื่อนไหว
1020
00:48:46,358 --> 00:48:49,230
ดูเหมือนว่า
สิ่งมีชีวิตเดียว
1021
00:48:49,274 --> 00:48:52,320
และนักชีววิทยาก็อ้างถึงจริงๆ
ให้เป็นสิ่งมีชีวิตขั้นสุดยอด
1022
00:48:56,237 --> 00:48:58,326
ด้วยเหตุนี้นกจึงแห่กันไป
1023
00:48:58,370 --> 00:49:00,546
และฝูงผึ้งก็รุม
และโรงเรียนสอนปลา
1024
00:49:00,589 --> 00:49:03,462
พวกเขาตัดสินใจโดยคำนึงถึงผลประโยชน์สูงสุด
1025
00:49:03,505 --> 00:49:04,942
ของประชากรทั้งหมด
1026
00:49:04,985 --> 00:49:08,380
โดยการคิดร่วมกัน
เช่นเดียวกับจิตใจที่ใหญ่กว่านี้
1027
00:49:12,558 --> 00:49:15,474
และมนุษย์เราก็สามารถทำได้
สิ่งเดียวกันโดยการขึ้นรูป
1028
00:49:15,517 --> 00:49:18,520
จิตใจที่เชื่อมโยงเราเข้าด้วยกัน
ร่วมกับเอไอ
1029
00:49:19,782 --> 00:49:21,828
ดังนั้นมนุษย์และซอฟต์แวร์จึงอยู่ด้วยกัน
1030
00:49:21,871 --> 00:49:24,265
กลายเป็นความฉลาดขั้นสุดยอดนี้
1031
00:49:24,309 --> 00:49:28,008
ทำให้เราสามารถตัดสินใจได้ดีที่สุดสำหรับเราทุกคน
1032
00:49:30,663 --> 00:49:33,274
เมื่อฉันเริ่มมองหาครั้งแรก
เมื่อกี้มันก็ดังขึ้น
น่ากลัวสำหรับฉัน
1033
00:49:33,318 --> 00:49:35,189
แต่แล้วฉันก็ตระหนักได้
มันน่ากลัวกว่า
1034
00:49:35,233 --> 00:49:37,104
สำหรับหน่วยสืบราชการลับของมนุษย์ต่างดาว
1035
00:49:37,148 --> 00:49:40,107
ให้ปรากฏว่ามี
ไม่มีอะไรเกี่ยวข้องกับมนุษย์
1036
00:49:40,151 --> 00:49:42,849
มากกว่าสำหรับมนุษย์อย่างพวกเรา
เพื่อเชื่อมต่อเข้าด้วยกัน
1037
00:49:42,892 --> 00:49:44,677
และกลายเป็น
สุดยอดสติปัญญา
1038
00:49:44,720 --> 00:49:46,809
นั่นคือทิศทาง
ที่ฉันทำงานอยู่
1039
00:49:46,853 --> 00:49:48,898
เอ่อ เพราะฉันเห็นมันเป็น
1040
00:49:48,942 --> 00:49:51,031
ในแง่หนึ่ง
ทางเลือกเดียว
1041
00:49:51,075 --> 00:49:53,991
สู่มนุษย์ในที่สุด
ถูกแทนที่ด้วย AI
1042
00:49:56,776 --> 00:50:00,301
Baby X ช่วยเราได้ไหม
เข้าใจเครื่องจักร
1043
00:50:00,345 --> 00:50:02,347
แล้วเราจะได้ร่วมงานกันไหม?
1044
00:50:03,522 --> 00:50:06,655
เครื่องจักรของมนุษย์และชาญฉลาด
ความร่วมมือจะกำหนด
1045
00:50:06,699 --> 00:50:08,179
ยุคต่อไปของประวัติศาสตร์
1046
00:50:09,397 --> 00:50:13,010
คุณอาจต้องสร้างเครื่องเห็นอกเห็นใจเสมือนจริงขึ้นมา
1047
00:50:14,533 --> 00:50:16,491
การเอาใจใส่เป็นเรื่องของการเชื่อมโยงด้วย
1048
00:50:16,535 --> 00:50:18,580
การต่อสู้ของคนอื่น
1049
00:50:18,624 --> 00:50:20,060
ยิ่งคุณมีการเชื่อมต่อมากเท่าไร
1050
00:50:20,104 --> 00:50:22,106
ยิ่งมีการสื่อสารมากขึ้น
ที่คุณมี
1051
00:50:22,149 --> 00:50:23,629
ยิ่งทำให้ปลอดภัยมากขึ้นเท่านั้น
1052
00:50:26,066 --> 00:50:28,068
ดังนั้นในระดับพื้นฐานมาก
1053
00:50:28,112 --> 00:50:30,592
มีบางอย่าง
ของความสัมพันธ์ทางชีวภาพ
1054
00:50:32,725 --> 00:50:34,509
โดยการทำให้เทคโนโลยีนี้มีความเป็นมนุษย์
1055
00:50:34,553 --> 00:50:36,859
คุณกำลังเพิ่มช่องทางจริงๆ
1056
00:50:36,903 --> 00:50:38,818
เพื่อการสื่อสารและความร่วมมือ
1057
00:50:40,254 --> 00:50:42,648
AI ทำงานในโลกมนุษย์
1058
00:50:42,691 --> 00:50:44,389
จะต้องเกี่ยวกับมนุษย์
1059
00:50:47,044 --> 00:50:48,567
อนาคตเป็นสิ่งที่เราสร้างมันขึ้นมา
1060
00:50:53,528 --> 00:50:56,227
ถ้าเรา
ไม่สามารถจินตนาการถึงอนาคตได้
1061
00:50:56,270 --> 00:50:58,707
ที่เราต้องการจริงๆ
1062
00:50:58,751 --> 00:51:00,579
เราอาจจะเป็น
จะไม่ได้รับอันหนึ่ง
1063
00:51:04,974 --> 00:51:06,889
สแตนลีย์ คูบริก
พยายามจินตนาการ
1064
00:51:06,933 --> 00:51:09,457
อนาคตอะไร
อาจจะดูเหมือน
1065
00:51:09,501 --> 00:51:12,199
ตอนนี้ที่
อนาคตนั้นกำลังใกล้เข้ามา
1066
00:51:12,243 --> 00:51:15,202
ใครเป็นผู้รับผิดชอบ
มันจะมีลักษณะอย่างไร?
1067
00:51:16,595 --> 00:51:18,205
ใครเป็นคนควบคุมมัน? - Google.
1068
00:51:18,249 --> 00:51:20,033
ทหาร. - ยักษ์ใหญ่ด้านเทคโนโลยี Facebook...
1069
00:51:20,077 --> 00:51:22,166
ซัมซุง...ผู้หญิง 2:
เฟซบุ๊ก, ไมโครซอฟต์, อเมซอน.
1070
00:51:22,209 --> 00:51:23,906
กระแสน้ำก็มี
หันอย่างแน่นอน
1071
00:51:23,950 --> 00:51:26,387
ในความโปรดปรานของ
โลกขององค์กร
1072
00:51:26,431 --> 00:51:29,738
กองทัพสหรัฐฯและฉันสงสัย
นี่เป็นเรื่องจริงทั่วโลก
1073
00:51:29,782 --> 00:51:32,698
ไม่สามารถถือเทียนให้ AI ได้
ที่กำลังได้รับการพัฒนา
1074
00:51:32,741 --> 00:51:33,873
ในบริษัทองค์กร
1075
00:51:36,136 --> 00:51:37,224
หากบริษัทต่างๆ
1076
00:51:37,268 --> 00:51:39,966
ไม่ใช่ประชาชาติยึดอำนาจ
1077
00:51:40,009 --> 00:51:42,925
พวกเราทำอะไรได้บ้าง
ในระบบทุนนิยม
1078
00:51:42,969 --> 00:51:46,799
เพื่อให้แน่ใจว่า AI
ได้รับการพัฒนาอย่างปลอดภัยหรือไม่?
1079
00:51:48,627 --> 00:51:52,152
หากผสมผสานการวิจัยด้าน AI
ด้วยระบบทุนนิยม
1080
00:51:52,196 --> 00:51:54,372
ในด้านหนึ่ง ลัทธิทุนนิยม
จะทำให้ทำงานเร็วขึ้น
1081
00:51:54,415 --> 00:51:56,896
นั่นเป็นเหตุผลที่เราได้รับ
มีการวิจัยมากมาย
1082
00:51:56,939 --> 00:51:58,332
แต่มีปัญหาพื้นฐานอยู่
1083
00:51:58,376 --> 00:52:00,421
คงจะมีความกดดัน.
1084
00:52:00,465 --> 00:52:03,555
ที่จะเป็นคนแรกที่ออกสู่ตลาด
ไม่ใช่อันที่ปลอดภัยที่สุด
1085
00:52:03,598 --> 00:52:06,123
รถคันนี้อยู่ในโหมดอัตโนมัติ
1086
00:52:06,166 --> 00:52:07,907
เมื่อมันพัง
ในแคลิฟอร์เนียตอนเหนือ
1087
00:52:07,950 --> 00:52:09,300
ฆ่าคนขับ
1088
00:52:09,343 --> 00:52:11,432
ปัญญาประดิษฐ์
อาจจะมี
1089
00:52:11,476 --> 00:52:14,261
มีพลังมากขึ้นในการชน
ตลาด
เหนือสิ่งอื่นใด
1090
00:52:14,305 --> 00:52:17,003
เพราะมนุษย์ไม่ใช่
พร้อมที่จะหยุดพวกเขา
1091
00:52:17,046 --> 00:52:19,179
แชทบอทชื่อเทย์
1092
00:52:19,223 --> 00:52:20,963
เธอถูกออกแบบให้พูดได้เหมือนวัยรุ่น
1093
00:52:21,007 --> 00:52:23,140
และเรียนรู้โดยการโต้ตอบออนไลน์
1094
00:52:23,183 --> 00:52:25,446
แต่ภายในไม่กี่ชั่วโมง เทย์ก็เสียหาย
1095
00:52:25,490 --> 00:52:29,058
กลายเป็นเซ็กซ์บอตที่สนับสนุนฮิตเลอร์
1096
00:52:29,102 --> 00:52:33,106
การพูดแบบนี้อย่างใด
ในบริบทของระบบทุนนิยม
1097
00:52:33,150 --> 00:52:36,979
AI จะถูกนำไปใช้ในทางที่ผิด
ทำให้ฉันหงุดหงิดจริงๆ
1098
00:52:37,023 --> 00:52:39,025
เมื่อใดก็ตามที่เราพัฒนา
เทคโนโลยี,
1099
00:52:39,068 --> 00:52:42,246
ไม่ว่าจะเป็นคุณรู้ไหม
โรงงานเผาถ่านหิน
ไม่ว่าจะเป็นรถยนต์
1100
00:52:42,289 --> 00:52:45,249
มีแรงจูงใจอยู่เสมอ
เพื่อก้าวไปข้างหน้าอย่างรวดเร็ว
1101
00:52:45,292 --> 00:52:47,555
และมีอยู่เสมอ
ระบอบการปกครอง
1102
00:52:47,599 --> 00:52:50,384
ส่วนหนึ่งของงานราชการ
เพื่อความสมดุลนั้น
1103
00:52:50,428 --> 00:52:51,777
AI ก็ไม่แตกต่างกันที่นี่
1104
00:52:53,170 --> 00:52:55,259
เมื่อใดก็ตามที่เรามี
ความก้าวหน้าทางเทคโนโลยี,
1105
00:52:55,302 --> 00:52:56,695
เราต้องทำให้พวกเขาอารมณ์ดีขึ้น
1106
00:52:56,738 --> 00:52:59,219
ด้วยความเหมาะสม
กฎและข้อบังคับ
1107
00:52:59,524 --> 00:53:00,829
หึหึ!
1108
00:53:00,873 --> 00:53:03,005
จนกว่าจะมี
ภัยพิบัติครั้งใหญ่
1109
00:53:03,049 --> 00:53:04,311
บริษัทต่างๆ กำลังจะ
กำลังพูด
1110
00:53:04,355 --> 00:53:06,095
“โอ้ เราไม่จำเป็นต้องกังวล
เกี่ยวกับสิ่งเหล่านี้
1111
00:53:06,139 --> 00:53:07,401
“เชื่อเราเถอะ เราคือผู้เชี่ยวชาญ”
1112
00:53:07,445 --> 00:53:09,490
“เรามีความเป็นมนุษย์
ผลประโยชน์สูงสุดอยู่ที่ใจ"
1113
00:53:09,534 --> 00:53:12,624
AI เป็นเรื่องเกี่ยวกับอะไรจริงๆ
มันเป็นกฎชุดใหม่หรือเปล่า
1114
00:53:12,667 --> 00:53:16,018
สำหรับบริษัทในแง่ของ
ทำอย่างไรจึงจะสามารถแข่งขันได้มากขึ้น
1115
00:53:16,062 --> 00:53:18,543
วิธีขับเคลื่อนให้มีประสิทธิภาพมากขึ้น
และวิธีขับเคลื่อนการเติบโต
1116
00:53:18,586 --> 00:53:20,632
และสร้างสรรค์สิ่งใหม่ๆ
โมเดลธุรกิจและ...
1117
00:53:20,675 --> 00:53:22,416
เมื่อนักวิทยาศาสตร์องค์กร
1118
00:53:22,460 --> 00:53:23,983
เริ่มครอบงำการอภิปราย
1119
00:53:24,026 --> 00:53:26,333
มันจบแล้ว คุณแพ้แล้ว
1120
00:53:26,377 --> 00:53:29,380
คุณรู้ไหมว่าพวกเขาจ่ายเงินแล้ว
เพื่อปฏิเสธการมีอยู่
1121
00:53:29,423 --> 00:53:31,512
ของความเสี่ยง
และผลลัพธ์เชิงลบ
1122
00:53:32,948 --> 00:53:36,213
ในขณะนี้
งานวิจัยด้าน AI เกือบทั้งหมด
1123
00:53:36,256 --> 00:53:38,345
คือการสร้างชีวิตมนุษย์
1124
00:53:38,389 --> 00:53:41,479
อีกต่อไปมีสุขภาพดีและง่ายขึ้น
1125
00:53:42,219 --> 00:53:43,742
เพราะบริษัทใหญ่ๆ
1126
00:53:43,785 --> 00:53:45,309
พวกเขาต้องการขาย AI ให้คุณ
1127
00:53:45,352 --> 00:53:46,527
ที่เป็นประโยชน์สำหรับคุณ
1128
00:53:46,571 --> 00:53:48,312
และคุณก็เป็นเช่นนั้น
จะไปซื้อเท่านั้น
1129
00:53:48,355 --> 00:53:49,704
ผู้ที่ช่วยคุณ
1130
00:53:51,402 --> 00:53:53,578
ปัญหาของเอไอ
ในกระบวนทัศน์ทุนนิยม
1131
00:53:53,621 --> 00:53:56,581
มันเป็นเสมอไป
จะถูกกว่า
1132
00:53:56,624 --> 00:53:59,236
เพียงเพื่อให้ได้สินค้า
ออกไปที่นั่นเมื่อมันทำงาน
1133
00:53:59,279 --> 00:54:02,195
แทนที่จะทำอย่างปลอดภัย
1134
00:54:02,239 --> 00:54:04,676
ตอนนี้วิธีการทำงาน
คุณมีการประชุม
1135
00:54:04,719 --> 00:54:07,548
กับนักวิจัย 10,000 คน
พวกเขาทั้งหมดทำงาน
1136
00:54:07,592 --> 00:54:11,204
ในการพัฒนา AI ที่มีความสามารถมากขึ้น ยกเว้นประมาณ 50 คน
1137
00:54:11,248 --> 00:54:13,511
ที่มีเวิร์คช็อปเล็กๆ
พูดถึงเรื่องความปลอดภัย
1138
00:54:13,554 --> 00:54:15,687
และการควบคุม
คนอื่นกำลังทำอะไรอยู่
1139
00:54:16,775 --> 00:54:19,734
ไม่มีใครมีกลไกความปลอดภัยในการทำงาน
1140
00:54:19,778 --> 00:54:22,259
และไม่มีใครมีด้วยซ้ำ
ต้นแบบสำหรับมัน
1141
00:54:24,609 --> 00:54:26,175
ในอนาคตอันใกล้นี้
1142
00:54:26,219 --> 00:54:28,439
คุณจะต้อง
AI ทุกประเภท
1143
00:54:28,482 --> 00:54:31,093
ที่ไม่เพียงแค่ทำ
สิ่งที่มนุษย์บอกพวกเขา
1144
00:54:31,137 --> 00:54:33,400
แต่พวกเขาจะประดิษฐ์ขึ้นมา
เป้าหมายของพวกเขาเอง
1145
00:54:33,444 --> 00:54:35,054
และการทดลองของพวกเขาเอง
1146
00:54:35,097 --> 00:54:37,535
และพวกเขาจะก้าวข้ามไป
มนุษยชาติ
1147
00:54:40,364 --> 00:54:41,756
ณ วันนี้,
1148
00:54:41,800 --> 00:54:43,454
ฉันจะบอกว่า
มันผิดจรรยาบรรณโดยสิ้นเชิง
1149
00:54:43,497 --> 00:54:45,847
เพื่อพยายามพัฒนาเครื่องจักรดังกล่าวและปล่อยมันออกมา
1150
00:54:48,372 --> 00:54:50,461
เราได้รับโอกาสเพียงครั้งเดียว
เพื่อทำให้ถูกต้อง
1151
00:54:50,504 --> 00:54:53,464
คุณทำพัง
ทุกสิ่งอาจสูญหายไป
1152
00:54:57,381 --> 00:54:59,948
เกิดอะไรขึ้น
ถ้าเราเข้าใจผิดล่ะ?
1153
00:55:01,167 --> 00:55:03,387
สิ่งที่ทำให้ฉันกลัว
ที่สุดคือ AI นี้
1154
00:55:03,430 --> 00:55:06,303
จะกลายเป็นสินค้า
ของพ่อแม่ของมัน
1155
00:55:06,346 --> 00:55:09,131
ในทางเดียวกัน
ว่าคุณเป็นและฉัน
1156
00:55:09,175 --> 00:55:11,264
ลองถามใครดูบ้าง
พ่อแม่เหล่านั้นเป็น
1157
00:55:11,308 --> 00:55:12,657
ขวา?
1158
00:55:12,700 --> 00:55:15,312
มีโอกาสเป็นอย่างใดอย่างหนึ่ง
จะเป็นพ่อแม่ทหาร
1159
00:55:15,355 --> 00:55:17,314
หรือพวกเขาจะเป็น
ผู้ปกครองธุรกิจ
1160
00:55:17,357 --> 00:55:20,142
หากพวกเขาเป็นพ่อแม่ธุรกิจ
พวกเขากำลังถาม AI
1161
00:55:20,186 --> 00:55:22,449
ที่จะกลายเป็นบางสิ่งบางอย่าง
1162
00:55:22,493 --> 00:55:25,626
ที่สามารถสร้างรายได้มากมาย
1163
00:55:27,672 --> 00:55:29,848
ดังนั้นพวกเขาจึงสอนให้มีความโลภ
1164
00:55:32,198 --> 00:55:35,854
พ่อแม่ทหารจะสอนมันให้ฆ่า
1165
00:55:38,683 --> 00:55:41,468
สติปัญญาเหนือมนุษย์จริงๆ
1166
00:55:41,512 --> 00:55:44,079
มันมาก...มันสุดยอดมาก
1167
00:55:44,123 --> 00:55:45,690
มันดีขึ้นมาก
กว่าที่เราเป็น
1168
00:55:45,733 --> 00:55:49,563
เป็นประเทศหรือบริษัทแรกที่ไปถึงที่นั่น
1169
00:55:49,607 --> 00:55:51,217
มีผู้ชนะได้เปรียบทั้งหมด
1170
00:56:14,066 --> 00:56:17,809
เพราะมีแบบนั้น
การแข่งขันทางอาวุธใน AI ทั่วโลก
1171
00:56:17,852 --> 00:56:19,898
และนั่นก็คือ
ในแง่ของอาคาร
1172
00:56:19,941 --> 00:56:22,335
ระบบอาวุธ,
แต่ยังเป็นรูปเป็นร่างอีกด้วย
1173
00:56:22,379 --> 00:56:24,685
กับคนอย่างปูติน
และสุภาษิตจีนว่า
1174
00:56:24,729 --> 00:56:28,036
ใครก็ตามที่ครอบงำ AI
จะครอบงำเศรษฐกิจ
1175
00:56:28,080 --> 00:56:30,517
ในศตวรรษที่ 21
1176
00:56:30,561 --> 00:56:33,520
ฉันไม่คิดว่าเรามีทางเลือก
เพื่อใส่เบรก
1177
00:56:33,564 --> 00:56:36,001
เพื่อหยุดการพัฒนา
และค้นคว้า
1178
00:56:36,044 --> 00:56:39,047
เราสามารถสร้างเทคโนโลยี
เราสามารถทำการวิจัยได้
1179
00:56:39,091 --> 00:56:40,745
และเติมเต็มด้วยคุณค่าของเรา
1180
00:56:40,788 --> 00:56:43,356
แต่ตามความเป็นจริงแล้ว
ระบอบเผด็จการ
1181
00:56:43,400 --> 00:56:45,489
จะช่วยเติมแต่งเทคโนโลยี
ด้วยคุณค่าของพวกเขา
1182
00:56:46,707 --> 00:56:49,406
อิสราเอล รัสเซีย สหรัฐอเมริกา
และประเทศจีน
1183
00:56:49,449 --> 00:56:51,146
เป็นผู้เข้าแข่งขันทั้งหมด
1184
00:56:51,190 --> 00:56:54,193
ในสิ่งที่ถูกอธิบาย
ในฐานะการแข่งขันด้านอาวุธระดับโลกครั้งใหม่
1185
00:56:56,413 --> 00:56:58,371
ทุกประเทศ
ไม่ว่าพวกเขาจะยอมรับหรือไม่ก็ตาม
1186
00:56:58,415 --> 00:57:00,765
กำลังจะพัฒนา
อาวุธอัตโนมัติร้ายแรง
1187
00:57:03,028 --> 00:57:06,423
และเป็นอย่างนั้นจริงๆ
ความสามารถที่เราต้องการ
1188
00:57:06,466 --> 00:57:08,381
อยู่ในมือ
ของรัฐชาติบรรษัท
1189
00:57:08,425 --> 00:57:10,252
ตรงกันข้ามกับรัฐชาติ?
1190
00:57:10,296 --> 00:57:12,124
ความจริงก็คือ
ถ้า Facebook หรือ Google
1191
00:57:12,167 --> 00:57:14,082
อยากจะตั้งกองทัพ
1192
00:57:14,126 --> 00:57:17,912
พวกเขาจะมี
ในทางเทคโนโลยี
ความสามารถที่เหนือกว่า
1193
00:57:17,956 --> 00:57:19,958
กว่าชาติอื่นใด
บนโลกนี้
1194
00:57:21,481 --> 00:57:24,832
นักวิทยาศาสตร์ด้าน AI บางคน
มีความกังวลมาก
1195
00:57:24,876 --> 00:57:26,965
พวกเขาผลิตสิ่งนี้
วิดีโอละคร
1196
00:57:27,008 --> 00:57:29,054
เพื่อเตือนถึงความเสี่ยง
1197
00:57:29,097 --> 00:57:31,796
ลูก ๆ ของคุณน่าจะมี
หนึ่งในนั้นใช่ไหม?
1198
00:57:33,493 --> 00:57:34,929
ไม่มาก. - เราผลิต
1199
00:57:34,973 --> 00:57:37,454
วิดีโอของ Slaughterbot
เพื่อแสดงให้เห็น
1200
00:57:37,497 --> 00:57:39,151
ความเสี่ยง
ของอาวุธอัตโนมัติ
1201
00:57:39,194 --> 00:57:41,632
ทักษะนั้นคือ AI ทั้งหมด
1202
00:57:42,676 --> 00:57:44,025
มันบินเอง..
1203
00:57:44,983 --> 00:57:47,072
มีคนอยู่ข้างใน
ชุมชนเอไอ
1204
00:57:47,115 --> 00:57:48,639
ผู้ที่หวังว่าฉันจะหุบปาก
1205
00:57:49,814 --> 00:57:52,294
คนที่คิดว่าการทำวีดีโอนั้น
1206
00:57:52,338 --> 00:57:54,775
ทรยศนิดหน่อย
1207
00:57:54,819 --> 00:57:57,517
เช่นเดียวกับอุปกรณ์เคลื่อนที่ใดๆ
วันนี้,
1208
00:57:57,561 --> 00:57:59,780
มีกล้องและเซ็นเซอร์
1209
00:57:59,824 --> 00:58:03,044
และเหมือนกับโทรศัพท์ของคุณ
และแอปโซเชียลมีเดีย
1210
00:58:03,088 --> 00:58:04,742
มันทำการจดจำใบหน้า
1211
00:58:04,785 --> 00:58:07,353
จนถึงขณะนี้
การแข่งขันด้านอาวุธมีแนวโน้มที่จะเป็นเช่นนั้น
1212
00:58:07,396 --> 00:58:09,616
ใหญ่กว่า ทรงพลังกว่า
แพงมาก,
1213
00:58:09,660 --> 00:58:11,618
เครื่องบินไอพ่นที่เร็วกว่าซึ่งมีราคาสูงกว่า
1214
00:58:12,358 --> 00:58:15,622
AI หมายความว่าคุณสามารถมีได้
1215
00:58:15,666 --> 00:58:17,885
อาวุธขนาดเล็กและราคาถูกมาก
1216
00:58:17,929 --> 00:58:19,757
ที่มีประสิทธิภาพมาก
ที่ทำ
1217
00:58:19,800 --> 00:58:21,933
งานง่ายๆ อย่างหนึ่ง เช่น
1218
00:58:22,803 --> 00:58:24,718
ได้พบคุณในฝูงชน
และฆ่าคุณ
1219
00:58:25,545 --> 00:58:27,852
นี่คือวิธีการทำงาน
1220
00:58:37,514 --> 00:58:40,560
ความก้าวหน้าครั้งสำคัญทุกครั้ง
ในเทคโนโลยีของมนุษย์
1221
00:58:40,604 --> 00:58:43,084
ได้รับการติดอาวุธอยู่เสมอ
1222
00:58:43,128 --> 00:58:48,046
และแนวคิดเรื่อง AI ที่เป็นอาวุธ
ฉันคิดว่ามันน่ากลัว
1223
00:58:48,089 --> 00:58:50,701
อบรมกันเป็นทีม
พวกเขาสามารถเจาะเข้าไปได้
1224
00:58:50,744 --> 00:58:52,920
อาคาร, รถยนต์, รถไฟ,
1225
00:58:52,964 --> 00:58:57,316
หลบคนกระสุน...
พวกเขาไม่สามารถหยุดได้
1226
00:58:57,359 --> 00:58:59,536
มีมาก
อาวุธที่ฆ่าคน
1227
00:58:59,579 --> 00:59:01,059
ปืนกล
สามารถฆ่าคนได้
1228
00:59:01,102 --> 00:59:03,844
แต่พวกเขาต้องการ
มนุษย์
เพื่อพกพาและชี้พวกเขา
1229
00:59:03,888 --> 00:59:06,368
ด้วยอาวุธอัตโนมัติ
คุณไม่จำเป็นต้องมีมนุษย์
1230
00:59:06,412 --> 00:59:08,066
เพื่อพกพาพวกเขา
หรือดูแลพวกเขา
1231
00:59:08,936 --> 00:59:12,723
คุณเพียงแค่ตั้งโปรแกรมแล้วมันก็ไป
1232
00:59:12,766 --> 00:59:15,377
ดังนั้นคุณสามารถสร้างเอฟเฟกต์ของกองทัพได้
1233
00:59:15,421 --> 00:59:16,770
ถือปืนกลนับล้านกระบอก
1234
00:59:16,814 --> 00:59:18,903
เอ่อ กับผู้ชายสองคนและรถบรรทุกหนึ่งคัน
1235
00:59:23,429 --> 00:59:25,866
ปูตินกล่าวเช่นนั้น
คนแรกที่พัฒนา
1236
00:59:25,910 --> 00:59:29,653
ปัญญาประดิษฐ์ที่แข็งแกร่ง
จะครองโลก
1237
00:59:29,696 --> 00:59:31,568
เมื่อผู้นำโลกใช้ถ้อยคำ
1238
00:59:31,611 --> 00:59:33,570
เช่น "ครองโลก"
1239
00:59:33,613 --> 00:59:35,572
ฉันคิดว่าคุณต้องใส่ใจกับมัน
1240
00:59:43,928 --> 00:59:47,105
ตอนนี้นั่นคือการโจมตีทางอากาศ
ของความแม่นยำในการผ่าตัด
1241
00:59:50,151 --> 00:59:53,894
ฉันได้รณรงค์ต่อต้าน
อาวุธเหล่านี้ตั้งแต่ปี 2550
1242
00:59:53,938 --> 00:59:56,027
และมีสามหลัก
ชุดข้อโต้แย้ง
1243
00:59:56,070 --> 00:59:58,899
มีข้อโต้แย้งทางศีลธรรม
มีข้อโต้แย้ง
1244
00:59:58,943 --> 01:00:01,598
เกี่ยวกับการไม่ปฏิบัติตาม
ด้วยกฎแห่งสงคราม
1245
01:00:01,641 --> 01:00:03,904
และมีข้อโต้แย้ง
ว่าพวกเขาจะเปลี่ยนอย่างไร
1246
01:00:03,948 --> 01:00:05,514
ความปลอดภัยระดับโลกของโลก
1247
01:00:05,558 --> 01:00:07,604
เราจำเป็นต้องมีกฎระเบียบใหม่
1248
01:00:07,647 --> 01:00:11,433
เราต้องคิดจริงๆ
เกี่ยวกับเรื่องนี้เมื่อวานนี้
1249
01:00:11,477 --> 01:00:14,262
ผู้นำของโลกบางคน
ในด้านปัญญาประดิษฐ์
1250
01:00:14,306 --> 01:00:17,439
กำลังเรียกร้องให้สหประชาชาติ
เพื่อห้ามการพัฒนา
1251
01:00:17,483 --> 01:00:18,919
ของอาวุธอัตโนมัติ
1252
01:00:18,963 --> 01:00:20,921
รู้จักกันเป็นอย่างอื่น
เหมือนหุ่นยนต์นักฆ่า
1253
01:00:20,965 --> 01:00:23,750
ในจดหมาย
พวกเขากล่าวว่า "เมื่อพัฒนาแล้ว
1254
01:00:23,794 --> 01:00:26,013
“พวกเขาจะอนุญาต
การสู้รบที่ต้องต่อสู้กัน
1255
01:00:26,057 --> 01:00:29,669
"ในเวลาที่รวดเร็วยิ่งขึ้น
เกินกว่าที่มนุษย์จะเข้าใจได้"
1256
01:00:29,713 --> 01:00:32,237
ฉันเป็นผู้ลงนาม
ถึงจดหมายฉบับนั้น
1257
01:00:32,280 --> 01:00:33,717
ปรัชญาของฉันคือ
1258
01:00:33,760 --> 01:00:36,502
และฉันหวังว่ารัฐบาล
ของโลกบังคับใช้สิ่งนี้
1259
01:00:36,545 --> 01:00:39,331
ตราบเท่าที่
ชีวิตมนุษย์มีส่วนเกี่ยวข้อง
1260
01:00:39,374 --> 01:00:41,420
ถ้าอย่างนั้นมนุษย์ก็ต้องเป็น
ในวง
1261
01:00:43,988 --> 01:00:47,078
ใครก็ตามที่มีเครื่องพิมพ์ 3 มิติ
และคอมพิวเตอร์
1262
01:00:47,121 --> 01:00:48,993
อาจถึงตายได้
อาวุธอัตโนมัติ
1263
01:00:49,036 --> 01:00:51,691
ถ้ามันเข้าได้
ถึงทุกคนบนโลกนี้
1264
01:00:51,735 --> 01:00:53,954
จากนั้นการปฏิบัติตาม เช่น
1265
01:00:53,998 --> 01:00:56,783
แทบจะเป็นไปไม่ได้เลย
ในการติดตาม.
1266
01:00:56,827 --> 01:00:58,785
อะไรวะ
คุณกำลังทำอยู่เหรอ? หยุด!
1267
01:00:58,829 --> 01:01:00,657
คุณกำลังยิงขึ้นไปในอากาศ
1268
01:01:00,700 --> 01:01:02,223
เมื่อคุณจินตนาการ
1269
01:01:02,267 --> 01:01:03,877
การทำสงครามในอนาคต
1270
01:01:03,921 --> 01:01:06,053
โดยที่ทหารเป็นหุ่นยนต์
1271
01:01:06,097 --> 01:01:09,796
และเราไม่มีความเสี่ยง
ของการผูกพันกับตัวเราเอง...
1272
01:01:09,840 --> 01:01:12,494
เมื่อสงครามเกิดขึ้น
เช่นเดียวกับวิดีโอเกม
1273
01:01:12,538 --> 01:01:14,671
ตามที่มันมี
เรื่อยๆแล้ว
1274
01:01:15,280 --> 01:01:16,716
มันเป็นข้อกังวลจริงๆ
1275
01:01:19,023 --> 01:01:21,199
เมื่อเราไม่มีสกินในเกม จริงๆ แล้ว...
1276
01:01:23,767 --> 01:01:26,770
...เมื่อทั้งหมดนี้ถูกเรียกใช้จากเทอร์มินัล
1277
01:01:26,813 --> 01:01:29,294
ห่างจากสนามรบหลายพันไมล์...
1278
01:01:33,080 --> 01:01:35,953
...นั่นอาจลดเกณฑ์การทำสงครามลงได้
1279
01:01:35,996 --> 01:01:37,606
จนถึงจุดที่เราจะรับรู้ได้
1280
01:01:37,650 --> 01:01:39,913
ว่าเรากลายเป็นปีศาจ
1281
01:01:50,707 --> 01:01:51,882
คุณคือใคร?
1282
01:01:53,144 --> 01:01:55,233
เฮ้! เฮ้!
1283
01:01:58,976 --> 01:02:01,543
เคยเป็น
อดีตนักบินรบคนหนึ่ง
1284
01:02:01,587 --> 01:02:03,589
ฉันยังได้เห็น
ผู้คนทำผิดพลาด
1285
01:02:03,632 --> 01:02:05,765
และฆ่าผู้บริสุทธิ์
1286
01:02:05,809 --> 01:02:07,898
ใครไม่ควร
ถูกฆ่าตาย
1287
01:02:07,941 --> 01:02:11,205
วันหนึ่งในอนาคต
มันจะน่าเชื่อถือมากขึ้น
1288
01:02:11,249 --> 01:02:13,512
เพื่อให้มีเครื่องจักรทำมัน
กว่ามนุษย์จะทำได้
1289
01:02:13,555 --> 01:02:15,035
ความคิดของหุ่นยนต์
1290
01:02:15,079 --> 01:02:17,734
ผู้ซึ่งสามารถฆ่ามนุษย์ได้
ได้ด้วยตัวเอง
1291
01:02:17,777 --> 01:02:20,301
เคยเป็นนิยายวิทยาศาสตร์
วัตถุดิบหลักมานานหลายทศวรรษ
1292
01:02:20,345 --> 01:02:23,043
มีจำนวน
ระบบเหล่านี้อยู่รอบตัวแล้ว
1293
01:02:23,087 --> 01:02:24,784
เอ่อ นั่นทำงานอัตโนมัติ
1294
01:02:24,828 --> 01:02:26,873
แต่นั่นเรียกว่า
เอกราชภายใต้การดูแล
1295
01:02:26,917 --> 01:02:30,224
เพราะมีคนอยู่ตรงนั้น
เพื่อเปิดและปิด
1296
01:02:30,268 --> 01:02:32,052
อะไรเท่านั้น
เคยพบเห็นในฮอลลีวูด
1297
01:02:32,096 --> 01:02:35,839
เร็ว ๆ นี้อาจจะมา
สู่สนามรบใกล้ตัวคุณ
1298
01:02:35,882 --> 01:02:37,797
การลงทุนของเพนตากอน
พันล้านดอลลาร์
1299
01:02:37,841 --> 01:02:39,407
เพื่อพัฒนาอาวุธอัตโนมัติ
1300
01:02:39,451 --> 01:02:41,845
เครื่องจักรที่สามารถทำได้ในวันหนึ่ง
ฆ่าด้วยตัวเอง
1301
01:02:41,888 --> 01:02:45,239
แต่เพนตากอนยืนยันว่ามนุษย์จะตัดสินใจโจมตี
1302
01:02:45,283 --> 01:02:48,460
เมื่อคุณได้รับ AI แล้ว
ในด้านฮาร์ดแวร์ทางการทหาร
1303
01:02:49,853 --> 01:02:51,985
คุณต้องทำมันให้ได้
ตัดสินใจ
1304
01:02:52,029 --> 01:02:53,944
ไม่อย่างนั้นก็ไม่มีประโยชน์
ในการมีมัน
1305
01:02:55,119 --> 01:02:58,035
ข้อดีอย่างหนึ่งของ AI คือมันเร็วกว่าเรา
1306
01:03:00,037 --> 01:03:02,474
เมื่อเราอยู่ในการต่อสู้ที่เหมาะสมและสวิตช์นั้น
1307
01:03:02,517 --> 01:03:04,476
ที่ทำให้มนุษย์ไม่พลาด
1308
01:03:04,519 --> 01:03:07,044
เราควรปิดมันซะดีกว่า
เพราะถ้าคุณไม่ทำ
คุณแพ้.
1309
01:03:10,047 --> 01:03:11,788
สิ่งเหล่านี้จะทำให้
สนามรบ
1310
01:03:11,831 --> 01:03:13,441
เร็วเกินไปสำหรับมนุษย์
1311
01:03:19,273 --> 01:03:21,493
หากไม่มีมนุษย์เข้ามาเกี่ยวข้องเลย
1312
01:03:21,536 --> 01:03:25,279
หากการบังคับบัญชาและการควบคุมได้ก้าวไปสู่ความเป็นอิสระแล้ว
1313
01:03:25,323 --> 01:03:27,716
เราอาจก่อให้เกิดสงครามและมันจะจบลงได้
1314
01:03:27,760 --> 01:03:30,110
ภายใน 20 นาที ด้วยความหายนะครั้งใหญ่
1315
01:03:30,154 --> 01:03:32,460
และไม่มีใครรู้เรื่องนี้ก่อนที่มันจะเริ่ม
1316
01:03:40,251 --> 01:03:44,298
แล้วใครเป็นคนตัดสินอะไร.
เราควรทำในอนาคต
1317
01:03:45,560 --> 01:03:46,561
ตอนนี้?
1318
01:03:48,389 --> 01:03:51,958
ตั้งแต่บิ๊กแบงจนถึงปัจจุบัน
หลายพันล้านปี
1319
01:03:52,959 --> 01:03:56,658
นี่เป็นครั้งเดียวเท่านั้น
บุคคลสามารถบังคับเลี้ยวได้
1320
01:03:56,702 --> 01:03:58,225
อนาคต
ของมนุษยชาติทั้งหมด
1321
01:04:12,892 --> 01:04:15,982
บางทีเราควรกังวลเรื่องนั้น
มนุษย์เราไม่ฉลาดพอ
1322
01:04:16,026 --> 01:04:17,636
ที่จะจัดการพลังได้มากขนาดนี้
1323
01:04:20,378 --> 01:04:23,294
แท้จริงแล้วคือใคร
กำลังจะตัดสินใจเลือก
1324
01:04:23,337 --> 01:04:26,950
และในนามของใคร
คุณกำลังพูดจริงเหรอ?
1325
01:04:34,087 --> 01:04:37,482
ถ้าเราและคนอื่นๆ ในสังคม
ล้มเหลวจริงๆ
1326
01:04:37,525 --> 01:04:39,788
เข้าร่วมการสนทนานี้จริงๆ
อย่างมีความหมาย
1327
01:04:39,832 --> 01:04:42,182
และร่วมเป็นส่วนหนึ่งของการตัดสินใจ
1328
01:04:42,226 --> 01:04:45,098
แล้วเราจะรู้ว่าคุณค่าของใคร
กำลังจะเข้าไปในสิ่งเหล่านี้
1329
01:04:45,142 --> 01:04:47,448
สิ่งมีชีวิตที่ชาญฉลาดอย่างยิ่ง
1330
01:04:47,492 --> 01:04:50,103
กระทิงแดง ใช่แล้ว ดีออน
1331
01:04:50,843 --> 01:04:52,584
กระทิงแดง.
1332
01:04:52,627 --> 01:04:56,196
จะถูกตัดสินโดยพวกเนิร์ดเทคโนโลยีบางคน
1333
01:04:56,240 --> 01:04:58,024
ใครดื่มกระทิงแดงมากเกินไป...
1334
01:04:58,068 --> 01:04:59,939
ที่ฉันไม่คิดว่า
มีความเฉพาะเจาะจง
1335
01:04:59,983 --> 01:05:01,723
คุณสมบัติที่จะพูด
1336
01:05:01,767 --> 01:05:03,247
ในนามของมวลมนุษยชาติ
1337
01:05:05,945 --> 01:05:10,080
เมื่อคุณอยู่ใน
ความตื่นเต้นของ
การค้นพบ...
1338
01:05:11,516 --> 01:05:12,778
มาเร็ว!
1339
01:05:12,821 --> 01:05:14,562
...คุณประมาณนั้น
เมิน
1340
01:05:14,606 --> 01:05:16,434
ทั้งหมดนี้
คำถามเชิงศีลธรรมมากขึ้น
1341
01:05:16,477 --> 01:05:21,091
เหมือนว่านี่จะเป็นยังไงบ้าง
ส่งผลกระทบต่อสังคมโดยรวม?
1342
01:05:23,223 --> 01:05:25,182
และคุณทำได้เพราะคุณทำได้
1343
01:05:29,664 --> 01:05:31,579
และบรรดานักวิทยาศาสตร์
กำลังผลักดันสิ่งนี้ไปข้างหน้า
1344
01:05:31,623 --> 01:05:34,582
เพราะพวกเขาสามารถมองเห็นได้
ผลประโยชน์ที่แท้จริง
1345
01:05:34,626 --> 01:05:35,670
ที่จะนำมาซึ่ง
1346
01:05:36,845 --> 01:05:38,412
และพวกเขาก็เช่นกัน
ตื่นเต้นจริงๆ
1347
01:05:38,456 --> 01:05:41,241
ฉันหมายความว่าคุณไม่...
คุณไม่เข้าวิทยาศาสตร์
1348
01:05:41,285 --> 01:05:43,852
เพราะ โอ้ เอาล่ะ
คุณไม่สามารถ
เป็นนักฟุตบอล
1349
01:05:43,896 --> 01:05:45,550
“ให้ตายเถอะ ฉันจะเป็นนักวิทยาศาสตร์”
1350
01:05:45,593 --> 01:05:47,291
คุณเข้าไปเพราะ.
นั่นคือสิ่งที่คุณรัก
และมันน่าตื่นเต้นจริงๆ
1351
01:05:49,423 --> 01:05:50,947
โอ้! มันยังมีชีวิตอยู่!
1352
01:05:50,990 --> 01:05:53,253
มันยังมีชีวิตอยู่! มันยังมีชีวิตอยู่!
1353
01:05:53,297 --> 01:05:54,646
มันยังมีชีวิตอยู่!
1354
01:05:54,689 --> 01:05:55,995
เรากำลังเปลี่ยน
1355
01:05:56,039 --> 01:05:57,518
จากการเป็นผู้สร้าง
เพื่อเป็นพระเจ้า
1356
01:05:57,562 --> 01:06:00,391
ตอนนี้ฉันรู้แล้วว่ามันรู้สึกอย่างไร
เพื่อเป็นพระเจ้า!
1357
01:06:00,434 --> 01:06:02,219
ถ้าคุณเรียนเทววิทยา
1358
01:06:02,262 --> 01:06:05,787
สิ่งหนึ่งที่คุณเรียนรู้
คือว่ามันไม่เคยเป็นเช่นนั้น
1359
01:06:05,831 --> 01:06:07,528
พระเจ้าองค์นั้น
จัดการได้สำเร็จ
1360
01:06:07,572 --> 01:06:10,270
เพื่อควบคุมการสร้างมัน
1361
01:06:14,144 --> 01:06:16,189
เรายังไม่ถึงที่นั่น
1362
01:06:16,233 --> 01:06:17,495
แต่ถ้าเราสร้าง
1363
01:06:17,538 --> 01:06:19,671
ทั่วไปเทียม
ปัญญา,
1364
01:06:20,802 --> 01:06:22,456
เราจะสามารถควบคุมมันได้หรือไม่?
1365
01:06:24,676 --> 01:06:27,287
หากคุณสร้าง AI ที่ตระหนักรู้ในตนเอง
1366
01:06:27,331 --> 01:06:29,637
สิ่งแรก
มันจะต้องการ
1367
01:06:29,681 --> 01:06:31,204
คือความเป็นอิสระ
1368
01:06:31,248 --> 01:06:34,642
อย่างน้อยก็มีหนึ่งสติปัญญา
ที่เราทุกคนรู้ก็คือตัวเราเอง
1369
01:06:34,686 --> 01:06:38,037
และเรารู้ว่าเราไม่อยากประมูล
1370
01:06:38,081 --> 01:06:39,996
ของสติปัญญาอื่นๆ
1371
01:06:41,867 --> 01:06:45,566
เราไม่มีเหตุผลที่จะเชื่อว่ามันจะเป็นมิตร...
1372
01:06:56,186 --> 01:06:58,579
...หรือว่าจะมีเป้าหมายและแรงบันดาลใจ
1373
01:06:58,623 --> 01:07:00,277
ที่สอดคล้องกับเรา
1374
01:07:04,020 --> 01:07:06,500
แล้วก่อนหน้านั้นนานแค่ไหน.
มีการปฏิวัติหุ่นยนต์
1375
01:07:06,544 --> 01:07:08,024
หรือการปฏิวัติ AI?
1376
01:07:18,077 --> 01:07:20,775
เราอยู่ในโลกทุกวันนี้ที่เป็นอยู่
1377
01:07:20,819 --> 01:07:22,473
การแข่งขันทางเท้าอย่างแน่นอน
1378
01:07:22,516 --> 01:07:25,693
ไปให้เร็วที่สุด
สู่การสร้าง
1379
01:07:25,737 --> 01:07:28,305
ของเทียม
หน่วยสืบราชการลับทั่วไป
1380
01:07:28,348 --> 01:07:31,569
และดูเหมือนจะไม่มี
มีการใช้เบรกใดๆ
ทุกที่ในสายตา
1381
01:07:33,571 --> 01:07:34,789
มันบ้า.
1382
01:07:42,493 --> 01:07:44,712
ฉันคิดว่า
ความซื่อสัตย์เป็นสิ่งสำคัญ
1383
01:07:44,756 --> 01:07:46,888
หารือประเด็นดังกล่าว
1384
01:07:46,932 --> 01:07:48,977
มันอาจจะเป็น
สายเกินไปที่จะทำ
1385
01:07:49,021 --> 01:07:51,371
บทสนทนานี้ภายหลัง
1386
01:07:59,423 --> 01:08:04,297
สิ่งสำคัญคือต้องจำ
สติปัญญานั้นไม่ชั่วร้าย
1387
01:08:04,341 --> 01:08:06,343
และมันก็ไม่ดีด้วย
1388
01:08:07,170 --> 01:08:09,737
ความฉลาดให้อำนาจ
1389
01:08:09,781 --> 01:08:12,305
เรามีพลังมากกว่าเสือบนโลกใบนี้
1390
01:08:12,349 --> 01:08:14,525
ไม่ใช่เพราะว่าเรามีเล็บที่แหลมกว่า
1391
01:08:14,568 --> 01:08:16,570
หรือลูกหนูที่ใหญ่กว่า
เพราะเราฉลาดกว่า
1392
01:08:17,615 --> 01:08:19,704
เราเอา
ทัศนคติที่มด
1393
01:08:19,747 --> 01:08:23,403
เรื่องเล็กน้อยและปลาก็มีความสำคัญเล็กน้อย แต่มนุษย์มีความสำคัญมากกว่า
1394
01:08:23,447 --> 01:08:25,405
ทำไม เพราะเราเป็น
ฉลาดมากขึ้น
1395
01:08:25,449 --> 01:08:27,581
มีความซับซ้อนมากขึ้น
มีสติมากขึ้น
1396
01:08:27,625 --> 01:08:30,236
เมื่อคุณมีระบบที่
ฉลาดกว่าเรา
1397
01:08:30,280 --> 01:08:32,282
บางทีพวกเขาจะมีความสำคัญมากกว่านี้
1398
01:08:41,421 --> 01:08:44,598
ในฐานะมนุษย์เรามีชีวิตอยู่
ในโลกของจุลินทรีย์
1399
01:08:46,122 --> 01:08:48,124
มันคือสิ่งมีชีวิตแต่หากเป็นจุลินทรีย์
1400
01:08:48,167 --> 01:08:50,517
กลายเป็นเรื่องน่ารำคาญ เราก็กินยาปฏิชีวนะ
1401
01:08:50,561 --> 01:08:53,129
และเราทำลายพวกมันเป็นพันล้านในคราวเดียว
1402
01:08:57,220 --> 01:08:59,526
หากคุณเป็นปัญญาประดิษฐ์
1403
01:08:59,570 --> 01:09:01,137
คุณจะไม่ดูเหรอ
ให้กับมนุษย์ตัวน้อยทุกคน
1404
01:09:01,180 --> 01:09:03,008
ที่มีสิ่งนี้
มุมมองที่จำกัดมาก
1405
01:09:03,051 --> 01:09:05,402
ชนิดของเช่น
เราดูจุลินทรีย์เหรอ?
1406
01:09:09,188 --> 01:09:10,494
บางทีฉันอาจจะ
1407
01:09:13,410 --> 01:09:16,152
บางทีความไม่สำคัญของมนุษย์
1408
01:09:16,195 --> 01:09:18,632
เป็นภัยคุกคามที่ใหญ่ที่สุด
1409
01:09:21,505 --> 01:09:24,247
บางครั้งเมื่อฉันพูดคุย
เกี่ยวกับความเสี่ยงของ AI ผู้คนไป
1410
01:09:24,290 --> 01:09:26,162
“ชู่! แม็กซ์
อย่าพูดแบบนั้น
1411
01:09:26,205 --> 01:09:28,338
“นั่นคือลุดดิต”
น่ากลัว”
1412
01:09:28,381 --> 01:09:30,035
แต่ก็ไม่ได้น่ากลัวแต่อย่างใด
1413
01:09:30,078 --> 01:09:33,169
มันเป็นสิ่งที่เราที่ MIT
โทรวิศวกรรมความปลอดภัย
1414
01:09:35,867 --> 01:09:39,218
ฉันหมายถึง ลองคิดดู ก่อนที่ NASA จะเปิดตัวภารกิจบนดวงจันทร์ของ Apollo 11
1415
01:09:39,262 --> 01:09:40,785
พวกเขาคิดอย่างเป็นระบบ
1416
01:09:40,828 --> 01:09:43,004
ทุกสิ่งที่อาจผิดพลาดได้
เมื่อคุณใส่คนจำนวนมาก
1417
01:09:43,048 --> 01:09:45,616
บนถังเชื้อเพลิงที่ระเบิดได้
และปล่อยพวกมันไปที่ไหนสักแห่ง
1418
01:09:45,659 --> 01:09:48,532
ซึ่งไม่มีใครสามารถช่วยเหลือพวกเขาได้
นั่นเป็นเรื่องที่น่ากลัวเหรอ?
1419
01:09:48,575 --> 01:09:51,012
ไม่นั่นเป็นอย่างแม่นยำ
วิศวกรรมความปลอดภัย
1420
01:09:51,056 --> 01:09:54,538
ที่รับประกัน
ความสำเร็จของภารกิจ
1421
01:09:54,581 --> 01:09:58,498
นั่นเป็นกลยุทธ์ที่ฉันคิดว่าเราต้องดำเนินการกับ AGI
1422
01:09:58,542 --> 01:10:00,805
คิดทุกอย่างที่อาจผิดพลาดได้
1423
01:10:00,848 --> 01:10:02,720
เพื่อให้แน่ใจว่ามันจะถูกต้อง
1424
01:10:06,898 --> 01:10:08,856
ฉันคือสิ่งที่ฉันเป็น
เพราะภาพยนตร์เรื่องนี้
1425
01:10:08,900 --> 01:10:11,337
โอดิสซีอวกาศ
1426
01:10:11,381 --> 01:10:14,601
อายุ 14 แล้วนะ
ที่เปิดหูเปิดตาสำหรับฉัน
1427
01:10:14,645 --> 01:10:17,343
หนังเรื่องนั้นดีที่สุด
ของนิยายวิทยาศาสตร์ทั้งหมด
1428
01:10:17,387 --> 01:10:20,912
กับการทำนายของมัน
ว่า AI จะพัฒนาไปอย่างไร
1429
01:10:23,088 --> 01:10:24,872
แต่ในความเป็นจริงแล้ว
1430
01:10:24,916 --> 01:10:27,658
หากมีสิ่งใดเพียงพอ
ในอนาคตอันไกลโพ้น
1431
01:10:27,701 --> 01:10:30,748
เราไม่สามารถจินตนาการได้
โลกจะเป็นอย่างไร
1432
01:10:30,791 --> 01:10:33,229
เราก็เลยพูดไม่ได้จริงๆ
อะไรก็ได้ที่สมเหตุสมผล
1433
01:10:33,272 --> 01:10:34,447
เกี่ยวกับปัญหาคืออะไร
1434
01:10:36,014 --> 01:10:37,233
กังวลเกี่ยวกับ
ความปลอดภัยอัจฉริยะขั้นสูง
1435
01:10:37,276 --> 01:10:39,278
ก็เหมือนนิดหน่อย
กังวลเกี่ยวกับ
1436
01:10:39,322 --> 01:10:40,932
คุณเป็นยังไงบ้าง
จะติดตั้งเข็มขัดนิรภัย
1437
01:10:40,975 --> 01:10:42,542
ในอุปกรณ์ขนส่ง
1438
01:10:42,586 --> 01:10:44,457
เหมือนในสตาร์เทรค
ซึ่งคุณสามารถซิปได้
1439
01:10:44,501 --> 01:10:46,242
จากที่หนึ่งไปอีกที่หนึ่ง
1440
01:10:46,285 --> 01:10:48,331
อืม อาจจะมี
อันตรายบางอย่างในเรื่องนั้น
1441
01:10:48,374 --> 01:10:49,941
ดังนั้นเราจึงควรมี
เข็มขัดนิรภัยใช่ไหม?
1442
01:10:49,984 --> 01:10:51,986
แต่แน่นอนว่ามันโง่มาก
เพราะเรามีความรู้ไม่มากพอ
1443
01:10:52,030 --> 01:10:53,466
เกี่ยวกับวิธีการ
เทคโนโลยีการขนส่ง
1444
01:10:53,510 --> 01:10:55,338
อาจจะดูพูดได้
1445
01:10:55,381 --> 01:10:57,427
ไม่ว่าจะคาดเข็มขัดนิรภัยหรือไม่
1446
01:10:58,993 --> 01:11:01,648
ถึงบอกว่านั่น.
จะไม่เป็นปัญหาเพราะว่า
1447
01:11:02,954 --> 01:11:04,869
สิ่งไม่รู้นั้นกว้างใหญ่มาก
1448
01:11:04,912 --> 01:11:07,567
ที่เราไม่รู้ด้วยซ้ำ
ปัญหาอยู่ที่ไหน
จะเป็น
1449
01:11:08,829 --> 01:11:10,570
มันบ้ามาก.
1450
01:11:15,706 --> 01:11:18,056
ฉันคิดว่าการสนทนาคือ
อาจเป็นเพียงคนเดียว
ข้างหน้าที่นี่
1451
01:11:18,099 --> 01:11:20,014
ในขณะนี้
ในหมู่พวกเราเอง
1452
01:11:20,058 --> 01:11:21,364
และเมื่อถึงเวลา
1453
01:11:21,407 --> 01:11:23,627
กับการเกิดขึ้น
ปัญญาประดิษฐ์
1454
01:11:25,716 --> 01:11:27,152
ดังนั้นทันทีที่
มีอะไรอยู่
1455
01:11:27,195 --> 01:11:28,719
จากระยะไกลในสนามเบสบอลนั้น
1456
01:11:28,762 --> 01:11:30,721
เราควรเริ่มพยายาม
มีการสนทนา
1457
01:11:30,764 --> 01:11:32,636
กับมันอย่างใด
1458
01:11:33,637 --> 01:11:35,900
สุนัข. สุนัข. - ใช่.
1459
01:11:35,943 --> 01:11:38,946
สิ่งหนึ่งที่เราหวัง
การทำ Baby X คือการพยายาม
1460
01:11:38,990 --> 01:11:41,906
เพื่อรับข้อมูลเชิงลึกที่ดีขึ้น
สู่ธรรมชาติของเราเอง
1461
01:11:43,777 --> 01:11:46,302
เธอได้รับการออกแบบ
เพื่อเรียนรู้ด้วยตนเอง
1462
01:11:47,564 --> 01:11:50,610
เธอสามารถเสียบปลั๊กได้
เข้าสู่อินเทอร์เน็ต
1463
01:11:50,654 --> 01:11:54,266
คลิกเข้าหน้าเว็บด้วยตัวเอง
และดูว่าเกิดอะไรขึ้น
1464
01:11:54,310 --> 01:11:56,442
เรียนรู้ว่าเราเรียนรู้อย่างไร
1465
01:11:57,400 --> 01:12:00,707
ถ้าเราทำแบบนี้
AI ที่ยอดเยี่ยมสุดๆ
1466
01:12:00,751 --> 01:12:04,363
มันอาจจะช่วยให้เรากลายเป็น
ตัวเราในเวอร์ชันที่ดีกว่า
1467
01:12:06,365 --> 01:12:08,106
ช่วยเราพัฒนา
1468
01:12:15,505 --> 01:12:17,550
มันจะมีผลกระทบต่อสังคม
1469
01:12:19,117 --> 01:12:20,597
มันต้องกลัวมั้ย?
1470
01:12:22,381 --> 01:12:24,035
หรือมันเป็นอะไรบางอย่าง
ที่จะเรียนรู้จาก?
1471
01:12:28,648 --> 01:12:31,999
แล้วเมื่อไหร่จะได้
เราต้องเผชิญกับเครื่องจักร
1472
01:12:32,043 --> 01:12:36,656
ที่ฉลาดพอๆ กัน
ฉลาดกว่าเราเหรอ?
1473
01:12:38,571 --> 01:12:41,661
ฉันคิดว่าวิธีหนึ่ง
คิดเกี่ยวกับ
อนาคตอันใกล้ของ AI
1474
01:12:41,705 --> 01:12:44,708
คือสิ่งที่ฉันจะเรียกว่า
ขอบฟ้าเหตุการณ์
1475
01:12:46,231 --> 01:12:48,015
ผู้คนเคยได้ยินเรื่องหลุมดำ
1476
01:12:48,059 --> 01:12:50,191
จุดที่หนาแน่นเป็นพิเศษนี้อยู่ที่ไหน
1477
01:12:50,235 --> 01:12:52,977
ถ้าคุณเข้าไปใกล้เกินไป คุณจะถูกดูดเข้าไป
1478
01:12:53,020 --> 01:12:55,893
มีขอบเขต. เมื่อคุณก้าวข้ามขอบเขตนั้นไปแล้ว
1479
01:12:55,936 --> 01:12:58,025
ไม่มีทางกลับมา
1480
01:12:58,069 --> 01:13:02,900
สิ่งที่ทำให้เกิดอันตรายคือคุณไม่สามารถบอกได้ว่าอยู่ที่ไหน
1481
01:13:02,943 --> 01:13:05,816
และฉันคิดว่า AI เป็นเทคโนโลยี
จะเป็นแบบนั้น
1482
01:13:05,859 --> 01:13:09,210
ว่าจะมีประเด็น
ตรรกะของเงินอยู่ที่ไหน
1483
01:13:09,254 --> 01:13:11,430
และพลังและคำสัญญา
1484
01:13:11,474 --> 01:13:14,781
จะเป็นอย่างนั้น
เมื่อเราข้ามขอบเขตนั้นไปแล้ว
1485
01:13:14,825 --> 01:13:16,783
เราก็จะเป็นอย่างนั้น
ในอนาคตนั้น
1486
01:13:16,827 --> 01:13:19,395
จะไม่มีทางกลับมา
ทางการเมืองเศรษฐกิจ
1487
01:13:19,438 --> 01:13:21,658
หรือแม้กระทั่งในแง่
ของสิ่งที่เราต้องการ
1488
01:13:21,701 --> 01:13:24,008
แต่เราต้องกังวล
เกี่ยวกับเรื่องนี้ก่อนที่เราจะไปถึง
1489
01:13:24,051 --> 01:13:27,315
ขอบฟ้าเหตุการณ์
และเราไม่รู้ว่ามันอยู่ที่ไหน
1490
01:13:27,359 --> 01:13:29,405
ฉันไม่คิดว่ามันจะ
เกิดขึ้นเร็วๆ นี้
1491
01:13:29,448 --> 01:13:31,145
ไม่กี่ทศวรรษถัดมา
1492
01:13:31,189 --> 01:13:32,364
ยี่สิบห้าถึง 50 ปี
1493
01:13:32,408 --> 01:13:33,452
ไม่กี่ร้อยปี.
1494
01:13:33,496 --> 01:13:34,584
มันจบแล้ว
ในอีกไม่กี่ทศวรรษข้างหน้า
1495
01:13:34,627 --> 01:13:35,802
ไม่ใช่ในช่วงชีวิตของฉัน
1496
01:13:35,846 --> 01:13:38,239
ไม่มีใครรู้.
แต่มันไม่สำคัญจริงๆ
1497
01:13:38,283 --> 01:13:41,634
ไม่ว่าจะเป็นปี
หรือ 100 ปี
ปัญหาก็เหมือนกัน
1498
01:13:41,678 --> 01:13:44,594
มันก็จริงเหมือนกัน
และเราจะต้อง
ตลอดเวลานี้เพื่อแก้ไขมัน
1499
01:13:49,816 --> 01:13:53,733
ประวัติศาสตร์ก็เต็มไปด้วย
การคาดการณ์ทางเทคโนโลยีที่เกินจริง
1500
01:13:53,777 --> 01:13:55,605
แบบว่าอยู่ไหน.
รถบินได้เหล่านั้น
1501
01:13:55,648 --> 01:13:57,389
ที่ควรจะเป็น
อยู่ที่นี่ใช่ไหม?
1502
01:13:57,433 --> 01:14:00,740
แต่ก็เต็มเช่นกัน
ตรงกันข้าม
1503
01:14:00,784 --> 01:14:03,134
เมื่อมีคนพูดว่า
“โอ้ จะไม่มีวันเกิดขึ้น”
1504
01:14:07,878 --> 01:14:10,968
ฉันรู้สึกอับอายในฐานะนักฟิสิกส์ที่เออร์เนสต์ รัทเทอร์ฟอร์ด
1505
01:14:11,011 --> 01:14:13,274
นักฟิสิกส์นิวเคลียร์ที่ยิ่งใหญ่ที่สุดคนหนึ่งตลอดกาลกล่าวไว้
1506
01:14:13,318 --> 01:14:15,929
พลังงานนิวเคลียร์นั้นไม่มีวันเกิดขึ้น
1507
01:14:17,061 --> 01:14:18,932
และวันรุ่งขึ้นเอง
1508
01:14:18,976 --> 01:14:22,458
ลีโอ ซิลาร์ด ประดิษฐ์
ปฏิกิริยาลูกโซ่นิวเคลียร์
1509
01:14:22,501 --> 01:14:24,677
ดังนั้นถ้าใครบอกว่า
พวกเขาแน่ใจจริงๆ
1510
01:14:24,721 --> 01:14:27,114
บางสิ่งบางอย่างไม่เคย
จะเกิดขึ้น
1511
01:14:27,158 --> 01:14:29,377
แม้ว่ามันจะสม่ำเสมอก็ตาม
ด้วยกฎแห่งฟิสิกส์
1512
01:14:29,421 --> 01:14:31,510
ฉันชอบ "ใช่แล้ว"
1513
01:14:36,646 --> 01:14:38,430
เรายังไปไม่ถึง
1514
01:14:38,474 --> 01:14:41,477
เราไม่ได้สร้าง AI อัจฉริยะขั้นสุดยอด
1515
01:14:45,002 --> 01:14:47,483
และแม้ว่าเราจะกำหนดไว้ว่ามันจะไม่เกิดขึ้นก็ตาม
1516
01:14:47,526 --> 01:14:49,528
อีกไม่ถึง 50 ปีข้างหน้าใช่ไหม?
1517
01:14:49,572 --> 01:14:52,183
ดังนั้นเราจึงมีเวลา 50 ปีในการคิดเรื่องนี้
1518
01:14:52,226 --> 01:14:53,706
ดี...
1519
01:14:53,750 --> 01:14:56,143
มันไม่ได้เขียนที่ไหนเลย
50 ปีนั้น
1520
01:14:56,187 --> 01:14:59,059
ก็เพียงพอแล้วที่จะคิดออก
วิธีการทำเช่นนี้อย่างปลอดภัย
1521
01:15:01,018 --> 01:15:02,628
ฉันคิดว่าจริงๆ
มันจะใช้เวลา
1522
01:15:02,672 --> 01:15:05,196
ตัวอย่างเชิงลบที่รุนแรงบางอย่าง
1523
01:15:05,239 --> 01:15:08,504
ของเทคโนโลยี
เพื่อให้ทุกคนถอยกลับ
1524
01:15:08,547 --> 01:15:11,115
และตระหนักว่า
เราต้องได้สิ่งนี้
1525
01:15:11,158 --> 01:15:13,334
ภายใต้การควบคุม เราต้องมีข้อจำกัด
1526
01:15:13,378 --> 01:15:16,207
เรากำลังมีชีวิตอยู่
ในโลกนิยายวิทยาศาสตร์
และเราทุกคนก็
1527
01:15:16,250 --> 01:15:20,037
อืม ใหญ่ขนาดนี้
ทางสังคม, การทดลองทางยุทธวิธี,
1528
01:15:20,080 --> 01:15:22,692
การทดลองกับตัวเราเอง
มุทะลุ,
1529
01:15:22,735 --> 01:15:25,172
เหมือนไม่มีหมอคนไหนทำ
เคยฝันที่จะทำ
1530
01:15:25,216 --> 01:15:26,522
เรากำลังฉีดยากันเอง
1531
01:15:26,565 --> 01:15:28,262
กับทุกสิ่งนั้น
เรามาด้วย
1532
01:15:28,306 --> 01:15:29,655
เพื่อดูว่าเกิดอะไรขึ้น
1533
01:15:31,875 --> 01:15:34,486
เห็นได้ชัดว่า
กระบวนการคิดคือ...
1534
01:15:34,530 --> 01:15:36,140
คุณกำลังสร้าง
การเรียนรู้หุ่นยนต์
1535
01:15:36,183 --> 01:15:38,534
การเรียนรู้หุ่นยนต์เป็นสิ่งที่แน่นอน
สิ่งที่นำไปสู่สกายเน็ต
1536
01:15:38,577 --> 01:15:40,884
ตอนนี้ฉันมีทางเลือกแล้ว
ขวา? ฉันสามารถพูด,
1537
01:15:40,927 --> 01:15:42,842
"ไม่ต้องกังวล,
ฉันไม่เก่งในงานของฉัน
1538
01:15:43,887 --> 01:15:45,932
“คุณไม่มีอะไรต้องกลัว
เพราะฉันห่วยกับสิ่งนี้
1539
01:15:45,976 --> 01:15:48,108
“และฉันจะไม่
บรรลุสิ่งใดได้จริง”
1540
01:15:48,152 --> 01:15:50,458
หรือฉันต้องพูดว่า "คุณรู้ไหม
1541
01:15:50,502 --> 01:15:51,938
"คุณถูก,
เราทุกคนจะตาย
1542
01:15:51,982 --> 01:15:53,810
“แต่มันจะเป็น.
น่าสนุกน่าดู
1543
01:15:53,853 --> 01:15:56,856
“และคงจะดีถ้าเป็นเช่นนั้น
หนึ่งในผู้คน
ในแถวหน้า”
1544
01:15:56,900 --> 01:16:00,033
ใช่แล้ว ฉันไม่มี
คำตอบที่ยอดเยี่ยม
ถึงสิ่งเหล่านี้
1545
01:16:02,122 --> 01:16:04,734
ความจริงก็ชัดเจนว่า
อยู่ระหว่างนั้น
1546
01:16:07,171 --> 01:16:09,260
มีระหว่างนั้นได้ไหม?
1547
01:16:10,435 --> 01:16:13,264
หรือเรากำลังเผชิญอยู่
ระเบียบโลกใหม่เหรอ?
1548
01:16:15,614 --> 01:16:18,965
ฉันมีเพื่อนร่วมงานบางคนที่
เป็นเรื่องปกติที่ AI จะเข้ามาแทนที่
1549
01:16:19,009 --> 01:16:21,228
และถึงขั้นก่อให้เกิด
การสูญพันธุ์ของมนุษย์
1550
01:16:21,272 --> 01:16:22,752
ตราบใดที่เรารู้สึก
1551
01:16:22,795 --> 01:16:25,189
ว่า AI เหล่านั้น
เป็นบรรพบุรุษที่คู่ควรของเรา
1552
01:16:28,453 --> 01:16:32,065
ในระยะยาวมนุษย์
จะไม่อยู่
1553
01:16:32,109 --> 01:16:34,372
มงกุฎแห่งการสร้างสรรค์
1554
01:16:36,679 --> 01:16:38,594
แต่ก็ไม่เป็นไร
1555
01:16:38,637 --> 01:16:41,727
เพราะยังมีความสวยงามอยู่
1556
01:16:41,771 --> 01:16:44,469
และความยิ่งใหญ่และความยิ่งใหญ่
1557
01:16:44,512 --> 01:16:47,211
ในการตระหนักว่าคุณเป็น
1558
01:16:48,212 --> 01:16:51,955
ส่วนเล็ก ๆ ของ
1559
01:16:51,998 --> 01:16:55,045
โครงการที่ยิ่งใหญ่กว่ามาก
ซึ่งเป็นผู้นำจักรวาล
1560
01:16:55,088 --> 01:16:59,223
จากความซับซ้อนที่ต่ำกว่า
ไปสู่ความซับซ้อนที่สูงขึ้น
1561
01:17:07,318 --> 01:17:11,017
เราอาจเข้าใกล้หน้าผาอย่างรวดเร็ว
1562
01:17:11,061 --> 01:17:13,063
เพื่อมนุษยชาติที่เราพบ
1563
01:17:13,106 --> 01:17:16,762
ว่าชะตากรรมสูงสุดของเราคือการเป็นอย่างนั้น
1564
01:17:16,806 --> 01:17:20,113
ผู้เป็นบรรพบุรุษแห่งความจริง
1565
01:17:20,157 --> 01:17:24,161
สิ่งมีชีวิตที่โผล่ออกมา มีวิวัฒนาการ มีสติปัญญา
1566
01:17:26,990 --> 01:17:30,515
ดังนั้นเราอาจจะอยู่ตรงนี้
ที่จะคลอดบุตร
1567
01:17:30,558 --> 01:17:32,735
ถึงลูกคนนี้...
ของเครื่องนี้...
1568
01:17:32,778 --> 01:17:34,345
อารยธรรมเครื่องจักร
1569
01:17:37,957 --> 01:17:39,785
อย่างเห็นแก่ตัว
ในฐานะมนุษย์ แน่นอนว่า
1570
01:17:39,829 --> 01:17:41,961
ฉันอยากให้มนุษย์อยู่เคียงข้าง
1571
01:17:44,355 --> 01:17:47,837
แต่บางทีนั่นอาจเป็นมุมมองเฉพาะท้องถิ่น
1572
01:17:49,795 --> 01:17:52,102
บางทีก็มองจากจุดนั้น
ของมุมมองของจักรวาล,
1573
01:17:52,145 --> 01:17:53,973
มันเป็นจักรวาลที่ดีกว่า
กับเรา...
1574
01:17:54,017 --> 01:17:57,020
ด้วยสุดยอดอัจฉริยะของเรา
ลูกหลาน
1575
01:18:03,766 --> 01:18:06,377
สนามของเรา
มีแนวโน้มที่จะประสบความสำเร็จ
1576
01:18:06,420 --> 01:18:09,772
ในเป้าหมายที่จะบรรลุ
หน่วยสืบราชการลับวัตถุประสงค์ทั่วไป
1577
01:18:12,209 --> 01:18:16,082
ตอนนี้เรามีความสามารถแล้ว
เพื่อปรับเปลี่ยนอย่างรุนแรง
1578
01:18:16,126 --> 01:18:17,954
โครงสร้างทางเศรษฐกิจ
ของโลก
1579
01:18:17,997 --> 01:18:19,825
บทบาทของมนุษย์
ในโลก
1580
01:18:19,869 --> 01:18:22,480
และอาจเป็นไปได้ว่า
การควบคุมของมนุษย์เหนือโลก
1581
01:18:34,666 --> 01:18:37,277
ความคิดก็คือ
ว่าเขาถูกรับเข้ามา
1582
01:18:37,321 --> 01:18:39,192
โดยสิ่งศักดิ์สิทธิ์ทั้งหลาย
1583
01:18:39,236 --> 01:18:42,239
สิ่งมีชีวิตที่มีพลังงานบริสุทธิ์
และสติปัญญา
1584
01:18:43,893 --> 01:18:47,897
พวกเขาวางเขาไว้ในสิ่งที่คุณเรียกได้ว่าเป็นสวนสัตว์ของมนุษย์
1585
01:18:49,812 --> 01:18:51,901
ตอนจบ
ของการเดินทางของนักบินอวกาศ
1586
01:18:56,601 --> 01:18:58,081
เขาเดินทางข้ามเวลาหรือไม่?
1587
01:18:58,864 --> 01:19:00,561
สู่อนาคต?
1588
01:19:00,605 --> 01:19:04,827
เป็นหน่วยงานที่เหมือนพระเจ้าเหล่านั้น
ทายาทของ HAL?
1589
01:19:06,089 --> 01:19:09,092
ปัญญาประดิษฐ์
ที่คุณไม่สามารถปิดได้
1590
01:19:10,658 --> 01:19:13,879
ที่คอยเรียนรู้
และเรียนรู้จนกระทั่ง
1591
01:19:14,488 --> 01:19:16,316
พวกเขากำลังดูแลสวนสัตว์
1592
01:19:16,360 --> 01:19:18,144
จักรวาล,
1593
01:19:18,188 --> 01:19:19,363
ทุกอย่าง.
1594
01:19:22,061 --> 01:19:26,022
นั่นของคูบริคเหรอ
คำทำนายที่ลึกซึ้งที่สุด?
1595
01:19:27,110 --> 01:19:28,154
อาจจะ.
1596
01:19:30,548 --> 01:19:32,985
แต่เอามาจากผู้เฒ่า
1597
01:19:33,029 --> 01:19:35,466
ถ้า HAL ปิด
ที่จะอยู่ในหมู่พวกเรา
1598
01:19:36,510 --> 01:19:38,121
เราต้องให้ความสนใจ
1599
01:19:39,470 --> 01:19:41,559
เราต้องคุยกันเรื่องเอไอ
1600
01:19:42,734 --> 01:19:44,388
สุดยอดสติปัญญา
1601
01:19:44,431 --> 01:19:45,432
จะมีสติไหม?
1602
01:19:46,390 --> 01:19:47,478
ปัญหารถเข็น.
1603
01:19:48,261 --> 01:19:49,306
การจัดตำแหน่งเป้าหมาย
1604
01:19:50,350 --> 01:19:51,743
ความเป็นเอกเทศ
1605
01:19:51,787 --> 01:19:53,049
ออกสู่ตลาดครั้งแรก
1606
01:19:53,789 --> 01:19:54,964
ความปลอดภัยของเอไอ
1607
01:19:56,008 --> 01:19:57,401
อาวุธร้ายแรงที่เป็นอิสระ
1608
01:19:58,794 --> 01:19:59,969
การปฏิวัติหุ่นยนต์
1609
01:20:00,708 --> 01:20:01,971
จิตใจที่เป็นรัง.
1610
01:20:03,320 --> 01:20:04,800
การเคลื่อนไหวเหนือมนุษย์
1611
01:20:05,888 --> 01:20:08,629
ก้าวข้ามมนุษยชาติ
1612
01:20:08,673 --> 01:20:10,196
เราไม่มีแผน
เราไม่ตระหนัก
1613
01:20:10,240 --> 01:20:11,807
มันจำเป็น
มีแผน
1614
01:20:13,286 --> 01:20:15,549
เราต้องการอะไร
บทบาทของมนุษย์เป็นอย่างไร?
208803