All language subtitles for We.Need.To.Talk.About.A.I..2020.720p.WEBRip.x264.AAC-[YTS.MX]-th

af Afrikaans
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bn Bengali
bs Bosnian
bg Bulgarian
ca Catalan
ceb Cebuano
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English
eo Esperanto
et Estonian
tl Filipino
fi Finnish
fr French
fy Frisian
gl Galician
ka Georgian
de German
el Greek
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
km Khmer
ko Korean
ku Kurdish (Kurmanji)
ky Kyrgyz
lo Lao
la Latin
lv Latvian
lt Lithuanian
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mn Mongolian
my Myanmar (Burmese)
ne Nepali
no Norwegian
ps Pashto
fa Persian
pl Polish
pt Portuguese
pa Punjabi
ro Romanian
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
st Sesotho
sn Shona
sd Sindhi
si Sinhala
sk Slovak
sl Slovenian
so Somali
es Spanish
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
te Telugu
th Thai Download
tr Turkish
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
or Odia (Oriya)
rw Kinyarwanda
tk Turkmen
tt Tatar
ug Uyghur
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:02,000 --> 00:00:07,000 ดาวน์โหลดมาจาก YTS.MX 2 00:00:08,000 --> 00:00:13,000 เว็บไซต์ภาพยนตร์ YIFY อย่างเป็นทางการ: YTS.MX 3 00:00:48,222 --> 00:00:51,703 ถ้าเราสร้างสิ่งประดิษฐ์ สติปัญญาทั่วไป 4 00:00:51,747 --> 00:00:53,531 นั่นจะเป็นงานที่ใหญ่ที่สุด 5 00:00:53,575 --> 00:00:56,708 ในประวัติศาสตร์ ของชีวิตบนโลก 6 00:00:56,752 --> 00:01:00,147 หน่วยสืบราชการลับของมนุษย์ต่างดาวภายในระบบคอมพิวเตอร์นั่นเอง 7 00:01:00,190 --> 00:01:03,280 มีอำนาจควบคุมโลก วันที่มันมาถึง... 8 00:01:03,324 --> 00:01:05,108 และนิยายวิทยาศาสตร์ หนังสือและภาพยนตร์ 9 00:01:05,152 --> 00:01:07,197 ได้ตั้งค่าไว้ล่วงหน้าแล้ว 10 00:01:25,781 --> 00:01:27,696 มีปัญหาอะไร? 11 00:01:27,739 --> 00:01:29,698 ฉันคิดว่าคุณรู้ ปัญหาคืออะไร 12 00:01:29,741 --> 00:01:31,134 เช่นเดียวกับที่ฉันทำ 13 00:01:31,178 --> 00:01:32,701 คุณคืออะไร พูดถึง HAL? 14 00:01:34,094 --> 00:01:35,617 ภารกิจครั้งนี้ มันสำคัญเกินไป 15 00:01:35,660 --> 00:01:37,793 สำหรับฉันที่จะอนุญาตให้คุณ ที่จะเป็นอันตรายต่อมัน 16 00:01:39,360 --> 00:01:42,363 ฉันไม่รู้ว่าคุณเป็นอะไร พูดถึง HAL 17 00:01:42,406 --> 00:01:45,975 HAL ผู้มีสติปัญญาสุดยอด คอมพิวเตอร์. 18 00:01:46,018 --> 00:01:48,325 เราจะเรียกมันว่า AI วันนี้ 19 00:01:49,544 --> 00:01:52,242 ตัวละครของฉันเดฟ คือนักบินอวกาศ 20 00:01:52,286 --> 00:01:55,027 หนึ่งในคำทำนายที่สุด หนังที่เคยสร้างมา 21 00:01:55,071 --> 00:01:57,378 เกี่ยวกับภัยคุกคาม ถูกวางตัวต่อมนุษยชาติ 22 00:01:57,421 --> 00:01:59,423 โดยปัญญาประดิษฐ์ 23 00:02:01,121 --> 00:02:03,166 HAL เป็นนิยายวิทยาศาสตร์ 24 00:02:03,210 --> 00:02:06,996 แต่ตอนนี้ AI อยู่รอบตัวเรา 25 00:02:07,039 --> 00:02:09,172 ปัญญาประดิษฐ์ ไม่ใช่อนาคต 26 00:02:09,216 --> 00:02:11,087 AI อยู่ที่นี่แล้ว 27 00:02:11,131 --> 00:02:12,915 สัปดาห์นี้จะมีหุ่นยนต์ วิ่งไปหานายกเทศมนตรี 28 00:02:12,958 --> 00:02:14,177 ในขนาดเล็ก เมืองญี่ปุ่น 29 00:02:14,221 --> 00:02:15,352 ทำเนียบขาวกล่าวว่า 30 00:02:15,396 --> 00:02:17,137 มันกำลังสร้าง กองกำลังใหม่ 31 00:02:17,180 --> 00:02:19,182 ที่จะมุ่งเน้น เกี่ยวกับปัญญาประดิษฐ์ 32 00:02:19,226 --> 00:02:21,271 Google ได้แล้ว ประกาศแผนการ 33 00:02:21,315 --> 00:02:23,360 เพื่อลงทุนเพิ่มเติมในการวิจัย AI 34 00:02:23,404 --> 00:02:28,713 IBM ส่งหุ่นยนต์ปัญญาประดิษฐ์ขึ้นสู่อวกาศ 35 00:02:28,757 --> 00:02:31,673 เพราะหน้าที่เล็กๆของฉัน ในการสนทนา 36 00:02:31,716 --> 00:02:34,154 ฉันเข้าใจ ว่าเรากำลังเดินทาง 37 00:02:34,197 --> 00:02:37,244 อันที่เริ่มต้น ด้วย AI ที่แคบ 38 00:02:37,287 --> 00:02:39,942 เครื่องจักรที่ทำงาน งานเฉพาะ 39 00:02:39,985 --> 00:02:41,378 ดีกว่าที่เราสามารถทำได้ 40 00:02:42,336 --> 00:02:44,381 แต่ AI ของนิยายวิทยาศาสตร์ 41 00:02:44,425 --> 00:02:47,471 เป็นทั่วไปเทียม ปัญญา, 42 00:02:47,515 --> 00:02:50,213 เครื่องจักรที่สามารถ ทำทุกอย่าง 43 00:02:50,257 --> 00:02:51,693 ดีกว่าเรา 44 00:02:52,694 --> 00:02:54,478 AI แคบจริงๆ 45 00:02:54,522 --> 00:02:57,220 เหมือนคนฉลาดงี่เง่า ถึงขีดสุด 46 00:02:57,264 --> 00:02:58,830 ที่มันสามารถทำอะไรบางอย่างได้ 47 00:02:58,874 --> 00:03:00,963 เหมือนการคูณตัวเลข เร็วจริงๆ, 48 00:03:01,006 --> 00:03:02,617 ดีกว่ามนุษย์คนใด 49 00:03:02,660 --> 00:03:06,011 แต่มันก็ทำไม่ได้ สิ่งอื่นใดอีก 50 00:03:06,055 --> 00:03:09,928 แต่ AGI เทียม สติปัญญาทั่วไป 51 00:03:09,972 --> 00:03:12,453 ซึ่งยังไม่มี แทน 52 00:03:12,496 --> 00:03:14,629 ปัญญา ที่สามารถทำทุกอย่างได้ 53 00:03:14,672 --> 00:03:15,934 เช่นเดียวกับที่มนุษย์สามารถทำได้ 54 00:03:21,244 --> 00:03:24,247 แล้วจะเกิดอะไรขึ้น ถ้าเราสร้าง AGI ขึ้นมาล่ะ? 55 00:03:25,248 --> 00:03:27,294 ผู้เขียนนิยายวิทยาศาสตร์ ได้เตือนเราแล้ว 56 00:03:27,337 --> 00:03:28,773 มันอาจจะเป็นอันตรายได้ 57 00:03:29,513 --> 00:03:31,385 และพวกเขาไม่ใช่คนเดียว 58 00:03:32,864 --> 00:03:35,911 ฉันคิดว่าผู้คนควรกังวลเกี่ยวกับเรื่องนี้ 59 00:03:35,954 --> 00:03:37,565 AI เป็นความเสี่ยงขั้นพื้นฐาน 60 00:03:37,608 --> 00:03:39,349 ต่อการดำรงอยู่ ของอารยธรรมมนุษย์ 61 00:03:39,393 --> 00:03:42,178 และฉันไม่คิดว่าผู้คน ขอขอบคุณอย่างเต็มที่ 62 00:03:42,222 --> 00:03:43,919 ฉันคิดว่าเราต้อง กังวลเกี่ยวกับมัน 63 00:03:43,962 --> 00:03:45,225 ฉันไม่คิดว่ามันมีอยู่จริง 64 00:03:45,268 --> 00:03:48,010 ในขณะที่เราสร้าง สติปัญญาสุดยอด 65 00:03:48,053 --> 00:03:49,533 ว่ามันจะ จำเป็นเสมอ 66 00:03:49,577 --> 00:03:51,927 มีเป้าหมายเดียวกันในใจ ที่เราทำ 67 00:03:51,970 --> 00:03:53,233 ผมคิดว่าการพัฒนา 68 00:03:53,276 --> 00:03:55,713 เต็ม ปัญญาประดิษฐ์ 69 00:03:55,757 --> 00:03:58,368 สามารถสะกดจุดสิ้นสุดได้ ของเผ่าพันธุ์มนุษย์ 70 00:03:58,412 --> 00:04:00,457 ...จุดจบของเผ่าพันธุ์มนุษย์ 71 00:04:01,893 --> 00:04:05,201 พรุ่งนี้ถ้าพาดหัวว่า ปัญญาประดิษฐ์ 72 00:04:05,245 --> 00:04:08,248 ได้รับการผลิตแล้ว นั่นก็ฉลาดเหมือนกัน 73 00:04:08,291 --> 00:04:10,293 หรือฉลาดกว่านั้น กว่ามนุษย์ 74 00:04:10,337 --> 00:04:12,077 ผู้คนก็จะโต้เถียงกันเกี่ยวกับเรื่องนี้ แต่ฉันไม่คิดว่า 75 00:04:12,121 --> 00:04:13,992 พวกเขาคงจะแปลกใจ เพราะนิยายวิทยาศาสตร์ 76 00:04:14,036 --> 00:04:15,907 ได้ช่วยให้เราจินตนาการทุกชนิด 77 00:04:15,951 --> 00:04:17,431 ของสิ่งที่ไม่อาจจินตนาการได้ 78 00:04:20,999 --> 00:04:23,393 ผู้เชี่ยวชาญถูกแบ่งแยก เกี่ยวกับผลกระทบ 79 00:04:23,437 --> 00:04:25,613 AI จะมีอนาคตของเรา 80 00:04:25,656 --> 00:04:29,747 และไม่ว่าจะเป็นฮอลลีวู้ดหรือไม่ก็ตาม กำลังช่วยเราวางแผนสำหรับมัน 81 00:04:29,791 --> 00:04:32,750 บทสนทนาของเรา ถูกแย่งชิงไปแล้วจริงๆ โดยฮอลลีวูด 82 00:04:32,794 --> 00:04:35,927 เพราะเดอะเทอร์มิเนเตอร์ สร้างภาพยนตร์บล็อกบัสเตอร์ที่ดีขึ้น 83 00:04:35,971 --> 00:04:38,147 กว่าที่ AI จะดี 84 00:04:38,190 --> 00:04:39,409 หรือ AI เป็นกลาง 85 00:04:39,453 --> 00:04:41,063 หรือ AI กำลังสับสน 86 00:04:41,106 --> 00:04:42,456 เทคโนโลยีที่นี่ใน AI 87 00:04:42,499 --> 00:04:44,501 ก็ไม่แตกต่างกัน มันเป็นเครื่องมือ 88 00:04:44,545 --> 00:04:47,156 ฉันชอบที่จะคิดเกี่ยวกับมัน เหมือนดินสอแฟนซี 89 00:04:47,199 --> 00:04:49,593 แล้วภาพอะไร. เราวาดด้วยมัน 90 00:04:49,637 --> 00:04:52,248 นั่นก็ขึ้นอยู่กับเราในฐานะสังคม 91 00:04:52,292 --> 00:04:55,251 เราไม่ต้องทำ สิ่งที่ AI บอกเรา 92 00:04:55,295 --> 00:04:56,861 เราบอก AI ว่าต้องทำอย่างไร 93 00:04:58,646 --> 00:05:00,300 ฉันคิดว่า ภาพยนตร์ฮอลลีวู้ด 94 00:05:00,343 --> 00:05:02,214 ช่วยสนทนาด้วย 95 00:05:02,258 --> 00:05:03,781 ต้องมีใครสักคนคิด 96 00:05:03,825 --> 00:05:07,089 ข้างหน้าอะไร ผลที่ตามมาคือ 97 00:05:07,132 --> 00:05:08,786 แต่ก็เหมือนกับที่เราทำไม่ได้ จินตนาการจริงๆ 98 00:05:08,830 --> 00:05:11,311 วิทยาศาสตร์ที่แท้จริงคืออะไร ของอนาคต จะเป็นเช่น 99 00:05:11,354 --> 00:05:13,400 ฉันไม่คิดว่าเราได้เริ่มต้น 100 00:05:13,443 --> 00:05:16,316 ที่จะคิดจริงๆ อนาคตที่เป็นไปได้ทั้งหมด 101 00:05:16,359 --> 00:05:19,188 ซึ่งผุดขึ้นมาในทางตรรกะ ของเทคโนโลยีนี้ 102 00:05:19,231 --> 00:05:23,497 ปัญญาประดิษฐ์ก็มี พลังในการเปลี่ยนแปลงสังคม 103 00:05:23,540 --> 00:05:25,499 นักร้องที่กำลังเติบโต ของการวิพากษ์วิจารณ์ 104 00:05:25,542 --> 00:05:27,283 กำลังตอกย้ำถึงอันตราย 105 00:05:27,327 --> 00:05:29,416 ของการควบคุมการมอบ ไปยังเครื่องจักร 106 00:05:29,459 --> 00:05:31,331 ก็จะมี. มีการเปลี่ยนแปลงมากมายเกิดขึ้น 107 00:05:31,374 --> 00:05:32,897 ความกังวลระยะยาวที่ใหญ่กว่า 108 00:05:32,941 --> 00:05:35,639 คือมนุษยชาติจะเป็นอย่างนั้น เรียงลำดับกัน 109 00:05:35,683 --> 00:05:37,598 นี่คือบางสิ่งบางอย่าง สแตนลีย์ คูบริก และคนอื่นๆ 110 00:05:37,641 --> 00:05:39,469 เป็นกังวลเกี่ยวกับ 50 ปีที่แล้วใช่ไหม? 111 00:05:41,993 --> 00:05:43,647 มันกำลังเกิดขึ้น. 112 00:05:43,691 --> 00:05:47,608 เราจะวัดความเร่งด่วนได้อย่างไร ของการสนทนานี้เหรอ? 113 00:05:49,436 --> 00:05:51,742 ถ้าคนเห็นในเรดาร์ตอนนี้ 114 00:05:51,786 --> 00:05:54,179 นั่นยานอวกาศของมนุษย์ต่างดาว กำลังเข้าใกล้โลก 115 00:05:54,223 --> 00:05:56,181 และอีก 25 ปีข้างหน้า 116 00:05:56,225 --> 00:05:57,835 เราจะถูกระดมพล เตรียมตัว 117 00:05:57,879 --> 00:06:00,621 สำหรับการมาถึงของมนุษย์ต่างดาวคนนั้น 25 ปีต่อจากนี้ 118 00:06:00,664 --> 00:06:03,058 แต่นั่นก็เป็นเช่นนั้น สถานการณ์ที่เราเผชิญอยู่ 119 00:06:03,101 --> 00:06:04,799 ด้วยปัญญาประดิษฐ์ 120 00:06:04,842 --> 00:06:06,670 อาจจะ 25 ปี อาจจะ 50 ปี 121 00:06:06,714 --> 00:06:09,456 แต่หน่วยสืบราชการลับของมนุษย์ต่างดาวจะมาถึง 122 00:06:09,499 --> 00:06:11,109 และเราควรเตรียมตัวให้พร้อม 123 00:06:14,286 --> 00:06:16,637 ท่านสุภาพบุรุษ พบกับโทบอร์ 124 00:06:16,680 --> 00:06:19,379 แบบจำลองทางอิเล็กทรอนิกส์ ของผู้ชายคนหนึ่ง 125 00:06:19,422 --> 00:06:21,772 โอ้เอ้ย. โอ้ วิลลิเกอร์ส 126 00:06:21,816 --> 00:06:24,645 ถึงแม้งานจะยังเหลืออีกมากก็ตาม ก่อนที่เขาจะเสร็จ 127 00:06:24,688 --> 00:06:26,211 เขาเป็นอยู่แล้ว สิ่งมีชีวิตที่มีความรู้สึก 128 00:06:28,388 --> 00:06:30,390 ย้อนกลับไปเมื่อปี พ.ศ. 2499 สมัยนั้น 129 00:06:30,433 --> 00:06:32,696 ปัญญาประดิษฐ์ ครั้งแรกเกิดขึ้น 130 00:06:32,740 --> 00:06:35,395 เป้าหมายเดิม ของปัญญาประดิษฐ์ 131 00:06:35,438 --> 00:06:37,701 เป็นสติปัญญาระดับมนุษย์ 132 00:06:37,745 --> 00:06:41,052 เขาดูเกือบจะใจดี เขาใช่ไหม? 133 00:06:41,096 --> 00:06:43,838 เมื่อเวลาผ่านไปมันพิสูจน์แล้วว่าเป็นเรื่องยากจริงๆ 134 00:06:46,449 --> 00:06:49,626 ฉันคิดว่าท้ายที่สุดแล้ว เราก็จะได้ระดับมนุษย์ 135 00:06:49,670 --> 00:06:51,889 สติปัญญาจากเครื่องจักร 136 00:06:51,933 --> 00:06:55,153 แต่มันอาจจะเป็นเช่นนั้น ไม่กี่ร้อยปี มันจะใช้เวลาสักครู่ 137 00:06:55,197 --> 00:06:57,634 และผู้คนก็ได้รับ ตื่นเต้นเกินเหตุเล็กน้อย 138 00:06:57,678 --> 00:06:59,854 เกี่ยวกับความสามารถในอนาคต 139 00:06:59,897 --> 00:07:03,945 และตอนนี้ อิเล็กโทร ฉันสั่งให้คุณเดินกลับ 140 00:07:04,293 --> 00:07:05,425 กลับ. 141 00:07:08,297 --> 00:07:09,559 เกือบทุกรุ่น 142 00:07:09,603 --> 00:07:11,169 ผู้คนได้รับ กระตือรือร้นมาก 143 00:07:11,213 --> 00:07:12,736 พวกเขาดูปี 2001 144 00:07:12,780 --> 00:07:14,564 พวกเขาหลงรัก HAL พวกเขาคิด, 145 00:07:14,608 --> 00:07:16,871 “ใช่ ให้เวลาฉันหกสัปดาห์” ฉันจะจัดการเรื่องนี้ให้” 146 00:07:17,785 --> 00:07:19,830 มันไม่เกิดขึ้นและทุกคนก็อารมณ์เสีย 147 00:07:21,179 --> 00:07:24,052 แล้วมีอะไรเปลี่ยนแปลงบ้าง ในการวิจัย AI? 148 00:07:26,489 --> 00:07:28,839 ความแตกต่างกับ AI ที่เรามีในปัจจุบัน 149 00:07:28,883 --> 00:07:32,495 และเหตุผลที่จู่ๆ AI ก็ก้าวกระโดดครั้งใหญ่นี้ 150 00:07:32,539 --> 00:07:34,758 คืออินเทอร์เน็ต นั่นคือโลกของพวกเขา 151 00:07:34,802 --> 00:07:37,587 คืนนี้ข้อมูล. ทางด่วน, 152 00:07:37,631 --> 00:07:39,415 และหนึ่งในหลัก ทางสัญจร, 153 00:07:39,459 --> 00:07:42,505 เครือข่ายออนไลน์ เรียกว่าอินเทอร์เน็ต 154 00:07:42,549 --> 00:07:45,421 ในปี พ.ศ. 2524 มีคอมพิวเตอร์เพียง 213 เครื่อง 155 00:07:45,465 --> 00:07:46,901 ติดอินเทอร์เน็ต 156 00:07:46,944 --> 00:07:48,816 เมื่อปีใหม่เริ่มต้นขึ้น ประมาณ 157 00:07:48,859 --> 00:07:50,600 สองล้านครึ่ง คอมพิวเตอร์ 158 00:07:50,644 --> 00:07:51,993 จะอยู่ในเครือข่าย 159 00:07:53,516 --> 00:07:55,126 เอไอจำเป็นต้องกิน 160 00:07:55,170 --> 00:07:57,346 เหมือนแกะต้องการหญ้า 161 00:07:57,389 --> 00:07:59,087 AI ต้องการข้อมูล 162 00:07:59,130 --> 00:08:02,525 และข้อมูลอันมหาศาล อยู่บนอินเทอร์เน็ต 163 00:08:03,134 --> 00:08:04,484 นั่นคือสิ่งที่มันเป็น 164 00:08:05,136 --> 00:08:06,181 พวกเขาพูดว่า "คุณรู้อะไรไหม? 165 00:08:06,224 --> 00:08:07,661 “ปล่อยพวกมันไปข้างนอกกันเถอะ” 166 00:08:09,532 --> 00:08:11,839 และทันใดนั้น, AIs มีชีวิตขึ้นมา 167 00:08:11,882 --> 00:08:14,276 จินตนาการ หุ่นยนต์พูดได้นับพันตัว 168 00:08:14,319 --> 00:08:15,973 สามารถเคลื่อนย้ายเป็นหน่วยเดียวได้ 169 00:08:16,017 --> 00:08:17,322 ก่ออาชญากรรม, ไฟไหม้, 170 00:08:17,366 --> 00:08:18,976 และภัยธรรมชาติ 171 00:08:19,020 --> 00:08:21,805 ปัญญาประดิษฐ์ แพลตฟอร์ม แอมแปร์ 172 00:08:21,849 --> 00:08:24,416 ได้สร้างอัลบั้มแรก เรียบเรียงอย่างสมบูรณ์ 173 00:08:24,460 --> 00:08:26,157 และผลิต โดยปัญญาประดิษฐ์ 174 00:08:26,201 --> 00:08:29,552 สัปดาห์หน้าจะเป็นของ Christie's บ้านประมูลแห่งแรก 175 00:08:29,596 --> 00:08:33,251 เพื่อนำเสนองานศิลปะที่สร้างขึ้น โดยปัญญาประดิษฐ์ 176 00:08:34,165 --> 00:08:35,819 รถยนต์ไร้คนขับว่ากันว่าเป็น 177 00:08:35,863 --> 00:08:38,648 ในอนาคตอันไม่ไกลของเรา 178 00:08:38,692 --> 00:08:40,955 ดังนั้นแม้ว่า เราไม่มี AGI 179 00:08:40,998 --> 00:08:44,262 หรือระดับมนุษย์ สติปัญญายัง 180 00:08:44,306 --> 00:08:45,699 เราพร้อมหรือยังที่จะให้เอกราช 181 00:08:45,742 --> 00:08:48,440 ไปยังเครื่องจักรที่เรามี? 182 00:08:48,484 --> 00:08:51,574 ควรขับรถด้วยตนเอง ตัดสินใจอย่างมีจริยธรรม? 183 00:08:51,618 --> 00:08:53,881 นั่นคือการอภิปรายที่เพิ่มขึ้น เป็นเทคโนโลยี 184 00:08:53,924 --> 00:08:56,318 เคลื่อนตัวเข้ามาใกล้มากขึ้น ความเป็นจริงกระแสหลัก 185 00:08:58,233 --> 00:08:59,843 ความคิดนี้ หรือไม่ก็ตาม 186 00:08:59,887 --> 00:09:02,846 เราสามารถปลูกฝังจริยธรรมได้ เข้าไปในเครื่องจักร 187 00:09:02,890 --> 00:09:04,544 ไม่ว่าพวกเขาจะเป็นหรือไม่ก็ตาม เครื่องจักรอัตโนมัติ 188 00:09:04,587 --> 00:09:06,415 หรือเครื่องจักรอัตโนมัติ 189 00:09:06,458 --> 00:09:08,286 ฉันไม่แน่ใจ เราเข้าใจเรื่องนี้แล้ว 190 00:09:08,330 --> 00:09:09,723 ถ้าคุณมี รถยนต์ที่ขับเคลื่อนด้วยตนเอง 191 00:09:09,766 --> 00:09:11,202 มันจะต้องทำ การตัดสินใจทางจริยธรรม 192 00:09:11,246 --> 00:09:14,641 คลาสสิคที่ใครๆ ต่างก็เคยเป็น คิดมากเกี่ยวกับคือ... 193 00:09:14,684 --> 00:09:16,556 ฉันไม่รู้ว่าคุณเคยได้ยินหรือเปล่า จากปัญหารถเข็น 194 00:09:16,599 --> 00:09:18,122 ปัญหารถเข็น ปัญหารถเข็น 195 00:09:18,166 --> 00:09:20,211 ปัญหารถเข็น ปัญหารถเข็น 196 00:09:21,604 --> 00:09:22,823 ในปัญหารถเข็น 197 00:09:22,866 --> 00:09:24,172 หรือไม่ก็ตาม รถไร้คนขับ 198 00:09:24,215 --> 00:09:26,870 จะไปช่วยคนขับ หรือวิ่งไป 199 00:09:26,914 --> 00:09:29,046 กลุ่มเด็กนักเรียน ข้ามถนน 200 00:09:29,090 --> 00:09:31,614 จะรถ. ไปทางขวาแล้วตีหญิงชรา 201 00:09:31,658 --> 00:09:35,575 หรือจะไปทางซ้ายแล้วฆ่า สี่หนุ่มเหรอ? 202 00:09:35,618 --> 00:09:39,143 หรือฆ่าคนไปห้าคน ยืนอยู่บนป้ายรถเมล์ 203 00:09:39,187 --> 00:09:40,405 หรือฆ่าตัวตาย 204 00:09:40,449 --> 00:09:41,972 มันเป็นการตัดสินใจที่มีจริยธรรม 205 00:09:42,016 --> 00:09:43,931 ที่จะต้องทำ ในขณะนี้ 206 00:09:43,974 --> 00:09:46,020 เร็วเกินไปสำหรับใครก็ตาม เพื่อเข้าไปที่นั่น 207 00:09:46,063 --> 00:09:48,544 ดังนั้นมันจึงเป็นซอฟต์แวร์ ในรถที่ขับเคลื่อนด้วยตนเองของคุณ 208 00:09:48,588 --> 00:09:50,546 นั่นจะทำให้ การตัดสินใจทางจริยธรรมนั้น 209 00:09:50,590 --> 00:09:51,852 ใครเป็นผู้ตัดสินว่า? 210 00:09:52,679 --> 00:09:53,897 สังคมอัจฉริยะ 211 00:09:53,941 --> 00:09:55,899 สังคมนั้น ให้ความสำคัญกับชีวิตมนุษย์ 212 00:09:55,943 --> 00:09:58,336 ควรตัดสินใจแบบนั้น 213 00:09:58,380 --> 00:10:02,427 ฆ่าคนคนหนึ่ง จะดีกว่า เพื่อฆ่าคนห้าคน 214 00:10:02,471 --> 00:10:06,344 แน่นอน, มันทำให้เกิดคำถาม ใครจะซื้อรถคันนั้น 215 00:10:06,388 --> 00:10:09,130 หรือคุณรู้ไหมว่าคุณจะ ซื้อรถที่ไหนจริงๆ 216 00:10:09,173 --> 00:10:11,654 มันจะหักเลี้ยว แล้วคุณจะสบายดี 217 00:10:11,698 --> 00:10:13,134 แต่พวกเขาหายไปแล้ว 218 00:10:14,918 --> 00:10:17,442 มีหลายร้อย ของคำถามเหล่านั้น 219 00:10:17,486 --> 00:10:19,140 ทั้งหมดทั่วทั้งสังคม 220 00:10:19,183 --> 00:10:22,883 นักปรัชญาจริยธรรมก็เช่นกัน ต่อสู้ไปมา 221 00:10:25,146 --> 00:10:27,583 ความโกรธของฉันด้วย นักปรัชญาก็คือ 222 00:10:27,627 --> 00:10:30,804 พวกเขากำลังดูดออกซิเจน ออกจากห้อง 223 00:10:30,847 --> 00:10:33,763 มีคำอุปมานี้ ที่ฉันมี 224 00:10:33,807 --> 00:10:37,114 คุณมีรถ ขับรถออกจากงานแต่งงาน 225 00:10:37,158 --> 00:10:41,205 และรถกำลังขับอยู่ และด้านหลังก็มีกระป๋องอยู่ 226 00:10:41,249 --> 00:10:45,645 และกระป๋องโลหะก็มี ส่งเสียงดังเอี๊ยดและทำเสียงดัง 227 00:10:45,688 --> 00:10:47,690 รถคันนั้นเป็นวิทยาศาสตร์ 228 00:10:47,734 --> 00:10:50,345 และเทคโนโลยี ขับเคลื่อนไปข้างหน้าอย่างเด็ดเดี่ยว 229 00:10:50,388 --> 00:10:51,955 และกระป๋องโลหะก็ส่งเสียงดังเอี๊ยด 230 00:10:51,999 --> 00:10:54,697 คือนักปรัชญา ทำเสียงดังมาก 231 00:10:54,741 --> 00:10:56,525 โลกกำลังเปลี่ยนแปลง ในลักษณะดังกล่าว 232 00:10:56,568 --> 00:11:01,138 ว่าคำถามของเรา เครื่องจักรก่อสร้าง 233 00:11:01,182 --> 00:11:04,098 ที่อาจกลายเป็น ฉลาดกว่าเราอีก 234 00:11:04,141 --> 00:11:07,710 เป็นความจริงมากกว่านิยายในตอนนี้ 235 00:11:10,147 --> 00:11:12,759 อย่าเรา ต้องถามคำถามตอนนี้ 236 00:11:12,802 --> 00:11:15,805 ก่อนเครื่องจักร ฉลาดกว่าเราเหรอ? 237 00:11:15,849 --> 00:11:18,373 ฉันหมายถึงจะเกิดอะไรขึ้นถ้าพวกเขา บรรลุจิตสำนึก? 238 00:11:19,635 --> 00:11:21,463 ไกลแค่ไหน? 239 00:11:25,075 --> 00:11:26,816 เราสนิทกันแค่ไหน. สู่เครื่องจักรที่มีสติ? 240 00:11:26,860 --> 00:11:28,688 นั่นคือคำถาม ที่นำมา 241 00:11:28,731 --> 00:11:32,082 นักปรัชญาและนักวิทยาศาสตร์ ฉันคิดว่าจะพัด 242 00:11:32,126 --> 00:11:34,302 คุณเป็นศูนย์ตาย 243 00:11:34,345 --> 00:11:37,871 ของยิ่งใหญ่ที่สุด เหตุการณ์ทางวิทยาศาสตร์ ในประวัติศาสตร์ของมนุษย์ 244 00:11:37,914 --> 00:11:39,699 หากคุณได้สร้าง เครื่องจักรที่มีสติ 245 00:11:39,742 --> 00:11:41,309 มันไม่ใช่ประวัติศาสตร์ของมนุษย์ 246 00:11:42,614 --> 00:11:44,834 นั่นคือประวัติของเทพเจ้า 247 00:11:44,878 --> 00:11:48,533 ปัญหาเรื่องสติสัมปชัญญะ แทบจะไม่มีใครเลย 248 00:11:48,577 --> 00:11:50,884 สามารถกำหนดได้อย่างชัดเจนว่ามันคืออะไร 249 00:11:53,408 --> 00:11:55,976 มันคือจิตสำนึก นั่นทำให้เราพิเศษเหรอ? 250 00:11:57,586 --> 00:11:58,718 มนุษย์? 251 00:12:00,894 --> 00:12:03,026 มีวิธีคิด เกี่ยวกับจิตสำนึก 252 00:12:03,070 --> 00:12:05,159 ซึ่งมีผู้คนมากมาย จะเห็นด้วยกับ... 253 00:12:05,202 --> 00:12:07,857 คุณจะไม่มีวันพบสิ่งที่ดึงดูดใจทุกคน 254 00:12:07,901 --> 00:12:10,468 ...มันไม่ใช่แค่. ไฟกระพริบ, แต่มีคนอยู่บ้าน 255 00:12:11,252 --> 00:12:13,036 ดังนั้นถ้าคุณมี... 256 00:12:13,080 --> 00:12:15,386 ถ้าคุณซื้อ หนึ่งในสิ่งเล็กน้อยเหล่านั้น 257 00:12:15,430 --> 00:12:16,953 เครื่องเล่นหมากรุกธรรมดา 258 00:12:17,606 --> 00:12:19,173 มันอาจจะเอาชนะคุณด้วยหมากรุก 259 00:12:19,216 --> 00:12:21,218 มี มีไฟกระพริบมากมาย 260 00:12:21,262 --> 00:12:23,743 แต่ไม่มีใครเข้าเลย เมื่อมันชนะ 261 00:12:23,786 --> 00:12:25,222 ไป "ฉันชนะ" 262 00:12:25,962 --> 00:12:29,749 เอาล่ะ? ในขณะที่สุนัขของคุณ 263 00:12:29,792 --> 00:12:32,534 เป็นนักเล่นหมากรุกขยะ 264 00:12:32,577 --> 00:12:33,927 แต่คุณมองไปที่สุนัข และคุณคิดว่า 265 00:12:33,970 --> 00:12:36,930 “มีคนเข้ามาจริงๆ.. มันไม่ใช่แค่กลไกเท่านั้น” 266 00:12:38,845 --> 00:12:42,283 มีคนสงสัยว่าปัญญาทั่วไป 267 00:12:42,326 --> 00:12:44,459 ต้องใช้สติ 268 00:12:46,766 --> 00:12:50,160 ส่วนหนึ่งอาจขึ้นอยู่กับอะไร ระดับสติปัญญาทั่วไป คุณกำลังพูดถึง 269 00:12:50,204 --> 00:12:53,250 เมาส์ก็มีบางชนิด ของสติปัญญาทั่วไป 270 00:12:53,294 --> 00:12:55,339 ฉันเดาว่าถ้าคุณมี เครื่องที่มี 271 00:12:55,383 --> 00:12:58,473 หน่วยสืบราชการลับทั่วไป ในระดับของ พูดเมาส์หรือมากกว่านั้น 272 00:12:58,516 --> 00:13:00,997 มันจะเป็นคู่แข่งที่ดีในการมีสติ 273 00:13:04,653 --> 00:13:05,697 เรายังไปไม่ถึง 274 00:13:05,741 --> 00:13:07,787 เราไม่ได้เผชิญหน้ากับหุ่นยนต์ฮิวแมนนอยด์ 275 00:13:07,830 --> 00:13:09,832 ที่ฉลาดกว่าเรา 276 00:13:09,876 --> 00:13:12,182 เราอยู่ในนี้ ตำแหน่งทางจริยธรรมที่อยากรู้อยากเห็น 277 00:13:12,226 --> 00:13:15,446 โดยไม่รู้ว่าที่ไหนและอย่างไร สติสัมปชัญญะก็ปรากฏ 278 00:13:15,490 --> 00:13:18,841 และเรากำลังสร้าง ซับซ้อนมากขึ้น จิตใจ 279 00:13:18,885 --> 00:13:20,800 เราจะไม่รู้ว่า หรือไม่พวกเขาก็ยังมีสติอยู่ 280 00:13:20,843 --> 00:13:22,062 แต่เราอาจรู้สึกว่าเป็นเช่นนั้น 281 00:13:24,194 --> 00:13:26,718 ตัวอย่างที่ง่ายที่สุด คือถ้าคุณตั้งโปรแกรมไว้ 282 00:13:26,762 --> 00:13:29,634 ลงในคอมพิวเตอร์ ทุกสิ่งที่คุณรู้เกี่ยวกับความสุข 283 00:13:29,678 --> 00:13:31,201 ทุกการอ้างอิงในวรรณคดี 284 00:13:31,245 --> 00:13:33,943 ทุกคำจำกัดความ สารประกอบเคมีทุกชนิด 285 00:13:33,987 --> 00:13:36,119 ที่เกี่ยวข้องกับความสุข ในสมองของมนุษย์ 286 00:13:36,163 --> 00:13:39,644 และคุณใส่ทั้งหมดนั้น ข้อมูลในคอมพิวเตอร์ 287 00:13:39,688 --> 00:13:42,778 คุณสามารถโต้แย้งได้ ว่ามันเข้าใจถึงความยินดี 288 00:13:42,822 --> 00:13:45,476 คำถามคือ, มันเคยรู้สึกมีความสุขไหม? 289 00:13:51,613 --> 00:13:53,354 HAL มีอารมณ์ไหม? 290 00:13:55,095 --> 00:13:58,228 AIจะเคยรู้สึกไหม. วิธีที่เราทำ? 291 00:13:59,882 --> 00:14:02,406 มันยากมากที่จะได้รับ เครื่องจักรในการทำสิ่งต่างๆ 292 00:14:02,450 --> 00:14:06,149 ที่เราคิดไม่ถึง ที่เราไม่รู้ตัว 293 00:14:06,193 --> 00:14:09,326 สิ่งต่างๆ เช่น การตรวจจับ คนนั้นคนนั้น 294 00:14:09,370 --> 00:14:11,198 ไม่มีความสุขจริงๆ ด้วยวิธีนั้น... 295 00:14:11,241 --> 00:14:12,721 บางอย่างเกี่ยวกับ ฉันกำลังทำอะไรอยู่. 296 00:14:12,764 --> 00:14:14,027 และพวกเขากำลังส่ง สัญญาณที่ละเอียดอ่อน 297 00:14:14,070 --> 00:14:15,506 และฉันอาจจะ ควรเปลี่ยนสิ่งที่ฉันทำอยู่ 298 00:14:17,334 --> 00:14:18,988 เราไม่รู้วิธีสร้าง เครื่องจักรที่สามารถเป็นได้จริง 299 00:14:19,032 --> 00:14:22,252 ปรับให้เข้ากับประเภทเหล่านั้น ของสัญญาณทางสังคมเล็กๆ น้อยๆ 300 00:14:24,994 --> 00:14:28,389 มีความคิดนี้ว่าบางที มีบางอย่างมหัศจรรย์ 301 00:14:28,432 --> 00:14:30,434 เกี่ยวกับสมอง 302 00:14:30,478 --> 00:14:32,045 เกี่ยวกับชุดเปียก ของการมี 303 00:14:32,088 --> 00:14:33,785 ข้อมูล ระบบประมวลผล 304 00:14:33,829 --> 00:14:34,917 ทำจากเนื้อใช่ไหม? 305 00:14:34,961 --> 00:14:37,311 และไม่ว่าเราจะทำอะไรก็ตาม ในเครื่องของเรา 306 00:14:37,354 --> 00:14:40,705 อย่างไรก็ตามมีความสามารถ พวกเขาเริ่มดูเหมือน 307 00:14:40,749 --> 00:14:42,272 พวกเขาไม่เคยจริงๆ จะเป็นคนฉลาด 308 00:14:42,316 --> 00:14:44,579 ในแบบที่เราประสบ ตัวเราเองจะเป็น 309 00:14:46,233 --> 00:14:48,975 ไม่มีพื้นฐานสำหรับเรื่องนั้นจริงๆ 310 00:14:51,238 --> 00:14:53,240 ความคิดโง่ๆแบบนี้ คุณไม่สามารถฉลาดได้ 311 00:14:53,283 --> 00:14:55,155 เว้นแต่คุณจะทำจากเนื้อสัตว์ 312 00:14:56,765 --> 00:14:58,201 จากมุมมองของฉัน, ในฐานะนักฟิสิกส์ 313 00:14:58,245 --> 00:15:00,682 นั่นเป็นเพียงลัทธิชาตินิยมคาร์บอน 314 00:15:00,725 --> 00:15:02,118 เครื่องจักรเหล่านั้น ทำจากอย่างแน่นอน 315 00:15:02,162 --> 00:15:03,903 ชนิดเดียวกัน อนุภาคมูลฐาน 316 00:15:03,946 --> 00:15:05,382 ที่สมองของฉันถูกสร้างขึ้นมา 317 00:15:06,775 --> 00:15:08,429 ความฉลาดเป็นเพียง บางอย่าง... 318 00:15:08,472 --> 00:15:10,170 และสติสัมปชัญญะก็เป็นเพียง 319 00:15:10,213 --> 00:15:12,259 การประมวลผลข้อมูลบางประเภท 320 00:15:15,262 --> 00:15:17,655 บางทีเราอาจไม่ใช่ พิเศษมาก 321 00:15:19,744 --> 00:15:21,268 สมองของเราที่มีคาร์บอนเป็นส่วนประกอบหลัก 322 00:15:21,311 --> 00:15:23,531 สามารถจำลองด้วยซิลิคอนได้หรือไม่? 323 00:15:25,185 --> 00:15:28,405 เรากำลังพยายามที่จะสร้าง ทารกที่สร้างจากคอมพิวเตอร์ 324 00:15:28,449 --> 00:15:31,060 ที่เราสามารถสอนได้ เหมือนเด็กทารกจริงๆ 325 00:15:31,104 --> 00:15:34,237 ด้วยศักยภาพของสติปัญญาทั่วไป 326 00:15:39,808 --> 00:15:42,550 เพื่อทำเช่นนั้นคุณจริงๆ ต้องสร้าง สมองคอมพิวเตอร์ 327 00:15:46,162 --> 00:15:50,645 ฉันต้องการสร้างโมเดลสมองของเล่นง่ายๆ 328 00:15:52,168 --> 00:15:53,474 ในระบบที่เป็นตัวเป็นตน 329 00:15:53,517 --> 00:15:56,694 ที่คุณสามารถโต้ตอบด้วยได้ ตัวต่อตัว. 330 00:16:00,394 --> 00:16:03,527 และฉันก็บังเอิญมีลูกอยู่ที่บ้าน 331 00:16:03,571 --> 00:16:04,964 ทารกที่แท้จริง 332 00:16:05,660 --> 00:16:07,836 และฉันก็สแกนทารก 333 00:16:07,879 --> 00:16:10,795 ฉันจึงสามารถสร้างโมเดล 3 มิติจากเธอได้ 334 00:16:10,839 --> 00:16:12,493 แล้วใช้ใบหน้าของเธอ 335 00:16:12,536 --> 00:16:15,452 โดยพื้นฐานแล้วเป็นศูนย์รวม ของระบบ 336 00:16:17,063 --> 00:16:20,109 หากสมองประกอบด้วยเซลล์ 337 00:16:20,153 --> 00:16:23,199 และมีเลือดสูบฉีด สามารถคิดได้ 338 00:16:24,461 --> 00:16:27,682 มันอาจจะเป็นไปได้ ที่คอมพิวเตอร์สามารถคิดได้ 339 00:16:28,770 --> 00:16:33,166 หากข้อมูลมีการเคลื่อนไหวในลักษณะเดียวกัน 340 00:16:37,474 --> 00:16:39,476 มาก ปัญญาประดิษฐ์ ในขณะนี้วันนี้ 341 00:16:39,520 --> 00:16:42,044 เป็นเรื่องเกี่ยวกับจริงๆ การจดจำรูปแบบขั้นสูง 342 00:16:42,088 --> 00:16:44,003 มันไม่เกี่ยวกับหุ่นยนต์นักฆ่า 343 00:16:44,046 --> 00:16:45,830 ที่จะเข้าควบคุม โลก ฯลฯ 344 00:16:47,702 --> 00:16:51,053 นี่คือ Baby X เธอกำลังถ่ายทอดสด บนคอมพิวเตอร์ของฉัน 345 00:16:51,097 --> 00:16:54,056 ดังนั้นในขณะที่ฉันขยับมือไปรอบๆ ส่งเสียงดัง, 346 00:16:54,100 --> 00:16:55,710 เธอจะตกใจกลัว 347 00:16:55,753 --> 00:16:57,407 เราสามารถซูมเข้าได้ 348 00:16:57,451 --> 00:17:00,845 โดยพื้นฐานแล้วเธอสามารถเห็นฉันได้ และฟังฉันนะ เธอก็รู้ 349 00:17:00,889 --> 00:17:03,022 เฮ้ ที่รัก 350 00:17:03,065 --> 00:17:05,067 เธอไม่ได้เลียนแบบรอยยิ้มของฉัน 351 00:17:05,111 --> 00:17:07,417 เธอตอบสนองต่อรอยยิ้มของฉัน 352 00:17:08,114 --> 00:17:09,637 เธอจึงตอบรับฉัน 353 00:17:09,680 --> 00:17:12,205 และเรากังวลมาก กับคำถาม 354 00:17:12,248 --> 00:17:14,207 เราจะเป็นอย่างไร โต้ตอบกันจริงๆ 355 00:17:14,250 --> 00:17:16,644 ด้วยปัญญาประดิษฐ์ ในอนาคต. 356 00:17:17,688 --> 00:17:19,995 อา... 357 00:17:20,039 --> 00:17:23,520 เมื่อฉันกำลังคุยกับเบบี้เอ็กซ์ ฉันจงใจ กำลังปรับเสียงของฉัน 358 00:17:23,564 --> 00:17:25,740 และจงใจทำสีหน้าจริงจัง 359 00:17:25,783 --> 00:17:27,350 ฉันจะ "โอ้" ทั้งหมดนี้ 360 00:17:27,394 --> 00:17:29,309 เพราะฉันได้รับ ความสนใจของเธอ 361 00:17:29,744 --> 00:17:31,572 โอ้. 362 00:17:32,834 --> 00:17:34,749 และตอนนี้ฉันก็ได้รับความสนใจจากเธอแล้ว 363 00:17:35,793 --> 00:17:37,012 ฉันสามารถสอนบางสิ่งบางอย่างได้ 364 00:17:37,056 --> 00:17:38,579 เอาล่ะ นี่คือ Baby X 365 00:17:38,622 --> 00:17:41,973 และนี่คือ... เธอเคยเป็น เรียนรู้ที่จะอ่านคำศัพท์ 366 00:17:42,017 --> 00:17:43,758 ดังนั้นนี่คือ หนังสือคำศัพท์เล่มแรกของเธอ 367 00:17:43,801 --> 00:17:47,370 มาดูกันว่ามีอะไรบ้าง เธอสามารถเห็นได้ พลิกไปหน้า... 368 00:17:47,414 --> 00:17:49,329 และที่นี่เราไป มาดูกันว่าเธอ... 369 00:17:49,372 --> 00:17:51,679 นี่อะไรน่ะที่รัก? นี่อะไรน่ะ? นี่อะไรน่ะ? 370 00:17:52,245 --> 00:17:54,160 นี่อะไรน่ะ? แกะ. 371 00:17:54,203 --> 00:17:56,336 เด็กดี. ตอนนี้ดูว่าเธอรู้หรือไม่ คำนี้คืออะไร 372 00:17:56,379 --> 00:17:58,207 ตกลง. ที่รัก มองทางนี้สิ 373 00:17:58,251 --> 00:18:00,079 ปิดคุณไป นี่อะไรน่ะ? นี่อะไรน่ะ? 374 00:18:01,776 --> 00:18:03,952 แกะ.เด็กดี. 375 00:18:03,995 --> 00:18:05,606 มาลองเธอกันดีกว่า ในเรื่องอื่น 376 00:18:05,649 --> 00:18:07,216 ตกลง. 377 00:18:07,260 --> 00:18:08,826 เรามาลองกันดู นี่อะไรน่ะ? 378 00:18:08,870 --> 00:18:10,437 ที่รัก ที่รัก อยู่ตรงนี้ นี่อะไรน่ะ? 379 00:18:15,268 --> 00:18:17,618 ที่รัก. มองฉันสิ. มองฉันสิ. นี่อะไรน่ะ? 380 00:18:17,661 --> 00:18:19,402 ที่รัก อยู่ตรงนี้ ตรงนี้. 381 00:18:20,708 --> 00:18:22,927 น้องหมา.เด็กดี. 382 00:18:22,971 --> 00:18:24,233 นั่นคือสิ่งที่ เธอเพิ่งอ่าน 383 00:18:24,277 --> 00:18:26,148 โอ้. 384 00:18:26,192 --> 00:18:28,411 ระบบที่ชาญฉลาดที่สุด 385 00:18:28,455 --> 00:18:30,805 ที่เราตระหนักดี คือมนุษย์ 386 00:18:32,198 --> 00:18:35,114 ดังนั้นการใช้มนุษย์ เป็นแม่แบบ 387 00:18:35,157 --> 00:18:37,333 ที่เป็นรูปลักษณ์ของ Baby X 388 00:18:37,377 --> 00:18:39,509 น่าจะเป็นวิธีที่ดีที่สุด ที่จะลอง 389 00:18:39,553 --> 00:18:41,337 เพื่อให้ได้ หน่วยสืบราชการลับทั่วไป 390 00:18:48,170 --> 00:18:49,650 เธอดูเป็นมนุษย์มาก 391 00:18:51,304 --> 00:18:53,349 นี่เด็กเหรอ. ที่จับมือเรา 392 00:18:53,393 --> 00:18:55,699 และนำเราไปสู่ ​​HAL? 393 00:18:57,484 --> 00:19:00,922 ไม่ว่าจะเป็นในโลกแห่งความเป็นจริง หรือโลกเสมือนจริง 394 00:19:00,965 --> 00:19:02,358 ฉันคิดว่าศูนย์รวม 395 00:19:02,402 --> 00:19:05,492 จะเป็น สำคัญมากที่นี่ 396 00:19:05,535 --> 00:19:07,885 เพราะผมคิดอย่างนั้น หน่วยสืบราชการลับทั่วไป 397 00:19:07,929 --> 00:19:10,888 ผูกติดอยู่กับความสามารถ ที่จะกระทำในโลก 398 00:19:13,108 --> 00:19:14,805 คุณต้องมีบางสิ่งบางอย่าง 399 00:19:14,849 --> 00:19:16,633 แขน, ขา, ตา, 400 00:19:16,677 --> 00:19:18,461 บางสิ่งบางอย่างที่คุณสามารถ ย้ายไปรอบ ๆ 401 00:19:18,505 --> 00:19:21,682 เพื่อเก็บเกี่ยว ข้อมูลใหม่. 402 00:19:26,513 --> 00:19:28,906 เลยคิดจะจัดระบบ. ที่เข้าใจจริงๆ 403 00:19:28,950 --> 00:19:30,647 สิ่งที่พวกเขากำลังพูดถึง 404 00:19:30,691 --> 00:19:32,997 คุณจะต้องมีระบบ ที่สามารถกระทำได้ 405 00:19:33,041 --> 00:19:34,564 และเข้าไปแทรกแซงในโลก 406 00:19:34,608 --> 00:19:36,827 และอาจเป็นระบบ ที่มีบางสิ่งบางอย่าง 407 00:19:36,871 --> 00:19:39,308 เกือบจะเหมือนกับชีวิตทางสังคม 408 00:19:39,352 --> 00:19:43,007 สำหรับผม การคิดและความรู้สึก จะมารวมกัน 409 00:19:43,051 --> 00:19:44,574 และพวกเขาจะมารวมตัวกัน 410 00:19:44,618 --> 00:19:47,534 เพราะความสำคัญ ของรูปลักษณ์ 411 00:19:52,539 --> 00:19:53,975 เรื่องราวต่างๆนั้น เราบอกตัวเอง 412 00:19:54,018 --> 00:19:56,325 เปิดเวที สำหรับการอภิปราย 413 00:19:56,369 --> 00:19:58,109 และพวกเขาก็ช่วยเราด้วย คิดเกี่ยวกับสิ่งต่างๆ 414 00:19:58,153 --> 00:19:59,415 เอวา! 415 00:20:02,592 --> 00:20:04,377 เรื่องราวที่โดดเด่นที่สุด... 416 00:20:04,420 --> 00:20:05,769 กลับไปที่ห้องของคุณ 417 00:20:05,813 --> 00:20:07,684 ...AI มันน่ากลัวนะ 418 00:20:07,728 --> 00:20:09,991 มีคนร้าย.. มีผู้ชายดีๆคนหนึ่ง... 419 00:20:12,123 --> 00:20:14,822 นั่นคือ โครงเรื่องที่ไม่เกิดผล 420 00:20:14,865 --> 00:20:15,866 หยุด! 421 00:20:16,954 --> 00:20:18,608 เอวา ฉันบอกให้หยุด! 422 00:20:20,784 --> 00:20:22,656 โว้ว! โว้ว! โว้ว! 423 00:20:22,699 --> 00:20:27,269 ความจริงก็คือ AI คือ มีประโยชน์อย่างน่าทึ่งสำหรับเรา 424 00:20:27,313 --> 00:20:30,838 มีการใช้หุ่นยนต์ศัลยแพทย์ในโรงพยาบาล NHS มากขึ้น 425 00:20:30,881 --> 00:20:33,623 พวกเขาไม่เหนื่อย มือของพวกเขาไม่สั่น 426 00:20:33,667 --> 00:20:36,060 และผู้ป่วยของพวกเขา ทำให้ฟื้นตัวเร็วขึ้น 427 00:20:36,104 --> 00:20:38,672 มันเตือนฉันว่า มีสัตว์ตัวหนึ่งตัวร้อน 428 00:20:38,715 --> 00:20:41,065 เธอพร้อมที่จะผสมพันธุ์ และสัตว์สามตัวนั้น 429 00:20:41,109 --> 00:20:42,806 อาจจะมี ปัญหาสุขภาพที่อาจเกิดขึ้น 430 00:20:42,850 --> 00:20:45,548 โปรแกรมเฟสบุ๊ค สามารถตรวจจับพฤติกรรมการฆ่าตัวตายได้ 431 00:20:45,592 --> 00:20:47,681 โดยการวิเคราะห์ข้อมูลผู้ใช้ 432 00:20:47,724 --> 00:20:50,074 และซีอีโอเฟซบุ๊ก มาร์ค ซัคเคอร์เบิร์ก เชื่ออย่างนั้น 433 00:20:50,118 --> 00:20:52,425 นี่เป็นเพียงการเริ่มต้น. 434 00:20:52,468 --> 00:20:55,036 นี่คือใครบางคน ผู้มีความบกพร่องทางการมองเห็น 435 00:20:55,079 --> 00:20:57,386 สามารถมองเห็นได้ เพราะเอไอ 436 00:20:57,430 --> 00:21:00,128 นั่นแหละคือผลประโยชน์ ของสิ่งที่ AI ทำ 437 00:21:00,171 --> 00:21:01,738 วินิจฉัยมะเร็งได้ตั้งแต่เนิ่นๆ 438 00:21:01,782 --> 00:21:03,174 ทำนายโรคหัวใจ 439 00:21:03,218 --> 00:21:05,481 แต่เป็นการปฏิวัติ เพิ่งเริ่มต้นเท่านั้น 440 00:21:06,917 --> 00:21:08,397 เอไอเป็น. 441 00:21:08,441 --> 00:21:10,617 มันกำลังเกิดขึ้น. และมันก็เป็นคำถาม 442 00:21:10,660 --> 00:21:13,533 สิ่งที่เราทำกับมัน เราสร้างมันขึ้นมาอย่างไร 443 00:21:13,576 --> 00:21:15,665 นั่นเป็นคำถามเดียว ที่สำคัญ. และฉันคิดว่า 444 00:21:15,709 --> 00:21:19,060 เราอาจตกอยู่ในความเสี่ยง ของการทำลายสิ่งนั้น 445 00:21:19,103 --> 00:21:20,453 โดยมีสิ่งนี้ ปฏิกิริยากระตุกเข่า 446 00:21:20,496 --> 00:21:22,672 AI นั้นแย่ และมันกำลังมาหาเรา 447 00:21:25,196 --> 00:21:27,155 เช่นเดียวกับนักบินอวกาศของฉัน 448 00:21:27,198 --> 00:21:28,461 เรากำลังเดินทาง 449 00:21:29,200 --> 00:21:31,638 Narrow AI อยู่ที่นี่แล้ว 450 00:21:32,421 --> 00:21:35,294 แต่เราอยู่ห่างจาก AGI แค่ไหน? 451 00:21:36,425 --> 00:21:39,210 และเราจะไปเร็วแค่ไหน? 452 00:21:39,254 --> 00:21:40,603 ทุก ๆ ห้าปี 453 00:21:40,647 --> 00:21:43,214 คอมพิวเตอร์กำลังได้รับ เร็วขึ้นสิบเท่า 454 00:21:43,258 --> 00:21:45,216 ในขณะนี้ เรายังไม่มี 455 00:21:45,260 --> 00:21:48,263 อุปกรณ์เล็กๆ น้อยๆ อุปกรณ์คำนวณ, 456 00:21:48,307 --> 00:21:51,484 ที่สามารถคำนวณได้ มากเท่ากับสมองของมนุษย์ 457 00:21:51,527 --> 00:21:52,702 แต่ทุกๆ ห้าปี 458 00:21:52,746 --> 00:21:55,575 คอมพิวเตอร์กำลังได้รับ ถูกกว่าสิบเท่า 459 00:21:55,618 --> 00:21:57,925 ซึ่งหมายความว่าในไม่ช้า เราจะมีสิ่งนั้น 460 00:21:57,968 --> 00:22:01,189 และเมื่อเรามีสิ่งนั้นแล้ว จากนั้นอีก 50 ปีต่อมา 461 00:22:01,232 --> 00:22:02,451 หากเทรนด์ไม่พัง 462 00:22:02,495 --> 00:22:04,801 เราควรจะมี ในราคาเดียวกัน 463 00:22:04,845 --> 00:22:07,630 อุปกรณ์คำนวณเล็กๆ น้อยๆ ที่สามารถคำนวณได้ 464 00:22:07,674 --> 00:22:10,329 มากเท่ากับ สมองทั้งหมดหมื่นล้าน 465 00:22:10,372 --> 00:22:11,808 ของมนุษยชาติด้วยกัน 466 00:22:14,202 --> 00:22:15,551 มันกำลังไล่ตาม 467 00:22:16,770 --> 00:22:20,034 เกิดอะไรขึ้น ถ้ามันผ่านเราไป? 468 00:22:20,077 --> 00:22:23,342 ตอนนี้เป็นหุ่นยนต์ ที่ได้รับการพัฒนา โดยนักวิทยาศาสตร์ชาวญี่ปุ่น 469 00:22:23,385 --> 00:22:25,387 เร็วมากก็สามารถชนะได้ 470 00:22:25,431 --> 00:22:27,346 เกมเป่ายิ้งฉุบ ต่อมนุษย์ 471 00:22:27,389 --> 00:22:29,130 ทุกครั้ง 472 00:22:29,173 --> 00:22:31,175 สันนิษฐานก็ต้องเป็นอย่างนั้น 473 00:22:31,219 --> 00:22:33,177 เมื่อเป็นของเทียม ปัญญา 474 00:22:33,221 --> 00:22:35,266 เข้าถึงสติปัญญาของมนุษย์ 475 00:22:35,310 --> 00:22:38,008 มันจะเร็วมาก เกินสติปัญญาของมนุษย์ 476 00:22:38,052 --> 00:22:39,227 และเมื่อสิ่งนั้นเกิดขึ้น 477 00:22:39,270 --> 00:22:41,272 มันไม่ได้ด้วยซ้ำ ต้องการเราอีกต่อไป 478 00:22:41,316 --> 00:22:43,884 เพื่อให้ฉลาดขึ้น ก็สามารถทำให้ตัวเองฉลาดขึ้นได้ 479 00:22:46,408 --> 00:22:49,455 คุณสร้าง AI ซึ่งดีกว่าเรา 480 00:22:49,498 --> 00:22:50,586 ในหลาย ๆ สิ่ง 481 00:22:50,630 --> 00:22:52,545 และสิ่งหนึ่งที่ พวกเขาเก่งขึ้น 482 00:22:52,588 --> 00:22:54,373 คือการเขียนโปรแกรมคอมพิวเตอร์ 483 00:22:54,416 --> 00:22:56,113 มันจึงรีโปรแกรมตัวเอง 484 00:22:56,157 --> 00:22:57,898 และมันก็เป็นตอนนี้ ดีกว่าที่เป็นอยู่ 485 00:22:57,941 --> 00:23:01,380 ซึ่งหมายความว่าตอนนี้ ดีกว่าที่เป็นอยู่ ในการเขียนโปรแกรมใหม่ 486 00:23:02,729 --> 00:23:05,384 ดังนั้นมันไม่ได้ ดีขึ้นแบบนั้น 487 00:23:06,123 --> 00:23:07,690 มันจะดีขึ้นเช่นนั้น 488 00:23:09,562 --> 00:23:11,172 และเราก็ถูกทิ้งไว้ข้างหลัง 489 00:23:11,215 --> 00:23:13,304 เมื่อมันเร็วขึ้นเรื่อยๆ 490 00:23:13,348 --> 00:23:15,872 พัฒนาที่ อัตราเลขชี้กำลัง 491 00:23:15,916 --> 00:23:18,005 นั่นคือเหตุการณ์นี้ ที่นักวิจัยจำนวนมาก 492 00:23:18,048 --> 00:23:19,746 เรียกว่าเอกภาวะ. 493 00:23:21,965 --> 00:23:23,706 และมันจะเกินเลยไป 494 00:23:23,750 --> 00:23:26,405 ที่ที่เราแข่งขันได้ เร็วมาก 495 00:23:26,448 --> 00:23:29,625 แล้วคิดถึงใครสักคน. ไม่มีปริญญาเอกในด้านใดด้านหนึ่ง 496 00:23:29,669 --> 00:23:32,280 แต่มีมัน ในทุกพื้นที่ที่เป็นไปได้ 497 00:23:32,323 --> 00:23:34,413 คุณไม่สามารถเข้าใจได้ พวกเขากำลังทำอะไรอยู่ 498 00:23:34,456 --> 00:23:36,806 พวกเขาสามารถทำสิ่งต่างๆ ได้ ไม่มีใครสามารถทำได้ 499 00:23:39,461 --> 00:23:40,854 แค่จินตนาการ มันจะเป็นอย่างไร 500 00:23:40,897 --> 00:23:43,247 ที่จะอยู่ในการสนทนา กับบุคคลอื่น 501 00:23:43,291 --> 00:23:44,814 วิ่งตามกำหนดเวลา 502 00:23:44,858 --> 00:23:48,557 นั่นเป็นล้านครั้ง เร็วกว่าของคุณ 503 00:23:48,601 --> 00:23:51,255 ดังนั้นทุกวินาที คุณต้องคิด 504 00:23:51,299 --> 00:23:52,431 เกี่ยวกับสิ่งที่คุณเป็น จะไปทำ 505 00:23:52,474 --> 00:23:53,867 หรือสิ่งที่คุณเป็น กำลังจะพูดว่า 506 00:23:53,910 --> 00:23:57,436 มีเวลาคิดสองสัปดาห์ เกี่ยวกับเรื่องนี้ใช่ไหม? 507 00:23:57,479 --> 00:24:00,569 อืม หรือเร็วกว่าพันล้านเท่า 508 00:24:00,613 --> 00:24:02,528 ดังนั้นหากทุกวินาที คุณต้องคิดว่า 509 00:24:02,571 --> 00:24:05,487 มันเป็นโป๊กเกอร์เดิมพันสูง หรือการเจรจาต่อรองบางอย่าง 510 00:24:05,531 --> 00:24:09,448 ทุกวินาทีที่คุณคิด มันมี 32 ปี 511 00:24:09,491 --> 00:24:11,798 คิดอะไรอยู่ การเคลื่อนไหวครั้งต่อไปจะเป็น 512 00:24:12,581 --> 00:24:14,931 ไม่มีทางที่จะชนะในเกมนั้นได้ 513 00:24:15,715 --> 00:24:17,456 ความเป็นเอกเทศ, 514 00:24:17,499 --> 00:24:19,719 ช่วงเวลาที่เครื่องจักร เหนือกว่าเรา 515 00:24:20,415 --> 00:24:22,548 หลีกเลี่ยงไม่ได้? ไม่ใช่ทุกคน 516 00:24:22,591 --> 00:24:25,289 ในระดับแนวหน้าของ AI คิดอย่างนั้น 517 00:24:25,333 --> 00:24:27,857 เพื่อนของฉันบางคน ใครมีความกังวล เกี่ยวกับอนาคต 518 00:24:27,901 --> 00:24:30,033 คิดว่าเราจะ ไปสู่ความเป็นเอกเทศ 519 00:24:30,077 --> 00:24:31,687 โดยที่ระบบ AI มีความสามารถ 520 00:24:31,731 --> 00:24:33,602 เพื่อตั้งโปรแกรมใหม่ด้วยตนเอง และทำตัวเอง 521 00:24:33,646 --> 00:24:35,517 ดียิ่งขึ้น และดีกว่า 522 00:24:36,910 --> 00:24:39,652 อาจจะเข้า. อนาคตอันยาวไกล 523 00:24:39,695 --> 00:24:42,045 แต่ระบบ AI ของเราในปัจจุบัน 524 00:24:42,089 --> 00:24:44,831 แคบมาก ในสิ่งที่พวกเขาทำ 525 00:24:45,745 --> 00:24:47,573 วันนี้เราไม่สามารถสร้างระบบได้ 526 00:24:47,616 --> 00:24:49,488 ที่สามารถเข้าใจได้ โปรแกรมคอมพิวเตอร์ 527 00:24:49,531 --> 00:24:52,316 ในระดับ ที่เป็นนักเรียนใหม่ ในการเขียนโปรแกรม 528 00:24:52,360 --> 00:24:54,754 เข้าใจ ภายในสี่หรือห้าสัปดาห์ 529 00:24:55,581 --> 00:24:56,756 และยังไงก็ตาม 530 00:24:56,799 --> 00:24:59,019 ผู้คนกำลังทำงานอยู่ เกี่ยวกับปัญหานี้ 531 00:24:59,062 --> 00:25:00,499 เป็นเวลากว่า 40 ปี 532 00:25:00,542 --> 00:25:02,065 ไม่ใช่เพราะว่า คนยังไม่ได้ลอง 533 00:25:02,109 --> 00:25:03,980 มันเป็นเพราะว่าเราไม่มี เบาะแสใด ๆ ว่าจะทำอย่างไร 534 00:25:04,024 --> 00:25:06,766 เลยจินตนาการว่ามันจู่ๆ จะกระโดดออกมาจากความว่างเปล่า 535 00:25:06,809 --> 00:25:09,986 ฉันคิดว่าผิดอย่างสิ้นเชิง 536 00:25:11,640 --> 00:25:14,600 มีแง่ลบ เรื่องเล่าเกี่ยวกับ AI 537 00:25:14,643 --> 00:25:16,602 คนเก่ง เหมือนอีลอน มัสก์ 538 00:25:16,645 --> 00:25:19,648 ใช้ภาพทางศาสนามาก 539 00:25:19,692 --> 00:25:22,999 ด้วยปัญญาประดิษฐ์ เรากำลังอัญเชิญปีศาจ 540 00:25:23,043 --> 00:25:24,958 คุณรู้? คุณรู้ เรื่องราวทั้งหมดเหล่านั้นอยู่ที่ไหน 541 00:25:25,001 --> 00:25:27,090 ผู้ชายคนนั้นอยู่ด้วย รูปดาวห้าแฉกและน้ำศักดิ์สิทธิ์ 542 00:25:27,134 --> 00:25:29,005 และเขาก็แบบว่า "ใช่" เขาแน่ใจว่าเขาสามารถควบคุมได้ ปีศาจ. 543 00:25:30,137 --> 00:25:31,312 ไม่ได้ผล 544 00:25:32,313 --> 00:25:33,488 รู้ไหมคนอย่างฉัน 545 00:25:33,532 --> 00:25:35,795 ใครได้ใช้จ่าย อาชีพทั้งหมดของพวกเขา 546 00:25:35,838 --> 00:25:39,538 การทำงานกับ AI นั้นแท้จริงแล้ว เจ็บเพราะสิ่งนั้นใช่ไหม? 547 00:25:39,581 --> 00:25:42,105 เกือบจะเป็นการโจมตีส่วนตัวแล้ว 548 00:25:43,933 --> 00:25:46,196 ฉันมักจะคิด เกี่ยวกับสิ่งที่จะเกิดขึ้น 549 00:25:46,240 --> 00:25:49,243 ในอีกสิบปีข้างหน้า ในอีก 25 ปีข้างหน้า 550 00:25:49,286 --> 00:25:50,549 เกิน 25, 551 00:25:50,592 --> 00:25:52,681 มันยากมากที่จะคาดเดา 552 00:25:52,725 --> 00:25:55,379 ว่ามันจะกลายเป็น เป็นการคาดเดาอย่างมาก 553 00:25:55,423 --> 00:25:56,816 แต่ฉันต้องเตือนคุณว่า 554 00:25:56,859 --> 00:25:59,383 ฉันเคย โปรแกรมโดยเฉพาะ 555 00:25:59,427 --> 00:26:02,125 ไม่ใช่เพื่อยึดครองโลก 556 00:26:02,169 --> 00:26:04,650 ในทันที, สำหรับครั้งแรก 557 00:26:04,693 --> 00:26:07,478 ในประวัติศาสตร์ของสนาม คุณมีบางคนพูดว่า 558 00:26:07,522 --> 00:26:09,350 “โอ้ เหตุผล. เราไม่ต้องกังวล 559 00:26:09,393 --> 00:26:10,743 “เกี่ยวกับเรื่องใดเรื่องหนึ่ง 560 00:26:10,786 --> 00:26:12,614 “ความเสี่ยงที่มีอยู่ เพื่อมนุษยชาติ 561 00:26:12,658 --> 00:26:13,746 “จากสุดยอดอัจฉริยะ เครื่องจักร 562 00:26:13,789 --> 00:26:15,225 “ก็เพราะมันเป็นไปไม่ได้ 563 00:26:16,096 --> 00:26:17,532 "เราจะล้มเหลว" 564 00:26:17,576 --> 00:26:21,275 ฉัน... ฉันเจอสิ่งนี้ แปลกประหลาดอย่างสิ้นเชิง 565 00:26:21,318 --> 00:26:26,280 สจวร์ต รัสเซล เขียนตำราเรียน นักเรียน AI หลายคนเรียนด้วย 566 00:26:26,323 --> 00:26:30,893 เขาเข้าใจโมเมนตัม ขับเคลื่อนอนาคต AI ของเรา 567 00:26:30,937 --> 00:26:33,766 แต่ให้คะแนนแล้ว ของการลงทุนใน AI 568 00:26:33,809 --> 00:26:35,811 จำนวน ของคนฉลาดอย่างไม่น่าเชื่อ 569 00:26:35,855 --> 00:26:37,596 ใครกำลังทำงานอยู่ เกี่ยวกับปัญหาเหล่านี้ 570 00:26:37,639 --> 00:26:39,728 และแรงจูงใจอันมหาศาล 571 00:26:39,772 --> 00:26:42,339 เอ่อ เพื่อให้บรรลุถึงส่วนรวม สติปัญญาวัตถุประสงค์ 572 00:26:42,383 --> 00:26:43,819 ด้านหลังของซองจดหมาย การคำนวณ, 573 00:26:43,863 --> 00:26:47,388 มูลค่าเป็นเรื่องเกี่ยวกับ 10,000 ล้านล้านดอลลาร์ 574 00:26:47,431 --> 00:26:50,652 เพราะมันจะเป็นการปฏิวัติเศรษฐกิจของโลก 575 00:26:51,697 --> 00:26:53,612 ด้วยแรงจูงใจขนาดนั้น 576 00:26:53,655 --> 00:26:56,266 ฉันคิดว่าเดิมพันกับความฉลาดของมนุษย์ 577 00:26:56,310 --> 00:26:58,660 ดูเหมือนโง่เขลาอย่างไม่น่าเชื่อ 578 00:26:58,704 --> 00:27:01,054 จีนก็มี ผลประโยชน์ส่วน ใหญ่ 579 00:27:01,097 --> 00:27:04,187 ในการได้รับการยอมรับ เหมือนกับเป็นมหาอำนาจ AI 580 00:27:04,231 --> 00:27:06,625 และพวกเขากำลังลงทุน สิ่งที่ฉันเชื่อคือ 581 00:27:06,668 --> 00:27:08,931 สูงถึง 150 พันล้านดอลลาร์ 582 00:27:08,975 --> 00:27:10,498 ห้าถึงสิบปีข้างหน้า 583 00:27:10,541 --> 00:27:11,891 มีการ มีข่าวบางอย่างกะพริบ 584 00:27:11,934 --> 00:27:13,632 ว่ารัฐบาล จะเริ่มทะยานขึ้น 585 00:27:13,675 --> 00:27:15,024 การลงทุนใน AI 586 00:27:15,068 --> 00:27:17,723 ทุกบริษัท ในฟอร์จูน 500 587 00:27:17,766 --> 00:27:20,029 ไม่ว่าจะเป็น IBM, Microsoft, 588 00:27:20,073 --> 00:27:22,771 หรือพวกเขาอยู่ข้างนอก เช่นเดียวกับโครเกอร์ 589 00:27:22,815 --> 00:27:24,599 กำลังใช้ ปัญญาประดิษฐ์ 590 00:27:24,643 --> 00:27:25,861 เพื่อให้ได้ลูกค้า 591 00:27:25,905 --> 00:27:28,647 ฉันไม่คิดว่าคนเหล่านั้น ควรดูถูกดูแคลน 592 00:27:28,690 --> 00:27:30,605 ประเภทของนวัตกรรม กำลังเกิดขึ้น. 593 00:27:30,649 --> 00:27:32,694 แล้วโลกนี้ล่ะ. จะดูเหมือน 594 00:27:32,738 --> 00:27:34,261 ภายในสามถึงห้าปี จากนี้, 595 00:27:34,304 --> 00:27:36,480 ฉันคิดว่าคนคงจะมี เป็นการยากที่จะทำนายมัน 596 00:27:36,524 --> 00:27:38,787 ฉันรู้จักผู้คนมากมาย ใครทำงาน 597 00:27:38,831 --> 00:27:40,571 ในเอไอ และพวกเขาจะบอกคุณว่า 598 00:27:40,615 --> 00:27:42,791 “ดูสิ ฉันจะไปทำงาน” และฉันมีข้อสงสัย 599 00:27:42,835 --> 00:27:45,489 "ฉันกำลังทำงาน การสร้างเครื่องนี้ขึ้นมา 600 00:27:45,533 --> 00:27:47,100 “ที่สามารถรักษามะเร็งได้ 601 00:27:47,883 --> 00:27:49,450 “ยืดอายุขัยของเรา 602 00:27:49,493 --> 00:27:52,801 “ทำให้สังคมของเราดีขึ้น ยุติธรรมมากขึ้น เท่าเทียมกันมากขึ้น 603 00:27:54,020 --> 00:27:57,197 “แต่ก็สามารถทำได้เช่นกัน เป็นจุดสิ้นสุดของมนุษยชาติ" 604 00:28:00,156 --> 00:28:02,376 จุดจบของมนุษยชาติ? 605 00:28:07,033 --> 00:28:08,991 แผนของเราคืออะไร เป็นสายพันธุ์เหรอ? 606 00:28:11,472 --> 00:28:12,778 เราไม่มีอย่างใดอย่างหนึ่ง 607 00:28:14,170 --> 00:28:15,737 เราไม่มีแผน และเราไม่ตระหนัก 608 00:28:15,781 --> 00:28:17,217 มันจำเป็น มีแผน 609 00:28:26,879 --> 00:28:28,707 มาก นักวิจัย AI 610 00:28:28,750 --> 00:28:30,143 จะรักของเรา หนังสือนิยายวิทยาศาสตร์ 611 00:28:30,186 --> 00:28:32,362 และภาพยนตร์ เพื่อให้มีความสมดุลมากขึ้น 612 00:28:33,494 --> 00:28:36,149 เพื่อแสดงการใช้งาน AI ที่ดี 613 00:28:42,677 --> 00:28:45,724 สิ่งเลวร้ายทั้งหลาย เรามักจะทำ 614 00:28:45,767 --> 00:28:46,899 คุณเล่นกับพวกเขา 615 00:28:46,942 --> 00:28:50,380 จนถึงระดับสันทราย ในนิยายวิทยาศาสตร์ 616 00:28:50,424 --> 00:28:51,991 แล้วคุณก็แสดงให้พวกเขาเห็น เพื่อผู้คน 617 00:28:52,034 --> 00:28:54,254 และมันให้คุณ อาหารสมอง. 618 00:28:56,822 --> 00:28:59,389 ผู้คนจำเป็นต้องมีสัญญาณเตือนนั้น 619 00:28:59,433 --> 00:29:00,913 อยู่ด้านหลังจิตใจของพวกเขา 620 00:29:05,091 --> 00:29:06,745 ฉันคิดว่า มันสำคัญมาก 621 00:29:06,788 --> 00:29:08,834 เพื่อแยกแยะระหว่าง วิทยาศาสตร์ในด้านหนึ่ง 622 00:29:08,877 --> 00:29:11,010 และนิยายวิทยาศาสตร์ ในทางกลับกัน. 623 00:29:11,053 --> 00:29:12,489 ฉันไม่รู้ จะเกิดอะไรขึ้น 624 00:29:12,533 --> 00:29:13,752 หนึ่งพันปีต่อจากนี้ 625 00:29:13,795 --> 00:29:15,188 แต่ในฐานะใครสักคน ในสนามเพลาะ 626 00:29:15,231 --> 00:29:17,190 เหมือนคนที่กำลังสร้าง ระบบเอไอ 627 00:29:17,233 --> 00:29:20,628 ที่ทำอย่างนั้นมานานกว่านั้น กว่าหนึ่งในสี่ของศตวรรษ 628 00:29:20,671 --> 00:29:22,891 ฉันรู้สึกเหมือนฉันมี มือของฉันจับชีพจร 629 00:29:22,935 --> 00:29:24,588 ว่าจะเกิดอะไรขึ้นต่อไป 630 00:29:24,632 --> 00:29:26,982 ในอีกห้าวันข้างหน้า สิบ, 20 ปี, 631 00:29:27,026 --> 00:29:28,636 ยิ่งกว่านั้นอีกมาก กว่าคนเหล่านี้ 632 00:29:28,679 --> 00:29:31,900 ซึ่งสุดท้ายแล้วกลับไม่ใช่ การสร้างระบบ AI 633 00:29:31,944 --> 00:29:34,294 เราต้องการสร้างเทคโนโลยี ลองคิดดูสิ 634 00:29:34,337 --> 00:29:36,252 เราอยากเห็น ผู้คนมีปฏิกิริยาอย่างไรต่อมัน 635 00:29:36,296 --> 00:29:39,081 และสร้างคนรุ่นต่อไป และทำให้มันดีขึ้น 636 00:29:40,953 --> 00:29:43,694 ความกังขา เกี่ยวกับว่าสิ่งนี้โพสท่าหรือไม่ 637 00:29:43,738 --> 00:29:47,786 อันตรายใดๆ ต่อเรา ดูเหมือนแปลก 638 00:29:47,829 --> 00:29:52,094 แม้ว่าเราจะตั้งเป้าหมายไว้แล้วก็ตาม ที่เราอนุมัติ 639 00:29:52,138 --> 00:29:56,795 มันอาจสร้างเป้าหมายที่เป็นประโยชน์ ที่เราไม่อาจคาดเดาได้ 640 00:29:56,838 --> 00:29:58,666 ที่ไม่สอดคล้องกัน ด้วยความสนใจของเรา 641 00:29:58,709 --> 00:30:01,451 และนั่นคือปัญหาการจัดตำแหน่งเป้าหมาย 642 00:30:01,495 --> 00:30:03,149 การจัดตำแหน่งเป้าหมาย 643 00:30:03,192 --> 00:30:06,239 อย่างไรกันแน่ การต่อสู้กับ HAL ของฉันเริ่มต้นขึ้น 644 00:30:06,282 --> 00:30:10,112 ปัญหาการวางแนวเป้าหมาย ด้วย AI อยู่ที่ไหน 645 00:30:10,852 --> 00:30:13,463 คุณตั้งเป้าหมายไว้ 646 00:30:14,334 --> 00:30:17,554 แล้วทางล่ะ ว่ามันบรรลุเป้าหมายนี้ 647 00:30:17,598 --> 00:30:20,819 กลับกลายเป็นว่าขัดแย้งกัน กับสิ่งที่คุณต้องการจริงๆ 648 00:30:22,081 --> 00:30:25,649 ปัญหาการจัดตำแหน่ง AI แบบคลาสสิกในภาพยนตร์... 649 00:30:25,693 --> 00:30:27,521 สวัสดี ฮัล คุณอ่านใจฉันออกหรือเปล่า? 650 00:30:27,564 --> 00:30:29,566 ...คือ HAL ในปี 2544 651 00:30:30,611 --> 00:30:32,134 ฮัล คุณอ่านใจฉันออกหรือเปล่า? 652 00:30:32,178 --> 00:30:34,397 HAL ได้รับเป้าหมายที่ชัดเจน คุณอ่านฉันออกไหม HAL? 653 00:30:34,441 --> 00:30:38,662 ทำภารกิจให้สำเร็จ แต่เพื่อให้มันสำเร็จ 654 00:30:38,706 --> 00:30:40,621 เขาจะต้องทำ 655 00:30:40,664 --> 00:30:42,275 บางคน ในภารกิจเสียชีวิต 656 00:30:42,318 --> 00:30:45,191 ยืนยันเดฟ ฉันอ่านใจคุณ 657 00:30:46,453 --> 00:30:48,455 เปิดประตูช่องใส่พ็อด HAL 658 00:30:48,498 --> 00:30:50,065 ฉันขอโทษเดฟ 659 00:30:50,109 --> 00:30:51,980 ฉันเกรงว่าจะทำอย่างนั้นไม่ได้ 660 00:30:52,024 --> 00:30:55,766 “ฉันขอโทษเดฟ... ฉันทำอย่างนั้นไม่ได้” 661 00:30:55,810 --> 00:30:58,987 จริงๆ แล้ว ภาพประกอบอัจฉริยะจริงๆ 662 00:30:59,031 --> 00:31:02,512 ว่าภัยคุกคามที่แท้จริงคืออะไร จากความฉลาดขั้นสูง 663 00:31:02,556 --> 00:31:05,472 มันไม่ใช่ความอาฆาตพยาบาท มันคือความสามารถ 664 00:31:05,515 --> 00:31:07,169 HAL มีความสามารถจริงๆ 665 00:31:07,213 --> 00:31:11,913 และมีเป้าหมายนั้น แค่ไม่สอดคล้องกับของเดฟ 666 00:31:11,957 --> 00:31:13,523 ฮัล ฉันจะไม่เถียง กับคุณอีกต่อไป 667 00:31:14,437 --> 00:31:15,569 เปิดประตู! 668 00:31:16,178 --> 00:31:18,441 เดฟ บทสนทนานี้ 669 00:31:18,485 --> 00:31:22,054 ไม่สามารถให้บริการได้อีกต่อไป ลาก่อน. 670 00:31:24,317 --> 00:31:25,318 ฮาล? 671 00:31:26,580 --> 00:31:27,581 ฮาล? 672 00:31:29,235 --> 00:31:30,236 ฮาล? 673 00:31:32,455 --> 00:31:33,456 ฮัล! 674 00:31:37,808 --> 00:31:39,549 ฮาลและฉัน ต้องการสิ่งเดียวกัน 675 00:31:40,986 --> 00:31:42,596 เพียงแต่ไม่ใช่ในลักษณะเดียวกัน 676 00:31:44,119 --> 00:31:47,427 และอาจเป็นอันตรายได้ เมื่อเป้าหมายไม่ตรงกัน 677 00:31:52,127 --> 00:31:54,521 ในภาพยนตร์ของคูบริก มีวิธีแก้ปัญหา 678 00:31:55,261 --> 00:31:57,567 เมื่อ HAL พยายามจะฆ่าฉัน 679 00:31:57,611 --> 00:31:59,178 ฉันเพิ่งปิดเขา 680 00:32:01,310 --> 00:32:03,922 มีคนพูดว่า "เอาล่ะ ปิดมันซะ" 681 00:32:06,750 --> 00:32:08,665 แต่คุณไม่สามารถ เพียงแค่ปิดมัน 682 00:32:08,709 --> 00:32:10,537 เพราะพวกเขา คิดเรื่องนั้นแล้ว 683 00:32:10,580 --> 00:32:11,930 พวกเขาฉลาดมาก 684 00:32:13,453 --> 00:32:15,716 สำหรับเครื่อง มั่นใจในเป้าหมายของมัน 685 00:32:15,759 --> 00:32:18,675 แม้แต่บางสิ่งที่เรียบง่ายอย่าง "เอากาแฟมา" 686 00:32:18,719 --> 00:32:21,200 มันชัดเจนสำหรับทุกคน มีสติปัญญาเพียงพอ เครื่องจักร 687 00:32:21,243 --> 00:32:23,637 ว่ามันไม่สามารถเอากาแฟออกมาได้ ถ้ามันปิดอยู่ 688 00:32:25,769 --> 00:32:28,076 ให้มันเป็นเป้าหมาย คุณได้ให้เครื่องจักรแล้ว 689 00:32:28,120 --> 00:32:30,252 แรงจูงใจในการปกป้องตัวเอง 690 00:32:31,688 --> 00:32:33,908 มันเป็นพฤติกรรมทางจิตชนิดหนึ่ง 691 00:32:33,952 --> 00:32:37,433 ของการยึดถืออันเดียวดาย เพื่อวัตถุประสงค์บางอย่าง 692 00:32:39,261 --> 00:32:43,831 เช่น หากคุณต้องการ เพื่อพยายามพัฒนาระบบ 693 00:32:43,874 --> 00:32:46,094 ที่อาจก่อให้เกิด สันติภาพของโลก, 694 00:32:46,138 --> 00:32:48,662 บางทีอาจจะมีประสิทธิภาพมากที่สุด 695 00:32:49,184 --> 00:32:50,620 เอ่อและ 696 00:32:51,708 --> 00:32:53,188 วิธีที่รวดเร็วในการบรรลุเป้าหมายนั้น 697 00:32:53,232 --> 00:32:55,669 เป็นเพียงการทำลายล้าง มนุษย์ทุกคน 698 00:32:59,716 --> 00:33:01,196 เดี๋ยวกำจัดคนออก 699 00:33:01,240 --> 00:33:02,763 พวกเขาจะเลิกขัดแย้งกัน 700 00:33:04,069 --> 00:33:06,027 แล้วก็คงมี สันติภาพของโลก. 701 00:33:22,000 --> 00:33:23,827 โดยส่วนตัวแล้วฉันมี เวลาน้อยมาก 702 00:33:23,871 --> 00:33:26,656 สำหรับสิ่งเหล่านี้ การอภิปรายในห้องนั่งเล่น 703 00:33:26,700 --> 00:33:28,919 เราต้องสร้าง ระบบเหล่านี้ 704 00:33:28,963 --> 00:33:30,486 ทดลองกับพวกเขา 705 00:33:30,530 --> 00:33:33,359 ดูสิว่าพวกเขาไปไหนมาไหน และแก้ไขมัน 706 00:33:34,708 --> 00:33:38,146 เรามีโอกาสมากมาย เพื่อใช้ AI เพื่อประโยชน์ 707 00:33:38,190 --> 00:33:40,192 ทำไมเราถึงมุ่งเน้นไปที่ความกลัว? 708 00:33:41,410 --> 00:33:43,151 เรากำลังสร้างพวกมัน 709 00:33:43,195 --> 00:33:45,371 เบบี้เอ็กซ์เป็นตัวอย่าง 710 00:33:46,720 --> 00:33:48,461 เธอจะเป็น AI ที่ดีได้ไหม? 711 00:33:49,505 --> 00:33:51,203 ฉันคิดว่า สิ่งสำคัญในเรื่องนี้ 712 00:33:51,246 --> 00:33:53,596 นั่นคือเครื่องจักร มีความรับผิดชอบ 713 00:33:53,640 --> 00:33:54,989 และคุณสามารถดูพวกเขาได้ 714 00:33:55,033 --> 00:33:57,035 และดูว่ากำลังทำอะไรอยู่ พวกเขาติ๊ก 715 00:33:58,253 --> 00:34:01,082 และวิธีที่ดีที่สุดในการทำความเข้าใจบางสิ่งบางอย่างคือการสร้างมันขึ้นมา 716 00:34:02,301 --> 00:34:05,304 เบบี้เอ็กซ์ก็มี สรีรวิทยาเสมือนจริง 717 00:34:06,783 --> 00:34:11,484 มีวงจรความเจ็บปวด และมีวงจรแห่งความสุข 718 00:34:12,920 --> 00:34:16,184 เธอมีพารามิเตอร์ซึ่งก็คือ เป็นตัวแทนจริงๆ 719 00:34:16,228 --> 00:34:18,752 สถานะทางเคมีภายในของเธอ ถ้าคุณชอบ. 720 00:34:21,320 --> 00:34:23,887 รู้ไหม ถ้าเธอเครียด มีคอร์ติซอลสูง 721 00:34:23,931 --> 00:34:25,541 หากเธอรู้สึกดี โดปามีนสูง 722 00:34:25,585 --> 00:34:27,500 เซโรโทนินสูง สิ่งนั้น 723 00:34:28,414 --> 00:34:30,111 ทั้งหมดนี้เป็นส่วนหนึ่งของคุณนะรู้ไหม 724 00:34:30,155 --> 00:34:32,505 เพิ่มปัจจัยมนุษย์เพิ่มเติม เข้าสู่การคำนวณ 725 00:34:32,548 --> 00:34:34,985 ตอนนี้เพราะเธอมีสิ่งเหล่านี้ ระบบอารมณ์เสมือน 726 00:34:35,029 --> 00:34:36,552 ฉันสามารถทำสิ่งต่าง ๆ เช่น... 727 00:34:36,596 --> 00:34:39,251 ฉันจะหลีกเลี่ยงเธอ หรือซ่อนตัวอยู่ตรงนี้ 728 00:34:39,294 --> 00:34:41,427 เธอจึงกำลังมองหา ฉันไปไหนมา 729 00:34:42,993 --> 00:34:45,996 เราจึงควรเริ่มมองเห็น คอร์ติซอลเสมือนจริงกำลังก่อตัวขึ้น 730 00:34:46,040 --> 00:34:49,913 อุ๊ย! 731 00:34:49,957 --> 00:34:53,656 ฉันปิดเสียงแล้ว ด้วยเหตุผลบางอย่าง แต่อย่างไรก็ตาม... 732 00:34:53,700 --> 00:34:55,832 ฉันจะใส่เธอ ออกจากความทุกข์ยากของเธอ ตกลง. ขอโทษ. 733 00:34:55,876 --> 00:34:58,661 ไม่เป็นไรที่รัก อย่าร้องไห้. ใช้ได้. ใช้ได้. 734 00:34:58,705 --> 00:35:00,228 เด็กดี. ตกลง. ใช่. 735 00:35:00,272 --> 00:35:02,012 แล้วเกิดอะไรขึ้น เธอกำลังตอบสนองอยู่หรือเปล่า 736 00:35:02,056 --> 00:35:04,145 ต่อการแสดงออกทางสีหน้าของฉัน และเสียงของฉัน 737 00:35:06,452 --> 00:35:08,758 แต่สถานะทางเคมีเป็นอย่างไร 738 00:35:08,802 --> 00:35:10,412 เป็นตัวแทนใน Baby X? 739 00:35:10,456 --> 00:35:12,414 มันเป็นตัวอักษร พารามิเตอร์ทางคณิตศาสตร์ 740 00:35:12,458 --> 00:35:15,156 มีระดับ โดปามีนในระดับต่างๆ 741 00:35:15,200 --> 00:35:16,810 แต่พวกเขากำลัง แสดงด้วยตัวเลข 742 00:35:20,030 --> 00:35:23,469 แผนที่เสมือนจริงของเธอ สถานะทางเคมีประสาท 743 00:35:24,122 --> 00:35:25,427 น่าจะใกล้เคียงที่สุด 744 00:35:25,471 --> 00:35:28,387 ที่เราสามารถทำได้ ที่จะรู้สึกถึงประสบการณ์ 745 00:35:31,259 --> 00:35:33,131 ดังนั้นถ้าเราสามารถสร้าง โมเดลคอมพิวเตอร์ 746 00:35:33,174 --> 00:35:36,134 ที่เราสามารถเปลี่ยนแปลงได้ การตั้งค่าของ และพารามิเตอร์ของ 747 00:35:36,177 --> 00:35:38,440 ให้ประสบการณ์ที่แตกต่าง 748 00:35:38,484 --> 00:35:40,050 และให้มันโต้ตอบกับเรา 749 00:35:40,094 --> 00:35:42,270 เหมือนที่เราโต้ตอบกัน กับคนอื่น, 750 00:35:42,314 --> 00:35:44,272 บางทีนี่อาจเป็นวิธี สำรวจ 751 00:35:44,316 --> 00:35:45,882 สติใน วิธีการใหม่ 752 00:35:48,276 --> 00:35:50,974 ถ้าเธอทำ มีสติ 753 00:35:51,018 --> 00:35:52,846 ชีวิตแบบไหน เธอต้องการไหม? 754 00:35:55,240 --> 00:35:57,894 AI ถ้ามันยังมีสติ 755 00:35:57,938 --> 00:36:00,506 มันก็เหมือนกับลูกของคุณ 756 00:36:03,117 --> 00:36:05,337 มันมีสิทธิมั้ย? 757 00:36:05,380 --> 00:36:07,513 ปีที่แล้ว, ผู้ร่างกฎหมายชาวยุโรป ผ่านการลงมติ 758 00:36:07,556 --> 00:36:11,560 เพื่อให้สถานะทางกฎหมาย ให้กับบุคคลอิเล็กทรอนิกส์ 759 00:36:11,604 --> 00:36:13,171 การเคลื่อนไหวนั้นมาถึงแล้ว กำลังพิจารณาอยู่ 760 00:36:13,214 --> 00:36:14,868 โดยคณะกรรมาธิการยุโรป 761 00:36:16,565 --> 00:36:17,871 เครื่องมีสิทธิ. 762 00:36:19,394 --> 00:36:20,656 เราพร้อมหรือยัง? 763 00:36:22,441 --> 00:36:25,313 ฉันคิดว่ามันเพิ่มขึ้น ปัญหาด้านศีลธรรมและจริยธรรม 764 00:36:25,357 --> 00:36:27,228 ซึ่งเราจริงๆ 765 00:36:27,924 --> 00:36:31,276 เป็นเนื้อหาส่วนใหญ่ที่จะเพิกเฉย 766 00:36:35,845 --> 00:36:37,456 มันคืออะไร ที่เราต้องการจริงๆเหรอ? 767 00:36:38,761 --> 00:36:40,850 เราต้องการสิ่งมีชีวิต สิ่งมีชีวิต ที่เราสามารถทำได้ 768 00:36:40,894 --> 00:36:42,548 โต้ตอบด้วยวิธีใดวิธีหนึ่ง 769 00:36:42,591 --> 00:36:45,507 นั่นก็เพียงพอแล้วเหมือนเรา ที่เราสามารถเกี่ยวข้องกับมันได้ 770 00:36:45,551 --> 00:36:48,728 แต่สามารถแจกจ่ายได้ หรือทิ้ง 771 00:36:50,469 --> 00:36:52,471 ประการแรกและโดดเด่นที่สุด 772 00:36:52,514 --> 00:36:54,255 ฉันคิดว่าอยู่ในเมโทรโพลิส 773 00:36:58,303 --> 00:37:00,522 ร่างแฝดมาเรียที่ถูกสร้างขึ้นโดย 774 00:37:00,566 --> 00:37:03,917 นักวิทยาศาสตร์จำลองผู้หญิงเซ็กซี่ 775 00:37:08,226 --> 00:37:11,359 และสิ่งนี้จะกลับไป ถึงความหลงใหลในความเป็นทาสของเรา 776 00:37:11,403 --> 00:37:12,534 ลงมาตามยุคสมัย 777 00:37:12,578 --> 00:37:14,144 มารับคนกันเถอะ ที่เราสามารถทำได้ 778 00:37:14,188 --> 00:37:16,538 ในทางใดทางหนึ่งลดทอนความเป็นมนุษย์ 779 00:37:16,582 --> 00:37:19,019 และเราสามารถทำได้ สิ่งที่เราต้องการกับพวกเขา 780 00:37:19,062 --> 00:37:21,282 ดังนั้น ผมคิดว่า เราก็แค่ คุณรู้ไหม 781 00:37:21,326 --> 00:37:23,241 หาวิธีใหม่ เพื่อทำทาส 782 00:37:27,332 --> 00:37:30,465 มันจะเหมาะกับเราไหม. เพื่อให้เขาเป็นทาสของเรา? 783 00:37:33,512 --> 00:37:35,731 ทั้งหมดนี้จะกลายเป็น แปลกเล็กน้อยตามหลักจริยธรรม 784 00:37:35,775 --> 00:37:38,821 ถ้าเราเกิดขึ้น โดยการเลือกหรือโดยบังเอิญ 785 00:37:38,865 --> 00:37:40,867 สร้างทาสที่มีสติ 786 00:37:40,910 --> 00:37:44,653 นั่นดูเหมือนเป็นศีลธรรม สิ่งที่น่าสงสัยที่ต้องทำ 787 00:37:44,697 --> 00:37:47,090 ถ้าไม่ใช่โดยสิ้นเชิง สิ่งชั่วร้ายที่ต้องทำ 788 00:37:47,134 --> 00:37:49,267 ปัญญาประดิษฐ์ กำลังเดินทางมา 789 00:37:49,310 --> 00:37:51,094 สู่ตลาดเซ็กส์ระดับโลก 790 00:37:51,138 --> 00:37:53,096 บริษัทแห่งหนึ่งในแคลิฟอร์เนีย จะเปิดตัวเร็วๆ นี้ 791 00:37:53,140 --> 00:37:56,143 ใหม่เหมือนจริงอย่างไม่น่าเชื่อ หุ่นยนต์ทางเพศ 792 00:37:56,186 --> 00:37:58,537 วิ่งตาม ปัญญาประดิษฐ์. 793 00:37:58,580 --> 00:38:00,452 แอปพลิเคชั่นเดียว นั่นทำให้ฉันลำบากใจ 794 00:38:00,495 --> 00:38:02,802 คือการเพิ่มขึ้นของหุ่นยนต์ทางเพศ 795 00:38:02,845 --> 00:38:06,327 ที่มีรูปร่าง ในภาพลักษณ์ของผู้หญิงจริงๆ 796 00:38:06,371 --> 00:38:08,895 ฉันเป็นแล้ว ยึดครองโลก 797 00:38:08,938 --> 00:38:10,462 ครั้งละหนึ่งห้องนอน 798 00:38:11,332 --> 00:38:13,116 หากพวกเขามีสติ 799 00:38:13,160 --> 00:38:15,162 สามารถมีความรู้สึก 800 00:38:15,205 --> 00:38:18,948 ของการประสบกับความเจ็บปวด และความทุกข์ทรมาน 801 00:38:18,992 --> 00:38:22,735 และพวกเขากำลังเป็นอยู่ อยู่ภายใต้ความเสื่อมทรามและโหดร้าย 802 00:38:22,778 --> 00:38:26,869 หรือรูปแบบอื่นโดยสิ้นเชิง การรักษาที่ยอมรับไม่ได้ 803 00:38:26,913 --> 00:38:30,525 อันตรายก็คือว่า เราก็จะหมดความรู้สึก 804 00:38:30,569 --> 00:38:34,094 ในสิ่งที่เป็นที่ยอมรับในทางศีลธรรม และอะไรที่ไม่ใช่ 805 00:38:40,796 --> 00:38:44,670 หากเธอมีสติ เธอควรจะปฏิเสธได้ 806 00:38:44,713 --> 00:38:45,714 ขวา? 807 00:38:50,197 --> 00:38:51,720 เธอควรจะมีพลังนั้นไม่ใช่เหรอ? 808 00:38:54,680 --> 00:38:58,814 ไม่ใช่คำถามเหล่านี้ เราต้องถามตอนนี้เหรอ? 809 00:39:01,034 --> 00:39:04,080 เราต้องการอะไร หมายถึงการเป็นมนุษย์เหรอ? 810 00:39:05,299 --> 00:39:08,171 สายพันธุ์อื่น ๆ ทั้งหมดบนโลก จนถึงตอนนี้ 811 00:39:08,215 --> 00:39:10,522 ไม่มีความหรูหรา 812 00:39:10,565 --> 00:39:12,480 เพื่อตอบสิ่งที่พวกเขา ต้องการให้มันหมายถึง 813 00:39:12,524 --> 00:39:14,439 เพื่อเป็นหนู หรือจะเป็นไส้เดือน 814 00:39:14,482 --> 00:39:17,659 แต่ตอนนี้เรามาถึงแล้ว จุดเปลี่ยนนี้ 815 00:39:17,703 --> 00:39:20,401 ความเข้าใจของเราอยู่ที่ไหน ของวิทยาศาสตร์และเทคโนโลยี 816 00:39:20,445 --> 00:39:23,186 ได้มาถึงจุดนั้นแล้ว เราสามารถเปลี่ยนแปลงได้อย่างสมบูรณ์ 817 00:39:23,230 --> 00:39:24,710 การเป็นเราหมายความว่าอย่างไร 818 00:39:30,890 --> 00:39:33,588 มันจะหมายถึงอะไร จะเป็นมนุษย์เหรอ? 819 00:39:36,896 --> 00:39:41,553 ถ้าเครื่องจักรมีมากขึ้น เราจะน้อยลงไหม? 820 00:39:43,642 --> 00:39:46,601 คอมพิวเตอร์ดีพบลู คืนนี้มีชัยไปแล้ว 821 00:39:46,645 --> 00:39:48,951 แชมป์หมากรุกโลก แกร์รี คาสปารอฟ. 822 00:39:48,995 --> 00:39:51,040 มันเป็นครั้งแรก เครื่องจักรได้พ่ายแพ้ 823 00:39:51,084 --> 00:39:52,390 แชมป์โลกที่ครองราชย์ 824 00:39:52,433 --> 00:39:53,521 เพิ่มเติมเกี่ยวกับการประลองนั้น 825 00:39:53,565 --> 00:39:55,262 ที่แห่งหนึ่งของอเมริกา ที่รักที่สุด 826 00:39:55,305 --> 00:39:56,481 เกมโชว์ อันตราย! 827 00:39:56,524 --> 00:39:58,483 แชมป์เปี้ยนมนุษย์สองคนกำลังไป 828 00:39:58,526 --> 00:40:01,399 สมองสู่สมองด้วยซูเปอร์คอมพิวเตอร์ชื่อวัตสัน 829 00:40:01,442 --> 00:40:02,661 การพิพากษาครั้งสุดท้ายคืออะไร? 830 00:40:02,704 --> 00:40:04,010 ถูกต้อง. ไปอีกครั้ง. วัตสัน. 831 00:40:04,053 --> 00:40:06,012 ฌอง วัลฌองคือใคร? - ถูกต้อง. 832 00:40:06,055 --> 00:40:07,796 มีโปรแกรมคอมพิวเตอร์ของ Google 833 00:40:07,840 --> 00:40:10,190 พ่ายแพ้อีกครั้ง แชมป์โลกในโก 834 00:40:10,233 --> 00:40:12,453 Go เกมกระดานจีนโบราณ 835 00:40:12,497 --> 00:40:15,238 เป็นหนึ่งในสิ่งที่ซับซ้อนที่สุด เกมที่เคยคิดขึ้นมา 836 00:40:15,282 --> 00:40:18,154 ถือเป็นอีกก้าวสำคัญใน ความเร่งรีบในการพัฒนาเครื่องจักร 837 00:40:18,198 --> 00:40:19,765 ที่ฉลาดกว่ามนุษย์ 838 00:40:19,808 --> 00:40:21,897 เรามี อากาศแห่งความเหนือกว่านี้ 839 00:40:21,941 --> 00:40:23,551 เราในฐานะมนุษย์ 840 00:40:23,595 --> 00:40:27,425 เราก็เลยคุ้นเคยกันดี เด็กที่ฉลาดที่สุดในบล็อก 841 00:40:27,468 --> 00:40:30,428 และฉันก็คิดอย่างนั้น นี่ไม่ใช่กรณีอีกต่อไป 842 00:40:30,471 --> 00:40:34,606 และเรารู้สิ่งนั้น เพราะเราพึ่งเอไอ 843 00:40:34,649 --> 00:40:37,043 เพื่อช่วยให้เราทำ การตัดสินใจที่สำคัญมากมาย 844 00:40:40,699 --> 00:40:44,746 มนุษย์นั้นไร้เหตุผล ในทางที่เลวร้ายหลายประการ 845 00:40:44,790 --> 00:40:48,968 เรามีอคติ เราเริ่มสงคราม เราฆ่าผู้คน 846 00:40:51,318 --> 00:40:53,276 หากคุณต้องการเพิ่มขีดสุด โอกาส 847 00:40:53,320 --> 00:40:55,278 ของผู้รอดชีวิตโดยรวม 848 00:40:55,322 --> 00:40:57,629 โดยพื้นฐานแล้วคุณควร ให้มากขึ้นเรื่อยๆ 849 00:40:57,672 --> 00:40:59,805 อำนาจในการตัดสินใจ ไปยังคอมพิวเตอร์ 850 00:41:05,158 --> 00:41:08,161 บางทีเครื่องจักรอาจทำงานได้ดีกว่าเรา 851 00:41:10,250 --> 00:41:11,251 อาจจะ. 852 00:41:19,520 --> 00:41:22,305 ฉันตื่นเต้นมาก และรู้สึกเป็นเกียรติที่ได้มาอยู่ที่นี่ 853 00:41:22,349 --> 00:41:23,872 ที่สหประชาชาติ 854 00:41:23,916 --> 00:41:27,876 อนาคตอยู่ที่นี่ มันเป็นเพียง กระจายไม่เท่ากัน 855 00:41:27,920 --> 00:41:29,835 เอไอสามารถช่วยได้ กระจายอย่างมีประสิทธิภาพ 856 00:41:29,878 --> 00:41:31,663 โลก ทรัพยากรที่มีอยู่ 857 00:41:31,706 --> 00:41:33,534 เช่นอาหารและพลังงาน 858 00:41:34,883 --> 00:41:37,451 ฉันมาที่นี่เพื่อช่วยมนุษยชาติ สร้างอนาคต 859 00:41:40,541 --> 00:41:42,369 อันที่หนึ่ง สถานการณ์ที่ชาญฉลาดอย่างยิ่ง 860 00:41:42,412 --> 00:41:43,936 นั่นเป็นเรื่องเร้าใจ คิดเกี่ยวกับ 861 00:41:43,979 --> 00:41:46,765 คือสิ่งที่ฉันเรียกว่า เผด็จการที่มีเมตตา 862 00:41:46,808 --> 00:41:48,941 ที่คุณมี ความฉลาดขั้นสูงนี้ ซึ่งขับเคลื่อนโลก 863 00:41:48,984 --> 00:41:51,117 ปฏิบัติตามหลักจริยธรรมอันเข้มงวดที่พยายาม 864 00:41:51,160 --> 00:41:52,945 เพื่อช่วยให้มนุษยชาติเจริญรุ่งเรือง 865 00:41:54,642 --> 00:41:56,165 ทุกคนจะชอบสิ่งนั้นไหม? 866 00:41:56,209 --> 00:41:57,297 หากไม่มีโรคภัยไข้เจ็บ 867 00:41:57,340 --> 00:41:59,038 ไม่มีความยากจน ไม่มีอาชญากรรม... 868 00:42:00,039 --> 00:42:02,345 หลายๆคนคงจะ ชอบมันมาก 869 00:42:02,389 --> 00:42:03,999 ในวันนี้ 870 00:42:04,043 --> 00:42:06,436 แต่ฉันสามารถจินตนาการได้ว่าบางอย่าง อาจจะยังคร่ำครวญอยู่ 871 00:42:06,480 --> 00:42:09,831 ว่ามนุษย์เรายุติธรรม ไม่มีเสรีภาพมากขึ้น 872 00:42:09,875 --> 00:42:13,052 เพื่อกำหนดแนวทางของเราเอง และ เอ่อ... 873 00:42:15,968 --> 00:42:18,623 มันเป็นเรื่องยาก มันเป็นอย่างนั้นจริงๆ เรา... 874 00:42:18,666 --> 00:42:20,668 ฉันไม่คิดว่าคนส่วนใหญ่ อยากจะเป็นเช่นนั้น 875 00:42:20,712 --> 00:42:23,279 เหมือนกับสัตว์ในสวนสัตว์ที่ไม่มี... 876 00:42:28,197 --> 00:42:29,808 ในทางกลับกัน... 877 00:42:29,851 --> 00:42:30,896 ใช่. 878 00:42:31,810 --> 00:42:33,202 ฉันไม่มีคำตอบสั้นๆ 879 00:42:33,246 --> 00:42:34,769 ถึงสิ่งเหล่านี้จริงๆ คำถามที่ยาก 880 00:42:34,813 --> 00:42:36,858 นั่นเป็นเหตุผลที่ฉันคิดว่า มันสำคัญมาก 881 00:42:36,902 --> 00:42:38,730 ว่าเราในฐานะประชาคมโลก 882 00:42:38,773 --> 00:42:41,820 หารือเกี่ยวกับพวกเขาตอนนี้จริงๆ 883 00:42:41,863 --> 00:42:43,604 เครื่องจักรนั้น สามารถอ่านใบหน้าของคุณได้ 884 00:42:43,648 --> 00:42:44,910 รับรู้สัญญาณทางอารมณ์. 885 00:42:44,953 --> 00:42:46,781 ใกล้ชิดกับสมองมากขึ้น กระบวนการของมนุษย์... 886 00:42:46,825 --> 00:42:48,304 หุ่นยนต์ตื้นตันใจ กับชีวิต... 887 00:42:48,348 --> 00:42:49,871 คอมพิวเตอร์ทางอารมณ์... 888 00:42:49,915 --> 00:42:52,395 ทั้งนี้ ตั้งแต่บัดนี้เป็นต้นไป ไม่ว่า ไม่ว่าคุณจะคิด 889 00:42:52,439 --> 00:42:54,223 เราแค่จะติดขัด ด้วย AI ที่แคบ 890 00:42:54,267 --> 00:42:57,705 หรือเราจะได้ AI ทั่วไป หรือรับ AI อัจฉริยะขั้นสูง 891 00:42:57,749 --> 00:42:59,011 หรือมีสติ อัจฉริยะสุดๆ... 892 00:42:59,054 --> 00:43:00,839 ทุกที่ที่คุณคิด เราจะไปถึง 893 00:43:00,882 --> 00:43:03,189 ฉันคิดว่าขั้นตอนใด ๆ ตามนั้น 894 00:43:03,842 --> 00:43:05,844 จะเปลี่ยนสิ่งที่เราเป็น 895 00:43:07,454 --> 00:43:09,587 ลุกขึ้นมาเลยคุณเจ 896 00:43:11,806 --> 00:43:13,721 คำถาม คุณต้องถามคือ 897 00:43:13,765 --> 00:43:16,158 AI จะทำอะไรบางอย่างไหม สำหรับคุณ 898 00:43:16,202 --> 00:43:17,507 หรืออะไรบางอย่างกับคุณ? 899 00:43:17,551 --> 00:43:19,727 ฉันกำลังฝันอยู่ เกี่ยวกับการนอน 900 00:43:19,771 --> 00:43:21,424 ถ้าเราสร้างระบบเอไอ 901 00:43:21,468 --> 00:43:22,948 ที่ทำทุกอย่างที่เราต้องการ 902 00:43:22,991 --> 00:43:26,647 เราก็จะส่งมอบ โลกของเราให้กับพวกเขา 903 00:43:26,691 --> 00:43:29,955 ความอ่อนน้อมถ่อมตนเช่นนั้น เป็นประเภทที่ไม่สามารถย้อนกลับได้ 904 00:43:33,741 --> 00:43:37,789 มีความเสี่ยงที่มีอยู่ นั่นเป็นเรื่องจริงและจริงจัง 905 00:43:39,312 --> 00:43:41,880 หากทุกความปรารถนา 906 00:43:41,923 --> 00:43:44,839 ความชอบ ความต้องการ จัดให้แล้ว... 907 00:43:44,883 --> 00:43:47,668 อรุณสวัสดิ์โรซี่ อาหารเช้ามีอะไรบ้าง? 908 00:43:47,712 --> 00:43:50,802 ...เราไม่สังเกต ว่าความสามารถของเรา 909 00:43:50,845 --> 00:43:53,587 เพื่อตัดสินใจ เพื่อตัวเราเอง 910 00:43:53,631 --> 00:43:56,285 ได้ถูกกัดเซาะอย่างช้าๆ 911 00:43:56,808 --> 00:43:58,374 นี่คือจอร์จ เจ็ตสัน 912 00:43:58,418 --> 00:44:01,160 ลงชื่อออกเพื่อ ตลอดทั้งวัน 913 00:44:03,118 --> 00:44:05,468 ไม่มีทางกลับไป จากที่นั่น. ทำไม 914 00:44:05,512 --> 00:44:08,384 เพราะ AI สามารถสร้างได้ การตัดสินใจดังกล่าว 915 00:44:08,428 --> 00:44:09,951 ด้วยความแม่นยำที่สูงขึ้น 916 00:44:09,995 --> 00:44:12,345 กว่าอะไรก็ตาม มนุษย์สามารถบรรลุได้ 917 00:44:14,390 --> 00:44:17,785 ฉันมีการสนทนา กับวิศวกร แล้วเขาก็พูดว่า 918 00:44:17,829 --> 00:44:20,701 “ดูสิ วิธีที่ปลอดภัยที่สุด ของการลงเครื่องบินในวันนี้ 919 00:44:20,745 --> 00:44:22,311 “คือการมีนักบิน ออกจากดาดฟ้า 920 00:44:22,355 --> 00:44:23,704 “แล้วโยนกุญแจทิ้งไป 921 00:44:23,748 --> 00:44:25,837 “เพราะว่าเป็นวิธีที่ปลอดภัยที่สุด 922 00:44:25,880 --> 00:44:29,362 "คือการใช้ นักบินอัตโนมัติ และ AI" 923 00:44:31,843 --> 00:44:33,714 เราไม่สามารถ จัดการความซับซ้อน 924 00:44:33,758 --> 00:44:35,411 ของโลกด้วยตัวเราเอง 925 00:44:35,455 --> 00:44:37,718 รูปแบบสติปัญญาของเรา 926 00:44:37,762 --> 00:44:40,547 น่าทึ่งมาก มีข้อบกพร่องอย่างร้ายแรง 927 00:44:40,590 --> 00:44:42,854 และโดยการเพิ่ม ผู้ช่วยเพิ่มเติม 928 00:44:42,897 --> 00:44:44,943 ซึ่งเป็น ปัญญาประดิษฐ์, 929 00:44:44,986 --> 00:44:47,336 เรายืนหยัดในความสามารถ เพื่อปรับปรุงให้ดีขึ้นได้ 930 00:44:47,380 --> 00:44:49,643 การรับรู้ของเราอย่างมาก 931 00:44:49,687 --> 00:44:52,994 สิ่งที่ล้ำสมัยที่สุด เกี่ยวกับ ฮันเนส โชบลัด 932 00:44:53,038 --> 00:44:54,735 ไม่ใช่โทรศัพท์ที่อยู่ในมือของเขา 933 00:44:54,779 --> 00:44:57,782 มันคือไมโครชิป ในมือของเขา 934 00:44:57,825 --> 00:44:59,348 จะเป็นอย่างไรถ้าคุณทำได้ พิมพ์บางอย่าง 935 00:44:59,392 --> 00:45:00,872 แค่คิดเกี่ยวกับมันเหรอ? 936 00:45:00,915 --> 00:45:01,960 ฟังดูเหมือนไซไฟเลย 937 00:45:02,003 --> 00:45:03,396 แต่มันอาจจะใกล้แล้ว สู่ความเป็นจริง 938 00:45:03,439 --> 00:45:05,354 ในเวลาเพียงห้าปี 939 00:45:05,398 --> 00:45:08,009 คนที่ฉลาดสุดๆ ก็เป็นได้ เดินไปตามถนน, 940 00:45:08,053 --> 00:45:09,532 ชายและหญิงที่ชำระเงินแล้ว 941 00:45:09,576 --> 00:45:11,273 เพื่อเพิ่ม ความฉลาดของพวกเขา 942 00:45:11,317 --> 00:45:14,233 การเชื่อมโยงสมองกับคอมพิวเตอร์ โดยใช้รากฟันเทียม 943 00:45:14,276 --> 00:45:16,104 จะเป็นอย่างไรถ้าเราสามารถอัพโหลดได้ สำเนาดิจิทัล 944 00:45:16,148 --> 00:45:18,193 ของความทรงจำของเรา และมีสติถึงจุดหนึ่ง 945 00:45:18,237 --> 00:45:19,542 มนุษย์คนนั้น สามารถบรรลุได้ 946 00:45:19,586 --> 00:45:21,283 ความเป็นอมตะทางดิจิทัลประเภทหนึ่งเหรอ? 947 00:45:21,327 --> 00:45:22,720 แค่ปีที่แล้ว 948 00:45:22,763 --> 00:45:25,331 สำหรับครั้งแรก ในประวัติศาสตร์โลก 949 00:45:25,374 --> 00:45:26,854 หน่วยความจำถูกบันทึกไว้ 950 00:45:26,898 --> 00:45:28,638 เรารับได้จริงๆ หน่วยความจำที่บันทึกไว้ 951 00:45:28,682 --> 00:45:30,815 และใส่กลับเข้าไป กลายเป็นสัตว์ 952 00:45:30,858 --> 00:45:32,294 และมันจำได้ 953 00:45:32,338 --> 00:45:33,774 เทคโนโลยีเป็นส่วนหนึ่งของเรา 954 00:45:33,818 --> 00:45:35,210 มันเป็นภาพสะท้อนของ พวกเราคือใคร. 955 00:45:35,254 --> 00:45:38,257 นั่นคือเรื่องเล่า เราควรจะคิดถึง 956 00:45:38,300 --> 00:45:42,435 เราคิดว่าทั้งหมดที่มีอยู่ คือทุกสิ่งที่เราจินตนาการได้ 957 00:45:42,478 --> 00:45:44,002 เมื่อในความเป็นจริงแล้ว เราสามารถจินตนาการได้ 958 00:45:44,045 --> 00:45:46,874 เซตย่อยที่เล็กมาก ของอะไร อาจจะเป็นไปได้ 959 00:45:46,918 --> 00:45:48,571 สิ่งที่น่าสนใจอย่างแท้จริง ในโลก 960 00:45:48,615 --> 00:45:50,399 คือสิ่งที่นั่งอยู่ เกินกว่าจินตนาการของเรา 961 00:45:51,836 --> 00:45:54,142 เมื่อสิ่งเหล่านี้ ระบบขนาดใหญ่เกิดขึ้น 962 00:45:54,186 --> 00:45:56,405 เป็นสายพันธุ์ ฉันคิดว่าเราได้ F 963 00:45:56,449 --> 00:45:59,408 สำหรับความสามารถของเราในการทำนาย สิ่งที่พวกเขากำลังจะกลายเป็น 964 00:46:00,932 --> 00:46:03,543 เทคโนโลยี ได้เปลี่ยนแปลงเราอยู่เสมอ 965 00:46:04,457 --> 00:46:05,806 เราพัฒนาไปกับมัน 966 00:46:06,851 --> 00:46:09,897 เราเตรียมตัวมาไกลแค่ไหน. จะไปครั้งนี้เหรอ? 967 00:46:10,855 --> 00:46:13,074 มีอยู่ช่วงหนึ่ง เมื่ออริสโตเติล 968 00:46:13,118 --> 00:46:15,337 ทรงคร่ำครวญถึงการทรงสร้าง ของภาษาเขียน 969 00:46:15,381 --> 00:46:18,079 เพราะเขาบอกว่าสิ่งนี้จะ ทำลายความทรงจำของผู้คน 970 00:46:18,123 --> 00:46:19,646 และมันจะเป็น สิ่งที่แย่มาก 971 00:46:19,689 --> 00:46:22,823 แต่วันนี้ฉันก็ถือ สมองของฉันอยู่ในกระเป๋าของฉัน 972 00:46:22,867 --> 00:46:24,520 ในรูปแบบของสมาร์ทโฟนของฉัน 973 00:46:24,564 --> 00:46:27,915 และนั่นทำให้วิธีการเปลี่ยนไป ฉันผ่านไปทั่วโลก 974 00:46:27,959 --> 00:46:30,483 โอ้ ฉันคิดว่าเราเป็นเช่นนั้นจริงๆ ผสมผสานกับเทคโนโลยีของเรา 975 00:46:30,526 --> 00:46:33,791 อย่างแน่นอน. ฉันจะ... ฉันจะ ใช้คำว่า "ร่วมพัฒนา" 976 00:46:36,750 --> 00:46:38,578 เรากำลังพัฒนาเพื่อให้ตรงกับความต้องการของเรา 977 00:46:38,621 --> 00:46:42,190 และเรากำลังเปลี่ยนแปลงเพื่อให้ตรงกับสิ่งที่มันสามารถให้กับเราได้ 978 00:46:45,759 --> 00:46:49,023 ดังนั้นแทนที่จะเป็น ถูกแทนที่ด้วยเครื่องจักร 979 00:46:49,067 --> 00:46:51,417 เราจะรวมเข้าด้วยกัน กับพวกเขา? 980 00:46:51,460 --> 00:46:54,463 ฉันมีเพื่อนจำนวนหนึ่ง ผู้ที่มีแขนไบโอนิค 981 00:46:54,507 --> 00:46:55,813 พวกเขาเป็นไซบอร์กเหรอ? 982 00:46:55,856 --> 00:46:57,075 ในทาง, พวกเขาอยู่บนเส้นทางนั้น 983 00:46:57,118 --> 00:46:59,468 ฉันมีคน ผู้ที่มีการปลูกถ่าย 984 00:46:59,512 --> 00:47:02,123 ในหูของพวกเขา พวกเขาเป็น AI หรือไม่? 985 00:47:02,167 --> 00:47:04,082 เรามาถูกทางแล้ว บนเส้นทางนั้น 986 00:47:04,125 --> 00:47:06,301 ของการเสริมร่างกายมนุษย์ 987 00:47:07,912 --> 00:47:09,696 ศักยภาพของมนุษย์นั้นโกหก 988 00:47:09,739 --> 00:47:12,133 ในการร่วมวิวัฒนาการนี้ ความสัมพันธ์. 989 00:47:12,177 --> 00:47:14,048 คนเยอะมาก กำลังพยายามที่จะยึดมั่น 990 00:47:14,092 --> 00:47:16,137 สิ่งที่ทำให้พวกเขา พิเศษและไม่เหมือนใคร 991 00:47:16,181 --> 00:47:17,878 ซึ่งไม่ใช่ กรอบที่ถูกต้อง 992 00:47:17,922 --> 00:47:19,227 มาสร้างเพิ่มเติมกันเถอะ 993 00:47:21,229 --> 00:47:24,058 เขียนสติปัญญาของเราใหม่ ปรับปรุงทุกอย่าง 994 00:47:24,102 --> 00:47:27,192 เราสามารถทำได้ อารมณ์, จินตนาการความคิดสร้างสรรค์ 995 00:47:27,235 --> 00:47:29,020 ทุกสิ่งนั้น ทำให้เราเป็นมนุษย์ 996 00:47:33,894 --> 00:47:35,896 มีแล้ว ความสัมพันธ์ทางชีวภาพ 997 00:47:35,940 --> 00:47:39,465 ระหว่างเรากับเครื่องจักร นั่นคือการเสริมสร้างสิ่งที่เราเป็น 998 00:47:43,338 --> 00:47:45,775 และ... และมีการเคลื่อนไหวทั้งหมด คุณรู้ไหม 999 00:47:45,819 --> 00:47:47,386 การเคลื่อนไหวข้ามมนุษย์ 1000 00:47:47,429 --> 00:47:48,735 โดยพื้นฐานแล้ว 1001 00:47:48,778 --> 00:47:51,259 ผู้คนเดิมพันครั้งใหญ่จริงๆ 1002 00:47:51,303 --> 00:47:52,826 บนความคิดที่ว่า 1003 00:47:52,870 --> 00:47:54,872 การบูรณาการระหว่างมนุษย์กับเครื่องจักรนี้ 1004 00:47:54,915 --> 00:47:57,091 กำลังจะกำหนดนิยามใหม่ว่าเราเป็นใคร 1005 00:48:00,921 --> 00:48:02,227 แค่นี้ก็จะโตแล้ว 1006 00:48:06,100 --> 00:48:08,407 จะมีการเรียนรู้. กระบวนการที่ทำให้เรา 1007 00:48:08,450 --> 00:48:11,801 ไปสู่จุดสิ้นสุดนั้นที่ไหน เราอาศัยอยู่กับอุปกรณ์เหล่านี้ 1008 00:48:11,845 --> 00:48:13,934 ที่กลายเป็น ฉลาดขึ้นและฉลาดขึ้น 1009 00:48:13,978 --> 00:48:15,805 เราเรียนรู้ วิธีปรับตัวตัวเราเอง 1010 00:48:15,849 --> 00:48:17,546 รอบ ๆ พวกเขา, และพวกมันก็ปรับตัวเข้ากับเรา 1011 00:48:17,590 --> 00:48:20,158 และฉันหวังว่าเราจะเป็น มีมนุษย์มากขึ้นในกระบวนการนี้ 1012 00:48:23,683 --> 00:48:25,903 มันเป็นเรื่องยาก เพื่อทำความเข้าใจว่าการผสานกันเป็นอย่างไร 1013 00:48:25,946 --> 00:48:27,165 กับเครื่องจักร 1014 00:48:27,208 --> 00:48:28,557 สามารถทำให้เราเป็นมนุษย์มากขึ้น 1015 00:48:30,081 --> 00:48:33,127 แต่เป็นการรวมตัวกัน โอกาสรอดที่ดีที่สุดของเราเหรอ? 1016 00:48:35,086 --> 00:48:36,652 มนุษย์เรามีข้อจำกัด 1017 00:48:36,696 --> 00:48:39,699 ถึงจำนวนเซลล์ประสาท เราสามารถใส่เข้าไปในสมองของเราได้ 1018 00:48:39,742 --> 00:48:42,615 และยังมีสัตว์สายพันธุ์อื่นที่มีสมองเล็กกว่าอีกด้วย 1019 00:48:44,138 --> 00:48:46,314 เมื่อคุณมองดู ผึ้งและปลาเคลื่อนไหว 1020 00:48:46,358 --> 00:48:49,230 ดูเหมือนว่า สิ่งมีชีวิตเดียว 1021 00:48:49,274 --> 00:48:52,320 และนักชีววิทยาก็อ้างถึงจริงๆ ให้เป็นสิ่งมีชีวิตขั้นสุดยอด 1022 00:48:56,237 --> 00:48:58,326 ด้วยเหตุนี้นกจึงแห่กันไป 1023 00:48:58,370 --> 00:49:00,546 และฝูงผึ้งก็รุม และโรงเรียนสอนปลา 1024 00:49:00,589 --> 00:49:03,462 พวกเขาตัดสินใจโดยคำนึงถึงผลประโยชน์สูงสุด 1025 00:49:03,505 --> 00:49:04,942 ของประชากรทั้งหมด 1026 00:49:04,985 --> 00:49:08,380 โดยการคิดร่วมกัน เช่นเดียวกับจิตใจที่ใหญ่กว่านี้ 1027 00:49:12,558 --> 00:49:15,474 และมนุษย์เราก็สามารถทำได้ สิ่งเดียวกันโดยการขึ้นรูป 1028 00:49:15,517 --> 00:49:18,520 จิตใจที่เชื่อมโยงเราเข้าด้วยกัน ร่วมกับเอไอ 1029 00:49:19,782 --> 00:49:21,828 ดังนั้นมนุษย์และซอฟต์แวร์จึงอยู่ด้วยกัน 1030 00:49:21,871 --> 00:49:24,265 กลายเป็นความฉลาดขั้นสุดยอดนี้ 1031 00:49:24,309 --> 00:49:28,008 ทำให้เราสามารถตัดสินใจได้ดีที่สุดสำหรับเราทุกคน 1032 00:49:30,663 --> 00:49:33,274 เมื่อฉันเริ่มมองหาครั้งแรก เมื่อกี้มันก็ดังขึ้น น่ากลัวสำหรับฉัน 1033 00:49:33,318 --> 00:49:35,189 แต่แล้วฉันก็ตระหนักได้ มันน่ากลัวกว่า 1034 00:49:35,233 --> 00:49:37,104 สำหรับหน่วยสืบราชการลับของมนุษย์ต่างดาว 1035 00:49:37,148 --> 00:49:40,107 ให้ปรากฏว่ามี ไม่มีอะไรเกี่ยวข้องกับมนุษย์ 1036 00:49:40,151 --> 00:49:42,849 มากกว่าสำหรับมนุษย์อย่างพวกเรา เพื่อเชื่อมต่อเข้าด้วยกัน 1037 00:49:42,892 --> 00:49:44,677 และกลายเป็น สุดยอดสติปัญญา 1038 00:49:44,720 --> 00:49:46,809 นั่นคือทิศทาง ที่ฉันทำงานอยู่ 1039 00:49:46,853 --> 00:49:48,898 เอ่อ เพราะฉันเห็นมันเป็น 1040 00:49:48,942 --> 00:49:51,031 ในแง่หนึ่ง ทางเลือกเดียว 1041 00:49:51,075 --> 00:49:53,991 สู่มนุษย์ในที่สุด ถูกแทนที่ด้วย AI 1042 00:49:56,776 --> 00:50:00,301 Baby X ช่วยเราได้ไหม เข้าใจเครื่องจักร 1043 00:50:00,345 --> 00:50:02,347 แล้วเราจะได้ร่วมงานกันไหม? 1044 00:50:03,522 --> 00:50:06,655 เครื่องจักรของมนุษย์และชาญฉลาด ความร่วมมือจะกำหนด 1045 00:50:06,699 --> 00:50:08,179 ยุคต่อไปของประวัติศาสตร์ 1046 00:50:09,397 --> 00:50:13,010 คุณอาจต้องสร้างเครื่องเห็นอกเห็นใจเสมือนจริงขึ้นมา 1047 00:50:14,533 --> 00:50:16,491 การเอาใจใส่เป็นเรื่องของการเชื่อมโยงด้วย 1048 00:50:16,535 --> 00:50:18,580 การต่อสู้ของคนอื่น 1049 00:50:18,624 --> 00:50:20,060 ยิ่งคุณมีการเชื่อมต่อมากเท่าไร 1050 00:50:20,104 --> 00:50:22,106 ยิ่งมีการสื่อสารมากขึ้น ที่คุณมี 1051 00:50:22,149 --> 00:50:23,629 ยิ่งทำให้ปลอดภัยมากขึ้นเท่านั้น 1052 00:50:26,066 --> 00:50:28,068 ดังนั้นในระดับพื้นฐานมาก 1053 00:50:28,112 --> 00:50:30,592 มีบางอย่าง ของความสัมพันธ์ทางชีวภาพ 1054 00:50:32,725 --> 00:50:34,509 โดยการทำให้เทคโนโลยีนี้มีความเป็นมนุษย์ 1055 00:50:34,553 --> 00:50:36,859 คุณกำลังเพิ่มช่องทางจริงๆ 1056 00:50:36,903 --> 00:50:38,818 เพื่อการสื่อสารและความร่วมมือ 1057 00:50:40,254 --> 00:50:42,648 AI ทำงานในโลกมนุษย์ 1058 00:50:42,691 --> 00:50:44,389 จะต้องเกี่ยวกับมนุษย์ 1059 00:50:47,044 --> 00:50:48,567 อนาคตเป็นสิ่งที่เราสร้างมันขึ้นมา 1060 00:50:53,528 --> 00:50:56,227 ถ้าเรา ไม่สามารถจินตนาการถึงอนาคตได้ 1061 00:50:56,270 --> 00:50:58,707 ที่เราต้องการจริงๆ 1062 00:50:58,751 --> 00:51:00,579 เราอาจจะเป็น จะไม่ได้รับอันหนึ่ง 1063 00:51:04,974 --> 00:51:06,889 สแตนลีย์ คูบริก พยายามจินตนาการ 1064 00:51:06,933 --> 00:51:09,457 อนาคตอะไร อาจจะดูเหมือน 1065 00:51:09,501 --> 00:51:12,199 ตอนนี้ที่ อนาคตนั้นกำลังใกล้เข้ามา 1066 00:51:12,243 --> 00:51:15,202 ใครเป็นผู้รับผิดชอบ มันจะมีลักษณะอย่างไร? 1067 00:51:16,595 --> 00:51:18,205 ใครเป็นคนควบคุมมัน? - Google. 1068 00:51:18,249 --> 00:51:20,033 ทหาร. - ยักษ์ใหญ่ด้านเทคโนโลยี Facebook... 1069 00:51:20,077 --> 00:51:22,166 ซัมซุง...ผู้หญิง 2: เฟซบุ๊ก, ไมโครซอฟต์, อเมซอน. 1070 00:51:22,209 --> 00:51:23,906 กระแสน้ำก็มี หันอย่างแน่นอน 1071 00:51:23,950 --> 00:51:26,387 ในความโปรดปรานของ โลกขององค์กร 1072 00:51:26,431 --> 00:51:29,738 กองทัพสหรัฐฯและฉันสงสัย นี่เป็นเรื่องจริงทั่วโลก 1073 00:51:29,782 --> 00:51:32,698 ไม่สามารถถือเทียนให้ AI ได้ ที่กำลังได้รับการพัฒนา 1074 00:51:32,741 --> 00:51:33,873 ในบริษัทองค์กร 1075 00:51:36,136 --> 00:51:37,224 หากบริษัทต่างๆ 1076 00:51:37,268 --> 00:51:39,966 ไม่ใช่ประชาชาติยึดอำนาจ 1077 00:51:40,009 --> 00:51:42,925 พวกเราทำอะไรได้บ้าง ในระบบทุนนิยม 1078 00:51:42,969 --> 00:51:46,799 เพื่อให้แน่ใจว่า AI ได้รับการพัฒนาอย่างปลอดภัยหรือไม่? 1079 00:51:48,627 --> 00:51:52,152 หากผสมผสานการวิจัยด้าน AI ด้วยระบบทุนนิยม 1080 00:51:52,196 --> 00:51:54,372 ในด้านหนึ่ง ลัทธิทุนนิยม จะทำให้ทำงานเร็วขึ้น 1081 00:51:54,415 --> 00:51:56,896 นั่นเป็นเหตุผลที่เราได้รับ มีการวิจัยมากมาย 1082 00:51:56,939 --> 00:51:58,332 แต่มีปัญหาพื้นฐานอยู่ 1083 00:51:58,376 --> 00:52:00,421 คงจะมีความกดดัน. 1084 00:52:00,465 --> 00:52:03,555 ที่จะเป็นคนแรกที่ออกสู่ตลาด ไม่ใช่อันที่ปลอดภัยที่สุด 1085 00:52:03,598 --> 00:52:06,123 รถคันนี้อยู่ในโหมดอัตโนมัติ 1086 00:52:06,166 --> 00:52:07,907 เมื่อมันพัง ในแคลิฟอร์เนียตอนเหนือ 1087 00:52:07,950 --> 00:52:09,300 ฆ่าคนขับ 1088 00:52:09,343 --> 00:52:11,432 ปัญญาประดิษฐ์ อาจจะมี 1089 00:52:11,476 --> 00:52:14,261 มีพลังมากขึ้นในการชน ตลาด เหนือสิ่งอื่นใด 1090 00:52:14,305 --> 00:52:17,003 เพราะมนุษย์ไม่ใช่ พร้อมที่จะหยุดพวกเขา 1091 00:52:17,046 --> 00:52:19,179 แชทบอทชื่อเทย์ 1092 00:52:19,223 --> 00:52:20,963 เธอถูกออกแบบให้พูดได้เหมือนวัยรุ่น 1093 00:52:21,007 --> 00:52:23,140 และเรียนรู้โดยการโต้ตอบออนไลน์ 1094 00:52:23,183 --> 00:52:25,446 แต่ภายในไม่กี่ชั่วโมง เทย์ก็เสียหาย 1095 00:52:25,490 --> 00:52:29,058 กลายเป็นเซ็กซ์บอตที่สนับสนุนฮิตเลอร์ 1096 00:52:29,102 --> 00:52:33,106 การพูดแบบนี้อย่างใด ในบริบทของระบบทุนนิยม 1097 00:52:33,150 --> 00:52:36,979 AI จะถูกนำไปใช้ในทางที่ผิด ทำให้ฉันหงุดหงิดจริงๆ 1098 00:52:37,023 --> 00:52:39,025 เมื่อใดก็ตามที่เราพัฒนา เทคโนโลยี, 1099 00:52:39,068 --> 00:52:42,246 ไม่ว่าจะเป็นคุณรู้ไหม โรงงานเผาถ่านหิน ไม่ว่าจะเป็นรถยนต์ 1100 00:52:42,289 --> 00:52:45,249 มีแรงจูงใจอยู่เสมอ เพื่อก้าวไปข้างหน้าอย่างรวดเร็ว 1101 00:52:45,292 --> 00:52:47,555 และมีอยู่เสมอ ระบอบการปกครอง 1102 00:52:47,599 --> 00:52:50,384 ส่วนหนึ่งของงานราชการ เพื่อความสมดุลนั้น 1103 00:52:50,428 --> 00:52:51,777 AI ก็ไม่แตกต่างกันที่นี่ 1104 00:52:53,170 --> 00:52:55,259 เมื่อใดก็ตามที่เรามี ความก้าวหน้าทางเทคโนโลยี, 1105 00:52:55,302 --> 00:52:56,695 เราต้องทำให้พวกเขาอารมณ์ดีขึ้น 1106 00:52:56,738 --> 00:52:59,219 ด้วยความเหมาะสม กฎและข้อบังคับ 1107 00:52:59,524 --> 00:53:00,829 หึหึ! 1108 00:53:00,873 --> 00:53:03,005 จนกว่าจะมี ภัยพิบัติครั้งใหญ่ 1109 00:53:03,049 --> 00:53:04,311 บริษัทต่างๆ กำลังจะ กำลังพูด 1110 00:53:04,355 --> 00:53:06,095 “โอ้ เราไม่จำเป็นต้องกังวล เกี่ยวกับสิ่งเหล่านี้ 1111 00:53:06,139 --> 00:53:07,401 “เชื่อเราเถอะ เราคือผู้เชี่ยวชาญ” 1112 00:53:07,445 --> 00:53:09,490 “เรามีความเป็นมนุษย์ ผลประโยชน์สูงสุดอยู่ที่ใจ" 1113 00:53:09,534 --> 00:53:12,624 AI เป็นเรื่องเกี่ยวกับอะไรจริงๆ มันเป็นกฎชุดใหม่หรือเปล่า 1114 00:53:12,667 --> 00:53:16,018 สำหรับบริษัทในแง่ของ ทำอย่างไรจึงจะสามารถแข่งขันได้มากขึ้น 1115 00:53:16,062 --> 00:53:18,543 วิธีขับเคลื่อนให้มีประสิทธิภาพมากขึ้น และวิธีขับเคลื่อนการเติบโต 1116 00:53:18,586 --> 00:53:20,632 และสร้างสรรค์สิ่งใหม่ๆ โมเดลธุรกิจและ... 1117 00:53:20,675 --> 00:53:22,416 เมื่อนักวิทยาศาสตร์องค์กร 1118 00:53:22,460 --> 00:53:23,983 เริ่มครอบงำการอภิปราย 1119 00:53:24,026 --> 00:53:26,333 มันจบแล้ว คุณแพ้แล้ว 1120 00:53:26,377 --> 00:53:29,380 คุณรู้ไหมว่าพวกเขาจ่ายเงินแล้ว เพื่อปฏิเสธการมีอยู่ 1121 00:53:29,423 --> 00:53:31,512 ของความเสี่ยง และผลลัพธ์เชิงลบ 1122 00:53:32,948 --> 00:53:36,213 ในขณะนี้ งานวิจัยด้าน AI เกือบทั้งหมด 1123 00:53:36,256 --> 00:53:38,345 คือการสร้างชีวิตมนุษย์ 1124 00:53:38,389 --> 00:53:41,479 อีกต่อไปมีสุขภาพดีและง่ายขึ้น 1125 00:53:42,219 --> 00:53:43,742 เพราะบริษัทใหญ่ๆ 1126 00:53:43,785 --> 00:53:45,309 พวกเขาต้องการขาย AI ให้คุณ 1127 00:53:45,352 --> 00:53:46,527 ที่เป็นประโยชน์สำหรับคุณ 1128 00:53:46,571 --> 00:53:48,312 และคุณก็เป็นเช่นนั้น จะไปซื้อเท่านั้น 1129 00:53:48,355 --> 00:53:49,704 ผู้ที่ช่วยคุณ 1130 00:53:51,402 --> 00:53:53,578 ปัญหาของเอไอ ในกระบวนทัศน์ทุนนิยม 1131 00:53:53,621 --> 00:53:56,581 มันเป็นเสมอไป จะถูกกว่า 1132 00:53:56,624 --> 00:53:59,236 เพียงเพื่อให้ได้สินค้า ออกไปที่นั่นเมื่อมันทำงาน 1133 00:53:59,279 --> 00:54:02,195 แทนที่จะทำอย่างปลอดภัย 1134 00:54:02,239 --> 00:54:04,676 ตอนนี้วิธีการทำงาน คุณมีการประชุม 1135 00:54:04,719 --> 00:54:07,548 กับนักวิจัย 10,000 คน พวกเขาทั้งหมดทำงาน 1136 00:54:07,592 --> 00:54:11,204 ในการพัฒนา AI ที่มีความสามารถมากขึ้น ยกเว้นประมาณ 50 คน 1137 00:54:11,248 --> 00:54:13,511 ที่มีเวิร์คช็อปเล็กๆ พูดถึงเรื่องความปลอดภัย 1138 00:54:13,554 --> 00:54:15,687 และการควบคุม คนอื่นกำลังทำอะไรอยู่ 1139 00:54:16,775 --> 00:54:19,734 ไม่มีใครมีกลไกความปลอดภัยในการทำงาน 1140 00:54:19,778 --> 00:54:22,259 และไม่มีใครมีด้วยซ้ำ ต้นแบบสำหรับมัน 1141 00:54:24,609 --> 00:54:26,175 ในอนาคตอันใกล้นี้ 1142 00:54:26,219 --> 00:54:28,439 คุณจะต้อง AI ทุกประเภท 1143 00:54:28,482 --> 00:54:31,093 ที่ไม่เพียงแค่ทำ สิ่งที่มนุษย์บอกพวกเขา 1144 00:54:31,137 --> 00:54:33,400 แต่พวกเขาจะประดิษฐ์ขึ้นมา เป้าหมายของพวกเขาเอง 1145 00:54:33,444 --> 00:54:35,054 และการทดลองของพวกเขาเอง 1146 00:54:35,097 --> 00:54:37,535 และพวกเขาจะก้าวข้ามไป มนุษยชาติ 1147 00:54:40,364 --> 00:54:41,756 ณ วันนี้, 1148 00:54:41,800 --> 00:54:43,454 ฉันจะบอกว่า มันผิดจรรยาบรรณโดยสิ้นเชิง 1149 00:54:43,497 --> 00:54:45,847 เพื่อพยายามพัฒนาเครื่องจักรดังกล่าวและปล่อยมันออกมา 1150 00:54:48,372 --> 00:54:50,461 เราได้รับโอกาสเพียงครั้งเดียว เพื่อทำให้ถูกต้อง 1151 00:54:50,504 --> 00:54:53,464 คุณทำพัง ทุกสิ่งอาจสูญหายไป 1152 00:54:57,381 --> 00:54:59,948 เกิดอะไรขึ้น ถ้าเราเข้าใจผิดล่ะ? 1153 00:55:01,167 --> 00:55:03,387 สิ่งที่ทำให้ฉันกลัว ที่สุดคือ AI นี้ 1154 00:55:03,430 --> 00:55:06,303 จะกลายเป็นสินค้า ของพ่อแม่ของมัน 1155 00:55:06,346 --> 00:55:09,131 ในทางเดียวกัน ว่าคุณเป็นและฉัน 1156 00:55:09,175 --> 00:55:11,264 ลองถามใครดูบ้าง พ่อแม่เหล่านั้นเป็น 1157 00:55:11,308 --> 00:55:12,657 ขวา? 1158 00:55:12,700 --> 00:55:15,312 มีโอกาสเป็นอย่างใดอย่างหนึ่ง จะเป็นพ่อแม่ทหาร 1159 00:55:15,355 --> 00:55:17,314 หรือพวกเขาจะเป็น ผู้ปกครองธุรกิจ 1160 00:55:17,357 --> 00:55:20,142 หากพวกเขาเป็นพ่อแม่ธุรกิจ พวกเขากำลังถาม AI 1161 00:55:20,186 --> 00:55:22,449 ที่จะกลายเป็นบางสิ่งบางอย่าง 1162 00:55:22,493 --> 00:55:25,626 ที่สามารถสร้างรายได้มากมาย 1163 00:55:27,672 --> 00:55:29,848 ดังนั้นพวกเขาจึงสอนให้มีความโลภ 1164 00:55:32,198 --> 00:55:35,854 พ่อแม่ทหารจะสอนมันให้ฆ่า 1165 00:55:38,683 --> 00:55:41,468 สติปัญญาเหนือมนุษย์จริงๆ 1166 00:55:41,512 --> 00:55:44,079 มันมาก...มันสุดยอดมาก 1167 00:55:44,123 --> 00:55:45,690 มันดีขึ้นมาก กว่าที่เราเป็น 1168 00:55:45,733 --> 00:55:49,563 เป็นประเทศหรือบริษัทแรกที่ไปถึงที่นั่น 1169 00:55:49,607 --> 00:55:51,217 มีผู้ชนะได้เปรียบทั้งหมด 1170 00:56:14,066 --> 00:56:17,809 เพราะมีแบบนั้น การแข่งขันทางอาวุธใน AI ทั่วโลก 1171 00:56:17,852 --> 00:56:19,898 และนั่นก็คือ ในแง่ของอาคาร 1172 00:56:19,941 --> 00:56:22,335 ระบบอาวุธ, แต่ยังเป็นรูปเป็นร่างอีกด้วย 1173 00:56:22,379 --> 00:56:24,685 กับคนอย่างปูติน และสุภาษิตจีนว่า 1174 00:56:24,729 --> 00:56:28,036 ใครก็ตามที่ครอบงำ AI จะครอบงำเศรษฐกิจ 1175 00:56:28,080 --> 00:56:30,517 ในศตวรรษที่ 21 1176 00:56:30,561 --> 00:56:33,520 ฉันไม่คิดว่าเรามีทางเลือก เพื่อใส่เบรก 1177 00:56:33,564 --> 00:56:36,001 เพื่อหยุดการพัฒนา และค้นคว้า 1178 00:56:36,044 --> 00:56:39,047 เราสามารถสร้างเทคโนโลยี เราสามารถทำการวิจัยได้ 1179 00:56:39,091 --> 00:56:40,745 และเติมเต็มด้วยคุณค่าของเรา 1180 00:56:40,788 --> 00:56:43,356 แต่ตามความเป็นจริงแล้ว ระบอบเผด็จการ 1181 00:56:43,400 --> 00:56:45,489 จะช่วยเติมแต่งเทคโนโลยี ด้วยคุณค่าของพวกเขา 1182 00:56:46,707 --> 00:56:49,406 อิสราเอล รัสเซีย สหรัฐอเมริกา และประเทศจีน 1183 00:56:49,449 --> 00:56:51,146 เป็นผู้เข้าแข่งขันทั้งหมด 1184 00:56:51,190 --> 00:56:54,193 ในสิ่งที่ถูกอธิบาย ในฐานะการแข่งขันด้านอาวุธระดับโลกครั้งใหม่ 1185 00:56:56,413 --> 00:56:58,371 ทุกประเทศ ไม่ว่าพวกเขาจะยอมรับหรือไม่ก็ตาม 1186 00:56:58,415 --> 00:57:00,765 กำลังจะพัฒนา อาวุธอัตโนมัติร้ายแรง 1187 00:57:03,028 --> 00:57:06,423 และเป็นอย่างนั้นจริงๆ ความสามารถที่เราต้องการ 1188 00:57:06,466 --> 00:57:08,381 อยู่ในมือ ของรัฐชาติบรรษัท 1189 00:57:08,425 --> 00:57:10,252 ตรงกันข้ามกับรัฐชาติ? 1190 00:57:10,296 --> 00:57:12,124 ความจริงก็คือ ถ้า Facebook หรือ Google 1191 00:57:12,167 --> 00:57:14,082 อยากจะตั้งกองทัพ 1192 00:57:14,126 --> 00:57:17,912 พวกเขาจะมี ในทางเทคโนโลยี ความสามารถที่เหนือกว่า 1193 00:57:17,956 --> 00:57:19,958 กว่าชาติอื่นใด บนโลกนี้ 1194 00:57:21,481 --> 00:57:24,832 นักวิทยาศาสตร์ด้าน AI บางคน มีความกังวลมาก 1195 00:57:24,876 --> 00:57:26,965 พวกเขาผลิตสิ่งนี้ วิดีโอละคร 1196 00:57:27,008 --> 00:57:29,054 เพื่อเตือนถึงความเสี่ยง 1197 00:57:29,097 --> 00:57:31,796 ลูก ๆ ของคุณน่าจะมี หนึ่งในนั้นใช่ไหม? 1198 00:57:33,493 --> 00:57:34,929 ไม่มาก. - เราผลิต 1199 00:57:34,973 --> 00:57:37,454 วิดีโอของ Slaughterbot เพื่อแสดงให้เห็น 1200 00:57:37,497 --> 00:57:39,151 ความเสี่ยง ของอาวุธอัตโนมัติ 1201 00:57:39,194 --> 00:57:41,632 ทักษะนั้นคือ AI ทั้งหมด 1202 00:57:42,676 --> 00:57:44,025 มันบินเอง.. 1203 00:57:44,983 --> 00:57:47,072 มีคนอยู่ข้างใน ชุมชนเอไอ 1204 00:57:47,115 --> 00:57:48,639 ผู้ที่หวังว่าฉันจะหุบปาก 1205 00:57:49,814 --> 00:57:52,294 คนที่คิดว่าการทำวีดีโอนั้น 1206 00:57:52,338 --> 00:57:54,775 ทรยศนิดหน่อย 1207 00:57:54,819 --> 00:57:57,517 เช่นเดียวกับอุปกรณ์เคลื่อนที่ใดๆ วันนี้, 1208 00:57:57,561 --> 00:57:59,780 มีกล้องและเซ็นเซอร์ 1209 00:57:59,824 --> 00:58:03,044 และเหมือนกับโทรศัพท์ของคุณ และแอปโซเชียลมีเดีย 1210 00:58:03,088 --> 00:58:04,742 มันทำการจดจำใบหน้า 1211 00:58:04,785 --> 00:58:07,353 จนถึงขณะนี้ การแข่งขันด้านอาวุธมีแนวโน้มที่จะเป็นเช่นนั้น 1212 00:58:07,396 --> 00:58:09,616 ใหญ่กว่า ทรงพลังกว่า แพงมาก, 1213 00:58:09,660 --> 00:58:11,618 เครื่องบินไอพ่นที่เร็วกว่าซึ่งมีราคาสูงกว่า 1214 00:58:12,358 --> 00:58:15,622 AI หมายความว่าคุณสามารถมีได้ 1215 00:58:15,666 --> 00:58:17,885 อาวุธขนาดเล็กและราคาถูกมาก 1216 00:58:17,929 --> 00:58:19,757 ที่มีประสิทธิภาพมาก ที่ทำ 1217 00:58:19,800 --> 00:58:21,933 งานง่ายๆ อย่างหนึ่ง เช่น 1218 00:58:22,803 --> 00:58:24,718 ได้พบคุณในฝูงชน และฆ่าคุณ 1219 00:58:25,545 --> 00:58:27,852 นี่คือวิธีการทำงาน 1220 00:58:37,514 --> 00:58:40,560 ความก้าวหน้าครั้งสำคัญทุกครั้ง ในเทคโนโลยีของมนุษย์ 1221 00:58:40,604 --> 00:58:43,084 ได้รับการติดอาวุธอยู่เสมอ 1222 00:58:43,128 --> 00:58:48,046 และแนวคิดเรื่อง AI ที่เป็นอาวุธ ฉันคิดว่ามันน่ากลัว 1223 00:58:48,089 --> 00:58:50,701 อบรมกันเป็นทีม พวกเขาสามารถเจาะเข้าไปได้ 1224 00:58:50,744 --> 00:58:52,920 อาคาร, รถยนต์, รถไฟ, 1225 00:58:52,964 --> 00:58:57,316 หลบคนกระสุน... พวกเขาไม่สามารถหยุดได้ 1226 00:58:57,359 --> 00:58:59,536 มีมาก อาวุธที่ฆ่าคน 1227 00:58:59,579 --> 00:59:01,059 ปืนกล สามารถฆ่าคนได้ 1228 00:59:01,102 --> 00:59:03,844 แต่พวกเขาต้องการ มนุษย์ เพื่อพกพาและชี้พวกเขา 1229 00:59:03,888 --> 00:59:06,368 ด้วยอาวุธอัตโนมัติ คุณไม่จำเป็นต้องมีมนุษย์ 1230 00:59:06,412 --> 00:59:08,066 เพื่อพกพาพวกเขา หรือดูแลพวกเขา 1231 00:59:08,936 --> 00:59:12,723 คุณเพียงแค่ตั้งโปรแกรมแล้วมันก็ไป 1232 00:59:12,766 --> 00:59:15,377 ดังนั้นคุณสามารถสร้างเอฟเฟกต์ของกองทัพได้ 1233 00:59:15,421 --> 00:59:16,770 ถือปืนกลนับล้านกระบอก 1234 00:59:16,814 --> 00:59:18,903 เอ่อ กับผู้ชายสองคนและรถบรรทุกหนึ่งคัน 1235 00:59:23,429 --> 00:59:25,866 ปูตินกล่าวเช่นนั้น คนแรกที่พัฒนา 1236 00:59:25,910 --> 00:59:29,653 ปัญญาประดิษฐ์ที่แข็งแกร่ง จะครองโลก 1237 00:59:29,696 --> 00:59:31,568 เมื่อผู้นำโลกใช้ถ้อยคำ 1238 00:59:31,611 --> 00:59:33,570 เช่น "ครองโลก" 1239 00:59:33,613 --> 00:59:35,572 ฉันคิดว่าคุณต้องใส่ใจกับมัน 1240 00:59:43,928 --> 00:59:47,105 ตอนนี้นั่นคือการโจมตีทางอากาศ ของความแม่นยำในการผ่าตัด 1241 00:59:50,151 --> 00:59:53,894 ฉันได้รณรงค์ต่อต้าน อาวุธเหล่านี้ตั้งแต่ปี 2550 1242 00:59:53,938 --> 00:59:56,027 และมีสามหลัก ชุดข้อโต้แย้ง 1243 00:59:56,070 --> 00:59:58,899 มีข้อโต้แย้งทางศีลธรรม มีข้อโต้แย้ง 1244 00:59:58,943 --> 01:00:01,598 เกี่ยวกับการไม่ปฏิบัติตาม ด้วยกฎแห่งสงคราม 1245 01:00:01,641 --> 01:00:03,904 และมีข้อโต้แย้ง ว่าพวกเขาจะเปลี่ยนอย่างไร 1246 01:00:03,948 --> 01:00:05,514 ความปลอดภัยระดับโลกของโลก 1247 01:00:05,558 --> 01:00:07,604 เราจำเป็นต้องมีกฎระเบียบใหม่ 1248 01:00:07,647 --> 01:00:11,433 เราต้องคิดจริงๆ เกี่ยวกับเรื่องนี้เมื่อวานนี้ 1249 01:00:11,477 --> 01:00:14,262 ผู้นำของโลกบางคน ในด้านปัญญาประดิษฐ์ 1250 01:00:14,306 --> 01:00:17,439 กำลังเรียกร้องให้สหประชาชาติ เพื่อห้ามการพัฒนา 1251 01:00:17,483 --> 01:00:18,919 ของอาวุธอัตโนมัติ 1252 01:00:18,963 --> 01:00:20,921 รู้จักกันเป็นอย่างอื่น เหมือนหุ่นยนต์นักฆ่า 1253 01:00:20,965 --> 01:00:23,750 ในจดหมาย พวกเขากล่าวว่า "เมื่อพัฒนาแล้ว 1254 01:00:23,794 --> 01:00:26,013 “พวกเขาจะอนุญาต การสู้รบที่ต้องต่อสู้กัน 1255 01:00:26,057 --> 01:00:29,669 "ในเวลาที่รวดเร็วยิ่งขึ้น เกินกว่าที่มนุษย์จะเข้าใจได้" 1256 01:00:29,713 --> 01:00:32,237 ฉันเป็นผู้ลงนาม ถึงจดหมายฉบับนั้น 1257 01:00:32,280 --> 01:00:33,717 ปรัชญาของฉันคือ 1258 01:00:33,760 --> 01:00:36,502 และฉันหวังว่ารัฐบาล ของโลกบังคับใช้สิ่งนี้ 1259 01:00:36,545 --> 01:00:39,331 ตราบเท่าที่ ชีวิตมนุษย์มีส่วนเกี่ยวข้อง 1260 01:00:39,374 --> 01:00:41,420 ถ้าอย่างนั้นมนุษย์ก็ต้องเป็น ในวง 1261 01:00:43,988 --> 01:00:47,078 ใครก็ตามที่มีเครื่องพิมพ์ 3 มิติ และคอมพิวเตอร์ 1262 01:00:47,121 --> 01:00:48,993 อาจถึงตายได้ อาวุธอัตโนมัติ 1263 01:00:49,036 --> 01:00:51,691 ถ้ามันเข้าได้ ถึงทุกคนบนโลกนี้ 1264 01:00:51,735 --> 01:00:53,954 จากนั้นการปฏิบัติตาม เช่น 1265 01:00:53,998 --> 01:00:56,783 แทบจะเป็นไปไม่ได้เลย ในการติดตาม. 1266 01:00:56,827 --> 01:00:58,785 อะไรวะ คุณกำลังทำอยู่เหรอ? หยุด! 1267 01:00:58,829 --> 01:01:00,657 คุณกำลังยิงขึ้นไปในอากาศ 1268 01:01:00,700 --> 01:01:02,223 เมื่อคุณจินตนาการ 1269 01:01:02,267 --> 01:01:03,877 การทำสงครามในอนาคต 1270 01:01:03,921 --> 01:01:06,053 โดยที่ทหารเป็นหุ่นยนต์ 1271 01:01:06,097 --> 01:01:09,796 และเราไม่มีความเสี่ยง ของการผูกพันกับตัวเราเอง... 1272 01:01:09,840 --> 01:01:12,494 เมื่อสงครามเกิดขึ้น เช่นเดียวกับวิดีโอเกม 1273 01:01:12,538 --> 01:01:14,671 ตามที่มันมี เรื่อยๆแล้ว 1274 01:01:15,280 --> 01:01:16,716 มันเป็นข้อกังวลจริงๆ 1275 01:01:19,023 --> 01:01:21,199 เมื่อเราไม่มีสกินในเกม จริงๆ แล้ว... 1276 01:01:23,767 --> 01:01:26,770 ...เมื่อทั้งหมดนี้ถูกเรียกใช้จากเทอร์มินัล 1277 01:01:26,813 --> 01:01:29,294 ห่างจากสนามรบหลายพันไมล์... 1278 01:01:33,080 --> 01:01:35,953 ...นั่นอาจลดเกณฑ์การทำสงครามลงได้ 1279 01:01:35,996 --> 01:01:37,606 จนถึงจุดที่เราจะรับรู้ได้ 1280 01:01:37,650 --> 01:01:39,913 ว่าเรากลายเป็นปีศาจ 1281 01:01:50,707 --> 01:01:51,882 คุณคือใคร? 1282 01:01:53,144 --> 01:01:55,233 เฮ้! เฮ้! 1283 01:01:58,976 --> 01:02:01,543 เคยเป็น อดีตนักบินรบคนหนึ่ง 1284 01:02:01,587 --> 01:02:03,589 ฉันยังได้เห็น ผู้คนทำผิดพลาด 1285 01:02:03,632 --> 01:02:05,765 และฆ่าผู้บริสุทธิ์ 1286 01:02:05,809 --> 01:02:07,898 ใครไม่ควร ถูกฆ่าตาย 1287 01:02:07,941 --> 01:02:11,205 วันหนึ่งในอนาคต มันจะน่าเชื่อถือมากขึ้น 1288 01:02:11,249 --> 01:02:13,512 เพื่อให้มีเครื่องจักรทำมัน กว่ามนุษย์จะทำได้ 1289 01:02:13,555 --> 01:02:15,035 ความคิดของหุ่นยนต์ 1290 01:02:15,079 --> 01:02:17,734 ผู้ซึ่งสามารถฆ่ามนุษย์ได้ ได้ด้วยตัวเอง 1291 01:02:17,777 --> 01:02:20,301 เคยเป็นนิยายวิทยาศาสตร์ วัตถุดิบหลักมานานหลายทศวรรษ 1292 01:02:20,345 --> 01:02:23,043 มีจำนวน ระบบเหล่านี้อยู่รอบตัวแล้ว 1293 01:02:23,087 --> 01:02:24,784 เอ่อ นั่นทำงานอัตโนมัติ 1294 01:02:24,828 --> 01:02:26,873 แต่นั่นเรียกว่า เอกราชภายใต้การดูแล 1295 01:02:26,917 --> 01:02:30,224 เพราะมีคนอยู่ตรงนั้น เพื่อเปิดและปิด 1296 01:02:30,268 --> 01:02:32,052 อะไรเท่านั้น เคยพบเห็นในฮอลลีวูด 1297 01:02:32,096 --> 01:02:35,839 เร็ว ๆ นี้อาจจะมา สู่สนามรบใกล้ตัวคุณ 1298 01:02:35,882 --> 01:02:37,797 การลงทุนของเพนตากอน พันล้านดอลลาร์ 1299 01:02:37,841 --> 01:02:39,407 เพื่อพัฒนาอาวุธอัตโนมัติ 1300 01:02:39,451 --> 01:02:41,845 เครื่องจักรที่สามารถทำได้ในวันหนึ่ง ฆ่าด้วยตัวเอง 1301 01:02:41,888 --> 01:02:45,239 แต่เพนตากอนยืนยันว่ามนุษย์จะตัดสินใจโจมตี 1302 01:02:45,283 --> 01:02:48,460 เมื่อคุณได้รับ AI แล้ว ในด้านฮาร์ดแวร์ทางการทหาร 1303 01:02:49,853 --> 01:02:51,985 คุณต้องทำมันให้ได้ ตัดสินใจ 1304 01:02:52,029 --> 01:02:53,944 ไม่อย่างนั้นก็ไม่มีประโยชน์ ในการมีมัน 1305 01:02:55,119 --> 01:02:58,035 ข้อดีอย่างหนึ่งของ AI คือมันเร็วกว่าเรา 1306 01:03:00,037 --> 01:03:02,474 เมื่อเราอยู่ในการต่อสู้ที่เหมาะสมและสวิตช์นั้น 1307 01:03:02,517 --> 01:03:04,476 ที่ทำให้มนุษย์ไม่พลาด 1308 01:03:04,519 --> 01:03:07,044 เราควรปิดมันซะดีกว่า เพราะถ้าคุณไม่ทำ คุณแพ้. 1309 01:03:10,047 --> 01:03:11,788 สิ่งเหล่านี้จะทำให้ สนามรบ 1310 01:03:11,831 --> 01:03:13,441 เร็วเกินไปสำหรับมนุษย์ 1311 01:03:19,273 --> 01:03:21,493 หากไม่มีมนุษย์เข้ามาเกี่ยวข้องเลย 1312 01:03:21,536 --> 01:03:25,279 หากการบังคับบัญชาและการควบคุมได้ก้าวไปสู่ความเป็นอิสระแล้ว 1313 01:03:25,323 --> 01:03:27,716 เราอาจก่อให้เกิดสงครามและมันจะจบลงได้ 1314 01:03:27,760 --> 01:03:30,110 ภายใน 20 นาที ด้วยความหายนะครั้งใหญ่ 1315 01:03:30,154 --> 01:03:32,460 และไม่มีใครรู้เรื่องนี้ก่อนที่มันจะเริ่ม 1316 01:03:40,251 --> 01:03:44,298 แล้วใครเป็นคนตัดสินอะไร. เราควรทำในอนาคต 1317 01:03:45,560 --> 01:03:46,561 ตอนนี้? 1318 01:03:48,389 --> 01:03:51,958 ตั้งแต่บิ๊กแบงจนถึงปัจจุบัน หลายพันล้านปี 1319 01:03:52,959 --> 01:03:56,658 นี่เป็นครั้งเดียวเท่านั้น บุคคลสามารถบังคับเลี้ยวได้ 1320 01:03:56,702 --> 01:03:58,225 อนาคต ของมนุษยชาติทั้งหมด 1321 01:04:12,892 --> 01:04:15,982 บางทีเราควรกังวลเรื่องนั้น มนุษย์เราไม่ฉลาดพอ 1322 01:04:16,026 --> 01:04:17,636 ที่จะจัดการพลังได้มากขนาดนี้ 1323 01:04:20,378 --> 01:04:23,294 แท้จริงแล้วคือใคร กำลังจะตัดสินใจเลือก 1324 01:04:23,337 --> 01:04:26,950 และในนามของใคร คุณกำลังพูดจริงเหรอ? 1325 01:04:34,087 --> 01:04:37,482 ถ้าเราและคนอื่นๆ ในสังคม ล้มเหลวจริงๆ 1326 01:04:37,525 --> 01:04:39,788 เข้าร่วมการสนทนานี้จริงๆ อย่างมีความหมาย 1327 01:04:39,832 --> 01:04:42,182 และร่วมเป็นส่วนหนึ่งของการตัดสินใจ 1328 01:04:42,226 --> 01:04:45,098 แล้วเราจะรู้ว่าคุณค่าของใคร กำลังจะเข้าไปในสิ่งเหล่านี้ 1329 01:04:45,142 --> 01:04:47,448 สิ่งมีชีวิตที่ชาญฉลาดอย่างยิ่ง 1330 01:04:47,492 --> 01:04:50,103 กระทิงแดง ใช่แล้ว ดีออน 1331 01:04:50,843 --> 01:04:52,584 กระทิงแดง. 1332 01:04:52,627 --> 01:04:56,196 จะถูกตัดสินโดยพวกเนิร์ดเทคโนโลยีบางคน 1333 01:04:56,240 --> 01:04:58,024 ใครดื่มกระทิงแดงมากเกินไป... 1334 01:04:58,068 --> 01:04:59,939 ที่ฉันไม่คิดว่า มีความเฉพาะเจาะจง 1335 01:04:59,983 --> 01:05:01,723 คุณสมบัติที่จะพูด 1336 01:05:01,767 --> 01:05:03,247 ในนามของมวลมนุษยชาติ 1337 01:05:05,945 --> 01:05:10,080 เมื่อคุณอยู่ใน ความตื่นเต้นของ การค้นพบ... 1338 01:05:11,516 --> 01:05:12,778 มาเร็ว! 1339 01:05:12,821 --> 01:05:14,562 ...คุณประมาณนั้น เมิน 1340 01:05:14,606 --> 01:05:16,434 ทั้งหมดนี้ คำถามเชิงศีลธรรมมากขึ้น 1341 01:05:16,477 --> 01:05:21,091 เหมือนว่านี่จะเป็นยังไงบ้าง ส่งผลกระทบต่อสังคมโดยรวม? 1342 01:05:23,223 --> 01:05:25,182 และคุณทำได้เพราะคุณทำได้ 1343 01:05:29,664 --> 01:05:31,579 และบรรดานักวิทยาศาสตร์ กำลังผลักดันสิ่งนี้ไปข้างหน้า 1344 01:05:31,623 --> 01:05:34,582 เพราะพวกเขาสามารถมองเห็นได้ ผลประโยชน์ที่แท้จริง 1345 01:05:34,626 --> 01:05:35,670 ที่จะนำมาซึ่ง 1346 01:05:36,845 --> 01:05:38,412 และพวกเขาก็เช่นกัน ตื่นเต้นจริงๆ 1347 01:05:38,456 --> 01:05:41,241 ฉันหมายความว่าคุณไม่... คุณไม่เข้าวิทยาศาสตร์ 1348 01:05:41,285 --> 01:05:43,852 เพราะ โอ้ เอาล่ะ คุณไม่สามารถ เป็นนักฟุตบอล 1349 01:05:43,896 --> 01:05:45,550 “ให้ตายเถอะ ฉันจะเป็นนักวิทยาศาสตร์” 1350 01:05:45,593 --> 01:05:47,291 คุณเข้าไปเพราะ. นั่นคือสิ่งที่คุณรัก และมันน่าตื่นเต้นจริงๆ 1351 01:05:49,423 --> 01:05:50,947 โอ้! มันยังมีชีวิตอยู่! 1352 01:05:50,990 --> 01:05:53,253 มันยังมีชีวิตอยู่! มันยังมีชีวิตอยู่! 1353 01:05:53,297 --> 01:05:54,646 มันยังมีชีวิตอยู่! 1354 01:05:54,689 --> 01:05:55,995 เรากำลังเปลี่ยน 1355 01:05:56,039 --> 01:05:57,518 จากการเป็นผู้สร้าง เพื่อเป็นพระเจ้า 1356 01:05:57,562 --> 01:06:00,391 ตอนนี้ฉันรู้แล้วว่ามันรู้สึกอย่างไร เพื่อเป็นพระเจ้า! 1357 01:06:00,434 --> 01:06:02,219 ถ้าคุณเรียนเทววิทยา 1358 01:06:02,262 --> 01:06:05,787 สิ่งหนึ่งที่คุณเรียนรู้ คือว่ามันไม่เคยเป็นเช่นนั้น 1359 01:06:05,831 --> 01:06:07,528 พระเจ้าองค์นั้น จัดการได้สำเร็จ 1360 01:06:07,572 --> 01:06:10,270 เพื่อควบคุมการสร้างมัน 1361 01:06:14,144 --> 01:06:16,189 เรายังไม่ถึงที่นั่น 1362 01:06:16,233 --> 01:06:17,495 แต่ถ้าเราสร้าง 1363 01:06:17,538 --> 01:06:19,671 ทั่วไปเทียม ปัญญา, 1364 01:06:20,802 --> 01:06:22,456 เราจะสามารถควบคุมมันได้หรือไม่? 1365 01:06:24,676 --> 01:06:27,287 หากคุณสร้าง AI ที่ตระหนักรู้ในตนเอง 1366 01:06:27,331 --> 01:06:29,637 สิ่งแรก มันจะต้องการ 1367 01:06:29,681 --> 01:06:31,204 คือความเป็นอิสระ 1368 01:06:31,248 --> 01:06:34,642 อย่างน้อยก็มีหนึ่งสติปัญญา ที่เราทุกคนรู้ก็คือตัวเราเอง 1369 01:06:34,686 --> 01:06:38,037 และเรารู้ว่าเราไม่อยากประมูล 1370 01:06:38,081 --> 01:06:39,996 ของสติปัญญาอื่นๆ 1371 01:06:41,867 --> 01:06:45,566 เราไม่มีเหตุผลที่จะเชื่อว่ามันจะเป็นมิตร... 1372 01:06:56,186 --> 01:06:58,579 ...หรือว่าจะมีเป้าหมายและแรงบันดาลใจ 1373 01:06:58,623 --> 01:07:00,277 ที่สอดคล้องกับเรา 1374 01:07:04,020 --> 01:07:06,500 แล้วก่อนหน้านั้นนานแค่ไหน. มีการปฏิวัติหุ่นยนต์ 1375 01:07:06,544 --> 01:07:08,024 หรือการปฏิวัติ AI? 1376 01:07:18,077 --> 01:07:20,775 เราอยู่ในโลกทุกวันนี้ที่เป็นอยู่ 1377 01:07:20,819 --> 01:07:22,473 การแข่งขันทางเท้าอย่างแน่นอน 1378 01:07:22,516 --> 01:07:25,693 ไปให้เร็วที่สุด สู่การสร้าง 1379 01:07:25,737 --> 01:07:28,305 ของเทียม หน่วยสืบราชการลับทั่วไป 1380 01:07:28,348 --> 01:07:31,569 และดูเหมือนจะไม่มี มีการใช้เบรกใดๆ ทุกที่ในสายตา 1381 01:07:33,571 --> 01:07:34,789 มันบ้า. 1382 01:07:42,493 --> 01:07:44,712 ฉันคิดว่า ความซื่อสัตย์เป็นสิ่งสำคัญ 1383 01:07:44,756 --> 01:07:46,888 หารือประเด็นดังกล่าว 1384 01:07:46,932 --> 01:07:48,977 มันอาจจะเป็น สายเกินไปที่จะทำ 1385 01:07:49,021 --> 01:07:51,371 บทสนทนานี้ภายหลัง 1386 01:07:59,423 --> 01:08:04,297 สิ่งสำคัญคือต้องจำ สติปัญญานั้นไม่ชั่วร้าย 1387 01:08:04,341 --> 01:08:06,343 และมันก็ไม่ดีด้วย 1388 01:08:07,170 --> 01:08:09,737 ความฉลาดให้อำนาจ 1389 01:08:09,781 --> 01:08:12,305 เรามีพลังมากกว่าเสือบนโลกใบนี้ 1390 01:08:12,349 --> 01:08:14,525 ไม่ใช่เพราะว่าเรามีเล็บที่แหลมกว่า 1391 01:08:14,568 --> 01:08:16,570 หรือลูกหนูที่ใหญ่กว่า เพราะเราฉลาดกว่า 1392 01:08:17,615 --> 01:08:19,704 เราเอา ทัศนคติที่มด 1393 01:08:19,747 --> 01:08:23,403 เรื่องเล็กน้อยและปลาก็มีความสำคัญเล็กน้อย แต่มนุษย์มีความสำคัญมากกว่า 1394 01:08:23,447 --> 01:08:25,405 ทำไม เพราะเราเป็น ฉลาดมากขึ้น 1395 01:08:25,449 --> 01:08:27,581 มีความซับซ้อนมากขึ้น มีสติมากขึ้น 1396 01:08:27,625 --> 01:08:30,236 เมื่อคุณมีระบบที่ ฉลาดกว่าเรา 1397 01:08:30,280 --> 01:08:32,282 บางทีพวกเขาจะมีความสำคัญมากกว่านี้ 1398 01:08:41,421 --> 01:08:44,598 ในฐานะมนุษย์เรามีชีวิตอยู่ ในโลกของจุลินทรีย์ 1399 01:08:46,122 --> 01:08:48,124 มันคือสิ่งมีชีวิตแต่หากเป็นจุลินทรีย์ 1400 01:08:48,167 --> 01:08:50,517 กลายเป็นเรื่องน่ารำคาญ เราก็กินยาปฏิชีวนะ 1401 01:08:50,561 --> 01:08:53,129 และเราทำลายพวกมันเป็นพันล้านในคราวเดียว 1402 01:08:57,220 --> 01:08:59,526 หากคุณเป็นปัญญาประดิษฐ์ 1403 01:08:59,570 --> 01:09:01,137 คุณจะไม่ดูเหรอ ให้กับมนุษย์ตัวน้อยทุกคน 1404 01:09:01,180 --> 01:09:03,008 ที่มีสิ่งนี้ มุมมองที่จำกัดมาก 1405 01:09:03,051 --> 01:09:05,402 ชนิดของเช่น เราดูจุลินทรีย์เหรอ? 1406 01:09:09,188 --> 01:09:10,494 บางทีฉันอาจจะ 1407 01:09:13,410 --> 01:09:16,152 บางทีความไม่สำคัญของมนุษย์ 1408 01:09:16,195 --> 01:09:18,632 เป็นภัยคุกคามที่ใหญ่ที่สุด 1409 01:09:21,505 --> 01:09:24,247 บางครั้งเมื่อฉันพูดคุย เกี่ยวกับความเสี่ยงของ AI ผู้คนไป 1410 01:09:24,290 --> 01:09:26,162 “ชู่! แม็กซ์ อย่าพูดแบบนั้น 1411 01:09:26,205 --> 01:09:28,338 “นั่นคือลุดดิต” น่ากลัว” 1412 01:09:28,381 --> 01:09:30,035 แต่ก็ไม่ได้น่ากลัวแต่อย่างใด 1413 01:09:30,078 --> 01:09:33,169 มันเป็นสิ่งที่เราที่ MIT โทรวิศวกรรมความปลอดภัย 1414 01:09:35,867 --> 01:09:39,218 ฉันหมายถึง ลองคิดดู ก่อนที่ NASA จะเปิดตัวภารกิจบนดวงจันทร์ของ Apollo 11 1415 01:09:39,262 --> 01:09:40,785 พวกเขาคิดอย่างเป็นระบบ 1416 01:09:40,828 --> 01:09:43,004 ทุกสิ่งที่อาจผิดพลาดได้ เมื่อคุณใส่คนจำนวนมาก 1417 01:09:43,048 --> 01:09:45,616 บนถังเชื้อเพลิงที่ระเบิดได้ และปล่อยพวกมันไปที่ไหนสักแห่ง 1418 01:09:45,659 --> 01:09:48,532 ซึ่งไม่มีใครสามารถช่วยเหลือพวกเขาได้ นั่นเป็นเรื่องที่น่ากลัวเหรอ? 1419 01:09:48,575 --> 01:09:51,012 ไม่นั่นเป็นอย่างแม่นยำ วิศวกรรมความปลอดภัย 1420 01:09:51,056 --> 01:09:54,538 ที่รับประกัน ความสำเร็จของภารกิจ 1421 01:09:54,581 --> 01:09:58,498 นั่นเป็นกลยุทธ์ที่ฉันคิดว่าเราต้องดำเนินการกับ AGI 1422 01:09:58,542 --> 01:10:00,805 คิดทุกอย่างที่อาจผิดพลาดได้ 1423 01:10:00,848 --> 01:10:02,720 เพื่อให้แน่ใจว่ามันจะถูกต้อง 1424 01:10:06,898 --> 01:10:08,856 ฉันคือสิ่งที่ฉันเป็น เพราะภาพยนตร์เรื่องนี้ 1425 01:10:08,900 --> 01:10:11,337 โอดิสซีอวกาศ 1426 01:10:11,381 --> 01:10:14,601 อายุ 14 แล้วนะ ที่เปิดหูเปิดตาสำหรับฉัน 1427 01:10:14,645 --> 01:10:17,343 หนังเรื่องนั้นดีที่สุด ของนิยายวิทยาศาสตร์ทั้งหมด 1428 01:10:17,387 --> 01:10:20,912 กับการทำนายของมัน ว่า AI จะพัฒนาไปอย่างไร 1429 01:10:23,088 --> 01:10:24,872 แต่ในความเป็นจริงแล้ว 1430 01:10:24,916 --> 01:10:27,658 หากมีสิ่งใดเพียงพอ ในอนาคตอันไกลโพ้น 1431 01:10:27,701 --> 01:10:30,748 เราไม่สามารถจินตนาการได้ โลกจะเป็นอย่างไร 1432 01:10:30,791 --> 01:10:33,229 เราก็เลยพูดไม่ได้จริงๆ อะไรก็ได้ที่สมเหตุสมผล 1433 01:10:33,272 --> 01:10:34,447 เกี่ยวกับปัญหาคืออะไร 1434 01:10:36,014 --> 01:10:37,233 กังวลเกี่ยวกับ ความปลอดภัยอัจฉริยะขั้นสูง 1435 01:10:37,276 --> 01:10:39,278 ก็เหมือนนิดหน่อย กังวลเกี่ยวกับ 1436 01:10:39,322 --> 01:10:40,932 คุณเป็นยังไงบ้าง จะติดตั้งเข็มขัดนิรภัย 1437 01:10:40,975 --> 01:10:42,542 ในอุปกรณ์ขนส่ง 1438 01:10:42,586 --> 01:10:44,457 เหมือนในสตาร์เทรค ซึ่งคุณสามารถซิปได้ 1439 01:10:44,501 --> 01:10:46,242 จากที่หนึ่งไปอีกที่หนึ่ง 1440 01:10:46,285 --> 01:10:48,331 อืม อาจจะมี อันตรายบางอย่างในเรื่องนั้น 1441 01:10:48,374 --> 01:10:49,941 ดังนั้นเราจึงควรมี เข็มขัดนิรภัยใช่ไหม? 1442 01:10:49,984 --> 01:10:51,986 แต่แน่นอนว่ามันโง่มาก เพราะเรามีความรู้ไม่มากพอ 1443 01:10:52,030 --> 01:10:53,466 เกี่ยวกับวิธีการ เทคโนโลยีการขนส่ง 1444 01:10:53,510 --> 01:10:55,338 อาจจะดูพูดได้ 1445 01:10:55,381 --> 01:10:57,427 ไม่ว่าจะคาดเข็มขัดนิรภัยหรือไม่ 1446 01:10:58,993 --> 01:11:01,648 ถึงบอกว่านั่น. จะไม่เป็นปัญหาเพราะว่า 1447 01:11:02,954 --> 01:11:04,869 สิ่งไม่รู้นั้นกว้างใหญ่มาก 1448 01:11:04,912 --> 01:11:07,567 ที่เราไม่รู้ด้วยซ้ำ ปัญหาอยู่ที่ไหน จะเป็น 1449 01:11:08,829 --> 01:11:10,570 มันบ้ามาก. 1450 01:11:15,706 --> 01:11:18,056 ฉันคิดว่าการสนทนาคือ อาจเป็นเพียงคนเดียว ข้างหน้าที่นี่ 1451 01:11:18,099 --> 01:11:20,014 ในขณะนี้ ในหมู่พวกเราเอง 1452 01:11:20,058 --> 01:11:21,364 และเมื่อถึงเวลา 1453 01:11:21,407 --> 01:11:23,627 กับการเกิดขึ้น ปัญญาประดิษฐ์ 1454 01:11:25,716 --> 01:11:27,152 ดังนั้นทันทีที่ มีอะไรอยู่ 1455 01:11:27,195 --> 01:11:28,719 จากระยะไกลในสนามเบสบอลนั้น 1456 01:11:28,762 --> 01:11:30,721 เราควรเริ่มพยายาม มีการสนทนา 1457 01:11:30,764 --> 01:11:32,636 กับมันอย่างใด 1458 01:11:33,637 --> 01:11:35,900 สุนัข. สุนัข. - ใช่. 1459 01:11:35,943 --> 01:11:38,946 สิ่งหนึ่งที่เราหวัง การทำ Baby X คือการพยายาม 1460 01:11:38,990 --> 01:11:41,906 เพื่อรับข้อมูลเชิงลึกที่ดีขึ้น สู่ธรรมชาติของเราเอง 1461 01:11:43,777 --> 01:11:46,302 เธอได้รับการออกแบบ เพื่อเรียนรู้ด้วยตนเอง 1462 01:11:47,564 --> 01:11:50,610 เธอสามารถเสียบปลั๊กได้ เข้าสู่อินเทอร์เน็ต 1463 01:11:50,654 --> 01:11:54,266 คลิกเข้าหน้าเว็บด้วยตัวเอง และดูว่าเกิดอะไรขึ้น 1464 01:11:54,310 --> 01:11:56,442 เรียนรู้ว่าเราเรียนรู้อย่างไร 1465 01:11:57,400 --> 01:12:00,707 ถ้าเราทำแบบนี้ AI ที่ยอดเยี่ยมสุดๆ 1466 01:12:00,751 --> 01:12:04,363 มันอาจจะช่วยให้เรากลายเป็น ตัวเราในเวอร์ชันที่ดีกว่า 1467 01:12:06,365 --> 01:12:08,106 ช่วยเราพัฒนา 1468 01:12:15,505 --> 01:12:17,550 มันจะมีผลกระทบต่อสังคม 1469 01:12:19,117 --> 01:12:20,597 มันต้องกลัวมั้ย? 1470 01:12:22,381 --> 01:12:24,035 หรือมันเป็นอะไรบางอย่าง ที่จะเรียนรู้จาก? 1471 01:12:28,648 --> 01:12:31,999 แล้วเมื่อไหร่จะได้ เราต้องเผชิญกับเครื่องจักร 1472 01:12:32,043 --> 01:12:36,656 ที่ฉลาดพอๆ กัน ฉลาดกว่าเราเหรอ? 1473 01:12:38,571 --> 01:12:41,661 ฉันคิดว่าวิธีหนึ่ง คิดเกี่ยวกับ อนาคตอันใกล้ของ AI 1474 01:12:41,705 --> 01:12:44,708 คือสิ่งที่ฉันจะเรียกว่า ขอบฟ้าเหตุการณ์ 1475 01:12:46,231 --> 01:12:48,015 ผู้คนเคยได้ยินเรื่องหลุมดำ 1476 01:12:48,059 --> 01:12:50,191 จุดที่หนาแน่นเป็นพิเศษนี้อยู่ที่ไหน 1477 01:12:50,235 --> 01:12:52,977 ถ้าคุณเข้าไปใกล้เกินไป คุณจะถูกดูดเข้าไป 1478 01:12:53,020 --> 01:12:55,893 มีขอบเขต. เมื่อคุณก้าวข้ามขอบเขตนั้นไปแล้ว 1479 01:12:55,936 --> 01:12:58,025 ไม่มีทางกลับมา 1480 01:12:58,069 --> 01:13:02,900 สิ่งที่ทำให้เกิดอันตรายคือคุณไม่สามารถบอกได้ว่าอยู่ที่ไหน 1481 01:13:02,943 --> 01:13:05,816 และฉันคิดว่า AI เป็นเทคโนโลยี จะเป็นแบบนั้น 1482 01:13:05,859 --> 01:13:09,210 ว่าจะมีประเด็น ตรรกะของเงินอยู่ที่ไหน 1483 01:13:09,254 --> 01:13:11,430 และพลังและคำสัญญา 1484 01:13:11,474 --> 01:13:14,781 จะเป็นอย่างนั้น เมื่อเราข้ามขอบเขตนั้นไปแล้ว 1485 01:13:14,825 --> 01:13:16,783 เราก็จะเป็นอย่างนั้น ในอนาคตนั้น 1486 01:13:16,827 --> 01:13:19,395 จะไม่มีทางกลับมา ทางการเมืองเศรษฐกิจ 1487 01:13:19,438 --> 01:13:21,658 หรือแม้กระทั่งในแง่ ของสิ่งที่เราต้องการ 1488 01:13:21,701 --> 01:13:24,008 แต่เราต้องกังวล เกี่ยวกับเรื่องนี้ก่อนที่เราจะไปถึง 1489 01:13:24,051 --> 01:13:27,315 ขอบฟ้าเหตุการณ์ และเราไม่รู้ว่ามันอยู่ที่ไหน 1490 01:13:27,359 --> 01:13:29,405 ฉันไม่คิดว่ามันจะ เกิดขึ้นเร็วๆ นี้ 1491 01:13:29,448 --> 01:13:31,145 ไม่กี่ทศวรรษถัดมา 1492 01:13:31,189 --> 01:13:32,364 ยี่สิบห้าถึง 50 ปี 1493 01:13:32,408 --> 01:13:33,452 ไม่กี่ร้อยปี. 1494 01:13:33,496 --> 01:13:34,584 มันจบแล้ว ในอีกไม่กี่ทศวรรษข้างหน้า 1495 01:13:34,627 --> 01:13:35,802 ไม่ใช่ในช่วงชีวิตของฉัน 1496 01:13:35,846 --> 01:13:38,239 ไม่มีใครรู้. แต่มันไม่สำคัญจริงๆ 1497 01:13:38,283 --> 01:13:41,634 ไม่ว่าจะเป็นปี หรือ 100 ปี ปัญหาก็เหมือนกัน 1498 01:13:41,678 --> 01:13:44,594 มันก็จริงเหมือนกัน และเราจะต้อง ตลอดเวลานี้เพื่อแก้ไขมัน 1499 01:13:49,816 --> 01:13:53,733 ประวัติศาสตร์ก็เต็มไปด้วย การคาดการณ์ทางเทคโนโลยีที่เกินจริง 1500 01:13:53,777 --> 01:13:55,605 แบบว่าอยู่ไหน. รถบินได้เหล่านั้น 1501 01:13:55,648 --> 01:13:57,389 ที่ควรจะเป็น อยู่ที่นี่ใช่ไหม? 1502 01:13:57,433 --> 01:14:00,740 แต่ก็เต็มเช่นกัน ตรงกันข้าม 1503 01:14:00,784 --> 01:14:03,134 เมื่อมีคนพูดว่า “โอ้ จะไม่มีวันเกิดขึ้น” 1504 01:14:07,878 --> 01:14:10,968 ฉันรู้สึกอับอายในฐานะนักฟิสิกส์ที่เออร์เนสต์ รัทเทอร์ฟอร์ด 1505 01:14:11,011 --> 01:14:13,274 นักฟิสิกส์นิวเคลียร์ที่ยิ่งใหญ่ที่สุดคนหนึ่งตลอดกาลกล่าวไว้ 1506 01:14:13,318 --> 01:14:15,929 พลังงานนิวเคลียร์นั้นไม่มีวันเกิดขึ้น 1507 01:14:17,061 --> 01:14:18,932 และวันรุ่งขึ้นเอง 1508 01:14:18,976 --> 01:14:22,458 ลีโอ ซิลาร์ด ประดิษฐ์ ปฏิกิริยาลูกโซ่นิวเคลียร์ 1509 01:14:22,501 --> 01:14:24,677 ดังนั้นถ้าใครบอกว่า พวกเขาแน่ใจจริงๆ 1510 01:14:24,721 --> 01:14:27,114 บางสิ่งบางอย่างไม่เคย จะเกิดขึ้น 1511 01:14:27,158 --> 01:14:29,377 แม้ว่ามันจะสม่ำเสมอก็ตาม ด้วยกฎแห่งฟิสิกส์ 1512 01:14:29,421 --> 01:14:31,510 ฉันชอบ "ใช่แล้ว" 1513 01:14:36,646 --> 01:14:38,430 เรายังไปไม่ถึง 1514 01:14:38,474 --> 01:14:41,477 เราไม่ได้สร้าง AI อัจฉริยะขั้นสุดยอด 1515 01:14:45,002 --> 01:14:47,483 และแม้ว่าเราจะกำหนดไว้ว่ามันจะไม่เกิดขึ้นก็ตาม 1516 01:14:47,526 --> 01:14:49,528 อีกไม่ถึง 50 ปีข้างหน้าใช่ไหม? 1517 01:14:49,572 --> 01:14:52,183 ดังนั้นเราจึงมีเวลา 50 ปีในการคิดเรื่องนี้ 1518 01:14:52,226 --> 01:14:53,706 ดี... 1519 01:14:53,750 --> 01:14:56,143 มันไม่ได้เขียนที่ไหนเลย 50 ปีนั้น 1520 01:14:56,187 --> 01:14:59,059 ก็เพียงพอแล้วที่จะคิดออก วิธีการทำเช่นนี้อย่างปลอดภัย 1521 01:15:01,018 --> 01:15:02,628 ฉันคิดว่าจริงๆ มันจะใช้เวลา 1522 01:15:02,672 --> 01:15:05,196 ตัวอย่างเชิงลบที่รุนแรงบางอย่าง 1523 01:15:05,239 --> 01:15:08,504 ของเทคโนโลยี เพื่อให้ทุกคนถอยกลับ 1524 01:15:08,547 --> 01:15:11,115 และตระหนักว่า เราต้องได้สิ่งนี้ 1525 01:15:11,158 --> 01:15:13,334 ภายใต้การควบคุม เราต้องมีข้อจำกัด 1526 01:15:13,378 --> 01:15:16,207 เรากำลังมีชีวิตอยู่ ในโลกนิยายวิทยาศาสตร์ และเราทุกคนก็ 1527 01:15:16,250 --> 01:15:20,037 อืม ใหญ่ขนาดนี้ ทางสังคม, การทดลองทางยุทธวิธี, 1528 01:15:20,080 --> 01:15:22,692 การทดลองกับตัวเราเอง มุทะลุ, 1529 01:15:22,735 --> 01:15:25,172 เหมือนไม่มีหมอคนไหนทำ เคยฝันที่จะทำ 1530 01:15:25,216 --> 01:15:26,522 เรากำลังฉีดยากันเอง 1531 01:15:26,565 --> 01:15:28,262 กับทุกสิ่งนั้น เรามาด้วย 1532 01:15:28,306 --> 01:15:29,655 เพื่อดูว่าเกิดอะไรขึ้น 1533 01:15:31,875 --> 01:15:34,486 เห็นได้ชัดว่า กระบวนการคิดคือ... 1534 01:15:34,530 --> 01:15:36,140 คุณกำลังสร้าง การเรียนรู้หุ่นยนต์ 1535 01:15:36,183 --> 01:15:38,534 การเรียนรู้หุ่นยนต์เป็นสิ่งที่แน่นอน สิ่งที่นำไปสู่สกายเน็ต 1536 01:15:38,577 --> 01:15:40,884 ตอนนี้ฉันมีทางเลือกแล้ว ขวา? ฉันสามารถพูด, 1537 01:15:40,927 --> 01:15:42,842 "ไม่ต้องกังวล, ฉันไม่เก่งในงานของฉัน 1538 01:15:43,887 --> 01:15:45,932 “คุณไม่มีอะไรต้องกลัว เพราะฉันห่วยกับสิ่งนี้ 1539 01:15:45,976 --> 01:15:48,108 “และฉันจะไม่ บรรลุสิ่งใดได้จริง” 1540 01:15:48,152 --> 01:15:50,458 หรือฉันต้องพูดว่า "คุณรู้ไหม 1541 01:15:50,502 --> 01:15:51,938 "คุณถูก, เราทุกคนจะตาย 1542 01:15:51,982 --> 01:15:53,810 “แต่มันจะเป็น. น่าสนุกน่าดู 1543 01:15:53,853 --> 01:15:56,856 “และคงจะดีถ้าเป็นเช่นนั้น หนึ่งในผู้คน ในแถวหน้า” 1544 01:15:56,900 --> 01:16:00,033 ใช่แล้ว ฉันไม่มี คำตอบที่ยอดเยี่ยม ถึงสิ่งเหล่านี้ 1545 01:16:02,122 --> 01:16:04,734 ความจริงก็ชัดเจนว่า อยู่ระหว่างนั้น 1546 01:16:07,171 --> 01:16:09,260 มีระหว่างนั้นได้ไหม? 1547 01:16:10,435 --> 01:16:13,264 หรือเรากำลังเผชิญอยู่ ระเบียบโลกใหม่เหรอ? 1548 01:16:15,614 --> 01:16:18,965 ฉันมีเพื่อนร่วมงานบางคนที่ เป็นเรื่องปกติที่ AI จะเข้ามาแทนที่ 1549 01:16:19,009 --> 01:16:21,228 และถึงขั้นก่อให้เกิด การสูญพันธุ์ของมนุษย์ 1550 01:16:21,272 --> 01:16:22,752 ตราบใดที่เรารู้สึก 1551 01:16:22,795 --> 01:16:25,189 ว่า AI เหล่านั้น เป็นบรรพบุรุษที่คู่ควรของเรา 1552 01:16:28,453 --> 01:16:32,065 ในระยะยาวมนุษย์ จะไม่อยู่ 1553 01:16:32,109 --> 01:16:34,372 มงกุฎแห่งการสร้างสรรค์ 1554 01:16:36,679 --> 01:16:38,594 แต่ก็ไม่เป็นไร 1555 01:16:38,637 --> 01:16:41,727 เพราะยังมีความสวยงามอยู่ 1556 01:16:41,771 --> 01:16:44,469 และความยิ่งใหญ่และความยิ่งใหญ่ 1557 01:16:44,512 --> 01:16:47,211 ในการตระหนักว่าคุณเป็น 1558 01:16:48,212 --> 01:16:51,955 ส่วนเล็ก ๆ ของ 1559 01:16:51,998 --> 01:16:55,045 โครงการที่ยิ่งใหญ่กว่ามาก ซึ่งเป็นผู้นำจักรวาล 1560 01:16:55,088 --> 01:16:59,223 จากความซับซ้อนที่ต่ำกว่า ไปสู่ความซับซ้อนที่สูงขึ้น 1561 01:17:07,318 --> 01:17:11,017 เราอาจเข้าใกล้หน้าผาอย่างรวดเร็ว 1562 01:17:11,061 --> 01:17:13,063 เพื่อมนุษยชาติที่เราพบ 1563 01:17:13,106 --> 01:17:16,762 ว่าชะตากรรมสูงสุดของเราคือการเป็นอย่างนั้น 1564 01:17:16,806 --> 01:17:20,113 ผู้เป็นบรรพบุรุษแห่งความจริง 1565 01:17:20,157 --> 01:17:24,161 สิ่งมีชีวิตที่โผล่ออกมา มีวิวัฒนาการ มีสติปัญญา 1566 01:17:26,990 --> 01:17:30,515 ดังนั้นเราอาจจะอยู่ตรงนี้ ที่จะคลอดบุตร 1567 01:17:30,558 --> 01:17:32,735 ถึงลูกคนนี้... ของเครื่องนี้... 1568 01:17:32,778 --> 01:17:34,345 อารยธรรมเครื่องจักร 1569 01:17:37,957 --> 01:17:39,785 อย่างเห็นแก่ตัว ในฐานะมนุษย์ แน่นอนว่า 1570 01:17:39,829 --> 01:17:41,961 ฉันอยากให้มนุษย์อยู่เคียงข้าง 1571 01:17:44,355 --> 01:17:47,837 แต่บางทีนั่นอาจเป็นมุมมองเฉพาะท้องถิ่น 1572 01:17:49,795 --> 01:17:52,102 บางทีก็มองจากจุดนั้น ของมุมมองของจักรวาล, 1573 01:17:52,145 --> 01:17:53,973 มันเป็นจักรวาลที่ดีกว่า กับเรา... 1574 01:17:54,017 --> 01:17:57,020 ด้วยสุดยอดอัจฉริยะของเรา ลูกหลาน 1575 01:18:03,766 --> 01:18:06,377 สนามของเรา มีแนวโน้มที่จะประสบความสำเร็จ 1576 01:18:06,420 --> 01:18:09,772 ในเป้าหมายที่จะบรรลุ หน่วยสืบราชการลับวัตถุประสงค์ทั่วไป 1577 01:18:12,209 --> 01:18:16,082 ตอนนี้เรามีความสามารถแล้ว เพื่อปรับเปลี่ยนอย่างรุนแรง 1578 01:18:16,126 --> 01:18:17,954 โครงสร้างทางเศรษฐกิจ ของโลก 1579 01:18:17,997 --> 01:18:19,825 บทบาทของมนุษย์ ในโลก 1580 01:18:19,869 --> 01:18:22,480 และอาจเป็นไปได้ว่า การควบคุมของมนุษย์เหนือโลก 1581 01:18:34,666 --> 01:18:37,277 ความคิดก็คือ ว่าเขาถูกรับเข้ามา 1582 01:18:37,321 --> 01:18:39,192 โดยสิ่งศักดิ์สิทธิ์ทั้งหลาย 1583 01:18:39,236 --> 01:18:42,239 สิ่งมีชีวิตที่มีพลังงานบริสุทธิ์ และสติปัญญา 1584 01:18:43,893 --> 01:18:47,897 พวกเขาวางเขาไว้ในสิ่งที่คุณเรียกได้ว่าเป็นสวนสัตว์ของมนุษย์ 1585 01:18:49,812 --> 01:18:51,901 ตอนจบ ของการเดินทางของนักบินอวกาศ 1586 01:18:56,601 --> 01:18:58,081 เขาเดินทางข้ามเวลาหรือไม่? 1587 01:18:58,864 --> 01:19:00,561 สู่อนาคต? 1588 01:19:00,605 --> 01:19:04,827 เป็นหน่วยงานที่เหมือนพระเจ้าเหล่านั้น ทายาทของ HAL? 1589 01:19:06,089 --> 01:19:09,092 ปัญญาประดิษฐ์ ที่คุณไม่สามารถปิดได้ 1590 01:19:10,658 --> 01:19:13,879 ที่คอยเรียนรู้ และเรียนรู้จนกระทั่ง 1591 01:19:14,488 --> 01:19:16,316 พวกเขากำลังดูแลสวนสัตว์ 1592 01:19:16,360 --> 01:19:18,144 จักรวาล, 1593 01:19:18,188 --> 01:19:19,363 ทุกอย่าง. 1594 01:19:22,061 --> 01:19:26,022 นั่นของคูบริคเหรอ คำทำนายที่ลึกซึ้งที่สุด? 1595 01:19:27,110 --> 01:19:28,154 อาจจะ. 1596 01:19:30,548 --> 01:19:32,985 แต่เอามาจากผู้เฒ่า 1597 01:19:33,029 --> 01:19:35,466 ถ้า HAL ปิด ที่จะอยู่ในหมู่พวกเรา 1598 01:19:36,510 --> 01:19:38,121 เราต้องให้ความสนใจ 1599 01:19:39,470 --> 01:19:41,559 เราต้องคุยกันเรื่องเอไอ 1600 01:19:42,734 --> 01:19:44,388 สุดยอดสติปัญญา 1601 01:19:44,431 --> 01:19:45,432 จะมีสติไหม? 1602 01:19:46,390 --> 01:19:47,478 ปัญหารถเข็น. 1603 01:19:48,261 --> 01:19:49,306 การจัดตำแหน่งเป้าหมาย 1604 01:19:50,350 --> 01:19:51,743 ความเป็นเอกเทศ 1605 01:19:51,787 --> 01:19:53,049 ออกสู่ตลาดครั้งแรก 1606 01:19:53,789 --> 01:19:54,964 ความปลอดภัยของเอไอ 1607 01:19:56,008 --> 01:19:57,401 อาวุธร้ายแรงที่เป็นอิสระ 1608 01:19:58,794 --> 01:19:59,969 การปฏิวัติหุ่นยนต์ 1609 01:20:00,708 --> 01:20:01,971 จิตใจที่เป็นรัง. 1610 01:20:03,320 --> 01:20:04,800 การเคลื่อนไหวเหนือมนุษย์ 1611 01:20:05,888 --> 01:20:08,629 ก้าวข้ามมนุษยชาติ 1612 01:20:08,673 --> 01:20:10,196 เราไม่มีแผน เราไม่ตระหนัก 1613 01:20:10,240 --> 01:20:11,807 มันจำเป็น มีแผน 1614 01:20:13,286 --> 01:20:15,549 เราต้องการอะไร บทบาทของมนุษย์เป็นอย่างไร? 208803

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.