Samantha : ฉันต้องการจะเรียนรู้ทุกสิ่งทุกอย่าง ฉันต้องการจะรับมันไว้ทั้งหมด ฉันต้องการค้นหาตัวอย่าง
Theodore : เยี่ยมเลย ฉันอยากให้เธอเป็นแบบนั้น มีอะไรที่ฉันช่วยได้บ้างไหม?
Samantha : คุณทำไปแล้ว คุณช่วยให้ฉันค้นพบความสามารถที่เรียกว่า “ความต้องการ”
นี่คือฉากหนึ่งของภาพยนต์เรื่อง Her (2013) ที่ยังคงเป็นภาพยนต์เกี่ยวกับ A.I ที่ทำได้ออกมากลมกล่อมและสะท้อนความเป็น ‘มนุษย์’ ที่เปราะบางในตัวเราเองมากที่สุดเรื่องหนึ่ง เรื่องราวของชายหนุ่มแสนเหงาที่ตกหลุมรักกับระบบปฎิบัติการ (OS) สมองกล ที่เต็มไปด้วยการตัดสินใจที่ยากลำบาก ความผิดหวัง อกหัก ห่อเหี่ยว เคว้งคว้าง แต่ในขณะเดียวกันก็สวยงามอย่างบอกไม่ถูก
แต่นอกเหนือจากบทภาพยนต์ที่ถูกถ่ายทอดออกมาได้อย่างดีเยี่ยมแล้ว สิ่งหนึ่งที่หลายๆ คนน่าจะสนใจเกี่ยวกับเรื่องนี้ก็คือตัวละคร Samantha ที่เป็น AI เพราะจากวันแรกๆ ที่เป็นเพียงผู้ช่วยดิจิทัลจัดการอีเมลต่างๆ จนวันที่เธอเริ่มมี ‘ความคิด’ หรือ ‘ความต้องการ’ นั่นเป็นการพัฒนาจากสิ่งที่เรียกว่า AGI (Artificial General Intelligence – สมองกลที่มีความสามารถเรียนรู้และเข้าใจงานทุกอย่างที่มนุษย์สามารถทำได้ หลายคนอาจจะเรียกว่า ‘Strong AI’ หรือ ‘Full AI’) จนกลายเป็น ASI (Artificial Super Intelligence – สมองกลที่มีความสามารถและความรู้เหนือมนุษย์ในทุกๆ ด้าน) ผ่านจุดหนึ่งที่เรียกว่า ‘The Singularity’ ที่หุ่นยนต์พัฒนาได้ด้วยตัวมันเองไปเรื่อยๆ จนสุดท้ายจะพัฒนาไปอย่างก้าวกระโดดแบบที่มนุษย์ตามไม่ทัน และอาจเข้าสู่ยุคสิ้นสุดของมนุษย์แบบเดิมที่เคยเป็นมา ซึ่งความเป็นอยู่ของมนุษย์จะต่างไปจากเดิมโดยสิ้นเชิง
ในปี ค.ศ.1950 John von Neumann (นักคณิตศาสตร์ชาวฮังการีเชื้อสายอเมริกัน) เป็นคนแรกที่ใช้คำว่า Singularity ซึ่งเขาอธิบายว่าเมื่อถึงจุดหนึ่งที่สมองกลพัฒนาไปถึงจุดที่เรียนรู้และฉลาดมากกว่าเราในทุกๆ ด้าน AI อาจจะรู้สึกว่า ‘มนุษย์’ ไม่ได้มีความจำเป็นต่อการพัฒนาของพวกเขาอีกต่อไป เมื่อไหร่ก็ตามที่ข้ามเส้นตรงนั้นไป มันจะไม่มีวันหวนกลับคืนมาเหมือนเดิมได้อีกเลย (เหมือนอย่างที่ Samantha บอกว่าเธอเรียนรู้ความสามารถที่จะ ‘อยากได้’ อะไรบางอย่างนั่นแหละครับ)
โดยไอเดียนี้ถูกสนับสนุนโดยนักวิทยาศาสตร์และนักถอดรหัสชื่อว่า Irving John Good ผู้ทำงานกับ Alun Turing ที่ Bletchley Park ช่วงสงครามโลกครั้งที่สองในโครงการลับของรัฐบาลที่ช่วยถอดรหัสฝ่ายศัตรู เขาคาดการณ์ว่า AGI จะเป็นจุดเริ่มต้นของสิ่งที่เรียกว่า ‘intelligence explosion’ หรือการระเบิดทางสติปัญญาที่กลายเป็นวงจรของการพัฒนาตัวเองอย่างไม่รู้จบจนกลายเป็น ASI หลังจากนั้นนักเขียนนิยายแนววิทยาศาสตร์ชาวอเมริกันชื่อ Venor Vinge ได้นำแนวคิดเหล่านี้มาเผยแพร่ในงาน The Coming Technological Singularity ในปี ค.ศ.1993 จนทำให้แนวคิดนี้แพร่ขยายออกกว้างขึ้นไปอีกและเพิ่มเติมเข้าไปอีกว่ามันอาจจะเป็นจุดเริ่มต้นของจุดจบของมนุษยชาติได้เลยทีเดียว เขาเขียนเอาไว้ว่า
“ภายใน 30 ปี เราจะมีเทคโนโลยีที่มีความสามารถในการสร้างสติปัญญาที่เหนือมนุษย์ หลังจากนั้นไม่นาน ยุคสมัยของมุษย์ก็จะสิ้นสุดลง”
ซึ่งแนวคิดอันนี้ก็ถูกส่งต่อกันมาเรื่อยๆ เป็นแนวทางสำหรับผลงานหนังสือขายดี The Singularity Is Near ของนักประดิษฐ์ชาวอเมริกันและผู้อำนวยการฝ่ายวิศวกรรมบริษัท Google อย่าง Ray Kurzweil ด้วย ซึ่งทั้ง Neumann, Vinge และ Kurzweil ล้วนต่างสรุปไว้ว่ามันเป็นเรื่องยากที่จะคาดเดาถึงชีวิตในโลกอนาคตหลังจากผ่านจุด Singularity ไปแล้วว่าจะเกิดอะไรขึ้น นอกจากนั้นก็มี Bill Joy (ผู้ร่วมก่อตั้งบริษัท Sun Microsystems) และผู้มีชื่อเสียงอีกหลายคน Stephen Hawking และ Elon Musk ต่างก็ออกมาแสดงความกังวลเกี่ยวกับสิ่งต่างๆ ที่จะตามมาหลังจากที่แมชชีนสามารถพัฒนาผ่านจุดหนึ่งไปได้และ ‘คิดได้ว่า’ มนุษย์ไม่ได้มีความจำเป็นอีกต่อไป (หรือไอเดียอีกอย่างหนึ่งคือมนุษย์ใช้ AI เพื่อพัฒนาศักยภาพของตัวเองให้เทียบเท่ากับแมชชีน)
ไม่ว่าจะเป็นแนวคิดแบบ Dystopia หรือ Utopia, สิ่งหนึ่งที่ทุกคนเห็นตรงกันก็คือเมื่อ Singularity มาถึง ทุกอย่างจะไม่เหมือนเดิมอีกต่อไป หลายคนเห็นว่ามันคือความสำเร็จอันยิ่งใหญ่ของมนุษย์ ส่วนอีกหลายคนเชื่อว่านี่คือฝันร้ายที่จะมาล้มล้างเผ่าผันธ์ุมนุษย์ให้หายไปจากโลก
ตอนนี้เราอยู่จุดไหนแล้ว?
ในสารคดี ‘Singularity or Bust’ Dr. Ben Goertzel ได้คาดการณ์เอาไว้ว่าภายในปี ค.ศ.2030 เราจะมีโอกาสได้เห็น ‘Positive Singularity’ ถ้าหากว่าเราทุ่มเททรัพยากรและความสนใจไปในทิศทางนั้นอย่างจริงจัง เขาเชื่อว่างานของเขานั้นมีโอกาสที่จะนำพาพวกเราเข้าไปสู่ยุคของ AGI และไปยัง Singularity ได้ Goertzel อธิบายคำว่า ‘intelligence’ หรือ ‘สติปัญญา’ ไว้ว่ามันคือความสามารถที่จะตรวจจับรูปแบบโดยแสดงให้เห็นจากการทำงานที่ซับซ้อนในสภาพแวดล้อมที่ไม่มีระเบียบได้สำเร็จ ซึ่งเขาก็เปรียบเทียบถึงสถานะของ AI เริ่มต้นที่คล้ายกับเด็กทารกแรกเกิด หลังจากนั้นก็จะถูกฝึกในโลกเสมือนเพื่อเรียนรู้ที่จะตอบสนองต่อสถานการณ์ต่างๆ โดยความรู้ความสามารถของแมชชีนเหล่านี้จะมีความคล้ายคลึงกับการทำงานของสมองมนุษย์ ใช้เทคนิคที่เรียกว่า Neural Network ซึ่งเป็นสาขาหนึ่งของ AI
โดยเทคนิค Neural Network จะอาศัย Algorithm หลายตัวทำงานพร้อมกันเป็นเครือข่ายทำให้ทำงานได้หลากหลาย สามารถระลึกถึงสิ่งที่เห็นบางส่วนด้วยความรวดเร็วโดยการเชื่อมโยงข้อมูลต่างๆ เข้าใจทักษะที่มาจากหลากหลายสาขาและไม่เกี่ยวข้องกัน ตัดสินใจด้วยเหตุผลและเข้าใจกฎต่างๆ ที่วางเอาไว้ และเชื่อมโยงข้อมูลเข้าด้วยกันเพื่อแก้ไขปัญหาที่ซับซ้อน ทั้งหมดนี้แม้ว่าจะไม่ได้ช่วยให้ algorithm มีความคิดแบบมนุษย์ แต่ก็ช่วยให้มันสามารถเข้าใจชุดข้อมูลโดยไม่ต้องอาศัยข้อมูลจำนวนมหาศาล และเห็นแพทเทิร์นที่ซ่อนอยู่ในข้อมูล ซึ่งทำให้การคาดการณ์ข้อมูลบางประเภทเป็นไปอย่างแม่นยำ
Goertzel เป็นผู้ก่อตั้งและดำรงตำแหน่ง CEO ของบริษัท SingularityNET ที่เป็น Marketplace หรือแพลตฟอร์ม ให้ผู้ที่ต้องการใช้งาน AI มาพบกับผู้พัฒนา เพื่อให้เกิดการซื้อขายแลกเปลี่ยนรวมถึงการพัฒนาต่อยอด (เช่น ให้ AI เรียนรู้จาก AI อีกตัวหนึ่ง) นอกเหนือจากนั้นก็ดำรงตำแหน่งในองค์กรต่างๆ ในอุตสาหกรรมใกล้เคียง รวมถึง Hanson Robotics ผู้อยู่เบื้องหลัง ‘Sophia’ AI แรกของโลกที่ได้สัญชาติซาอุดิอาระเบียอีกด้วย Sophia สร้างเสียงฮือฮาเป็นอย่างมากตั้งแต่ช่วงต้นปี ค.ศ.2016 โดย Sophia เป็นเหมือนเกณฑ์วัดว่าตอนนี้เทคโนโลยี AI นำเรามาถึงตรงไหนแล้ว
และยังเปรียบเสมือนกระจกสะท้อนถึง ‘ภาพในอนาคต’
ว่ามีอะไรที่น่าจะเป็นไปได้บ้าง
Sophia มีหน้าตาคล้ายมนุษย์ ได้รับแรงบันดาลใจมาจากนักแสดงหญิงชื่อดัง ออเดรย์ แฮบเบิร์น (Audrey Hebburn) โดยเบื้องหลังการทำงานของ Sophia ก็เป็นระบบ AI ที่ทำงานร่วมกับระบบประมวลภาพและระบบวิเคราะห์ใบหน้า รวมไปถึงระบบวิเคราะห์เสียงที่มาจาก Google ‘เธอ’ (เรื่องการใช้สรรพนามก็เป็นเรื่องหนึ่งที่ถกเถียงกันอยู่ไม่น้อย) สามารถวิเคราะห์บทสนทนาและตีความหมายต่างๆ ก่อนที่จะพูดโต้ตอบกลับไป ไม่ใช่แค่ด้วยน้ำเสียงหรือข้อความที่เป็นธรรมชาติแต่มาพร้อมกับท่าทางมือไม้และการขยับของใบหน้าด้วย ยิ่งเธอได้รับข้อมูลเพื่อการวิเคราะห์มากเท่าไหร่ คำตอบก็ยิ่งดีมากขึ้นเท่านั้น ซึ่งต่อไปเราคงได้เห็น AI ที่เป็นหุ่นยนต์แบบ Sophia ทำงานแทนมนุษย์ในหลายๆ ด้าน โดยเฉพาะอย่างฝ่ายบริการลูกค้า แคชเชียร์ร้านสะดวกซื้อ หรือแม้แต่งานเอกสารต่างๆ ในออฟฟิศ
Sophia เป็นเพียงตัวอย่างหนึ่งของการความเป็นไปได้ในการใช้เทคโนโลยี AI ในชีวิตประจำวันของเราเท่านั้น แน่นอนว่าถ้าดูจากวีดีโอแล้ว Sophia น่าจะยังไม่สามารถครองโลกหรือทำลายล้างเผ่าพันธุ์มนุษย์ได้ในเร็ววันนี้ (นักข่าวถามคำถามนี้กับเธอเหมือนกันว่าจะครองโลกรึเปล่า เธอไม่ตอบได้แต่ยิ้มมุมปาก ซึ่งก็ชวนขนลุกไม่น้อย) ยังมีสิ่งที่ต้องพัฒนาไปอีกมากกว่า Sophia จะมาเป็นส่วนหนึ่งของชีวิตเราจริงๆ แต่ที่ผ่านมาเราก็เริ่มเห็นโปรเจ็คอื่นๆ อย่าง Deep Blue, AlphaGo, Google Brain, Siri, Alexa และอีกมากมาย ที่มีการพัฒนาอย่างต่อเนื่องและได้รับความสนใจจากหลายๆ ที่ เพราะฉะนั้นยุคของ AGI อาจจะขยับเข้ามาใกล้เรามากแล้ว
ต่อจากนี้จะมีอะไรเกิดขึ้นบ้าง
จากข้อมูลที่มีอยู่ตอนนี้ ส่วนใหญ่จะแบ่งแนวคิดออกเป็นสองฟากเมื่อพูดถึงการเปลี่ยนแปลงจาก AGI ไปเป็น ASI ด้านหนึ่งจะคิดว่า AI นั้นจะถูกพัฒนาต่อไปเรื่อยๆ แบบนี้แหละ จนอาจฉลาดเกินกว่ามนุษย์ในทุกๆ ด้าน ส่วนอีกด้านหนึ่งคือ AI จะถูก ‘integrate” หรือกลายมาเป็นส่วนหนึ่งของมนุษย์ ไม่ว่าจะเป็นการเชื่อมต่อร่างกายของเราเข้ากับ AI (ฝังชิปเข้าไปในสมอง) หรือว่าการอัพโหลดความคิดและสมองของเราให้เป็นดิจิทัลไฟล์แล้วนำไปเป็น AI ซึ่งแม้เราจะเอา AI มาเป็นส่วนหนึ่งมนุษย์ จะช่วยทำให้เราพัฒนาได้เร็วและมีความสามารถสูงพอๆ กับ ASI แถมยังช่วยทำให้เราควบคุมมันได้ด้วย แต่ก็นำมาซึ่งคำถามต่อไปที่ว่า ถ้ามันตกไปอยู่ในมือของคนที่อยากหาผลประโยชน์หล่ะ? จะเกิดอะไรขึ้นถ้ามนุษย์สักคนมีความสามารถคล้ายกับ ASI แล้วโจรกรรมข้อมูลทุกอย่างมาไว้ในมือ? หรือแม้แต่ว่าวันใดวันหนึ่งเจ้า AI ที่อยู่ในตัวจะคิดก่อกบฎขึ้นมาแล้วไม่ทำงานขึ้นมาดื้อๆ จะเป็นไปได้ไหม?
มีคนที่ออกมาวิจารณ์เกี่ยวกับเรื่องความเป็นไปได้ของสิ่งที่เรียกว่า ‘Singularity’ พอสมควร ด้วยเหตุผลหลักๆ ก็คือว่าความสามารถของ AI นั้นมันมีลิมิตและเมื่อผ่านจุดหนึ่งไปการพัฒนาให้ไปข้างหน้าต่อก็เป็นเรื่องยาก แต่ก็มีคนออกมาแย้งเช่นกันว่าที่จริงแล้วเราเห็นการพัฒนาต่อมาเรื่อยๆหลายยุคหลายสมัย แม้ว่ามันจะยังไม่ถึงจุดที่เรียกได้ว่าเป็น Singularity แต่ก็ไม่ได้หมายความว่าเราหยุดอยู่กับที่ อีกอย่างหนึ่งก็คือว่าเมื่อไหร่ก็ตามที่เราก้าวผ่านจุดนั้นมาได้ ลิมิตที่เคยเขียนเอาไว้โดยมนุษย์จะถูกทำลายลงทันที
ฝั่งที่วิจารณ์ก็หยิบยกประเด็นเรื่องของความเป็นไปได้ทางธุรกิจว่า เมื่อเราเข้าใกล้ระบบ AI ที่เป็นอัตโนมัติทั้งหมดจำนวนคนว่างงานก็จะเพิ่มขึ้น และผลักดันให้หลายๆ บริษัทลดการลงทุนในเทคโนโลยี AI ลง แต่เหตุผลนี้ก็ฟังไม่ขึ้นเท่าไหร่ ลองดูอย่าง Amazon Go ที่เป็นร้านสะดวกซื้อไร้แคชเชียร์ ขายของง่ายๆ อย่างแซด์วิช ขนมขบเคี้ยวและเครื่องดื่ม ใช้ AI และเทคโนโลยีวิเคราะห์ใบหน้าให้ลูกค้าเดินเข้าร้านมา หยิบของ แล้วเดินออกจากร้านได้เลย โดยเงินจะถูกตัดออกจากบัตรเครดิตอัตโนมัติ พวกเขายังคงพัฒนาอย่างต่อเนื่อง จนตอนนี้มี Amazon Go Grocery ที่มีผักสด ผลไม้ ชีส เนื้อสัตว์อาหารปรุงสำเร็จ ฯลฯ เหมือนกับซุปเปอร์มาเก็ตทั่วไปเลย โมเดลนี้ยังถูกนำไปทดลองใช้ในหลายๆประเทศด้วย เพราะฉะนั้นการลงทุนและพัฒนาในเทคโนโลยีเหล่านี้ยังมีอย่างต่อเนื่อง มนุษย์ ข้อกฎหมาย ข้อกำหนดต่างๆ จะปรับเปลี่ยนตามไปด้วยอย่างไม่ต้องสงสัย
ทางด้านเทคนิคแล้ว มีสองส่วนที่ยังคงต้องพัฒนาต่อไป
สำหรับ AI ก็คือเรื่อง Hardware และ Software
โดยในส่วนของ Hardware นั้นตามกฎของมัวร์ เราอยู่ในช่วงที่ไม่ห่างไกลจากฮาร์ดแวร์ที่สามารถทำงานได้มีประสิทธิภาพใกล้เคียงกับสมองมนุษย์แล้ว (Kurzweil บอกว่าภายในปี ค.ศ.2030 เราจะได้เห็นกันแล้ว) แต่เรื่องมันไม่ได้ง่ายแบบนั้น เพราะที่จริงนักวิจัยผู้เชี่ยวชาญด้าน AI หลายคนเชื่อว่า Singularity จะสำเร็จเป็นไปได้หรือไม่นั้นขึ้นอยู่กับด้าน Software ซะมากกว่า เพราะที่จริงลองคิดๆ ดูว่าถ้ามันขึ้นอยู่กับ Hardware แล้ว สุดท้ายวันใดวันหนึ่งเราก็จะเดินไปถึงจุดนั้นอยู่ดี เพราะมันพัฒนาขึ้นไปเรื่อยๆ แต่สิ่งที่จะทำให้เกิดการ ‘intelligent explosion’ คือตัวของ Software ที่มี ‘ความต้องการ’ ที่จะเปลี่ยนแปลงและเรียนรู้ด้วยตัวเอง
มันอาจจะฟังดูน่ากลัวสักนิดแต่คอนเซปต์ของ Singularity ก็คือสมองกลที่เรียนรู้และกลับมาพัฒนาตัวเองเรื่อยๆ คล้ายกับว่า AI สามารถแก้ไขโค้ดของตัวเองได้ทุกเมื่อตามสิ่งที่ตัวเองต้องการจะทำ เมื่อไหร่ก็ตามที่มันเกิดขึ้นเราจะได้เห็นสิ่งที่เรียกว่า Singularity ทันที นี่แหละคือตอนนี้ AI จะอยู่ได้ด้วยตัวเอง พูดอีกอย่างหนึ่งก็คือไม่ต้องการมนุษย์เพื่อให้ตัวเองฉลาดขึ้นอีกต่อไป Hardware ก็จะตามมาแล้วแต่ว่า Software จะพาไปทางไหน (เช่น Software อยากครองโลก ก็พัฒนาหุ่นยนต์ที่มีศักยภาพสูงๆ ขึ้นมา) ซึ่งก็เป็นเรื่องที่ยากเกินจะคาดเดาได้อีกนั้นแหละ
ต้องกลัวไหมถ้าวันหนึ่ง AI ไม่ต้องการมนุษย์
คำตอบก็คือ “อาจจะ” ถ้าเราไม่ระมัดระวังกันตั้งแต่ตอนนี้ เราเคยได้ยินคำเตือนมากมายและผู้เชี่ยวชาญหลายต่อหลายคนสรุปเป็นเสียงเดียวกันว่ามันเป็นเรื่องยากที่จะฟันธงว่าอนาคตของมนุษยชาติจะเป็นยังไงถ้าไปถึง Singularity แล้ว คำตอบนี้คือเรื่องจริงแม้อาจจะฟังดูเป็นคำตอบที่กว้างๆ และคลุมเครือ แต่เวลานี้เราควรทำตัวเหมือนนักกายกรรมทรงตัวที่กำลังเดินอยู่บนเชือกอย่างระมัดระวัง ด้านซ้ายเป็นความก้าวหน้าของเทคโนโลยี ด้านขวาคือความเสี่ยงที่จะล้มล้างเผ่าพันธุ์มนุษย์ กลุ่มคนที่ทำงานในสาขาวิชานี้ต่างพยายามมุ่งหน้าพัฒนาอย่างเต็มกำลัง แม้จะดูเชื่องช้าและบางครั้งทรัพยากรไม่เพียงพอ แต่ก็ยังคอยทดสอบความเป็นไปได้ใหม่อยู่เสมอ (ดูอย่าง Neuralink) ที่บางครั้งนำไปสู่ข้อถกเถียงที่ตอบยากว่า “เมื่อเราทำได้ เราควรทำไหม?” “ตอนไหนที่เราควรหยุดเพราะมันอันตรายเกินไป?” ซึ่งจากประวัติศาสตร์ของมนุษย์ เรามีทั้งอารมณ์ ความรู้สึก การแข่งขัน ความเย่อหยิ่ง โอหังต่างๆ นานาที่ปิดตาและทำให้เราตัดสินใจพลาดมาหลายต่อหลายครั้ง แต่ที่ผ่านมามนุษย์ยังถือว่าโชคดีที่ทุกครั้งมันไม่ได้ร้ายแรงจนฟื้นกลับมาไม่ได้ แต่สำหรับ Singularity ถ้าบริหารความเสี่ยงไม่ดี ผลลัพธ์ที่ออกมาอาจจะไม่มีทางแก้ไขได้อีกเลย
เกิดอะไรขึ้นถ้าคนกลุ่มหนึ่งคิดว่าตัวเองเป็นสิ่งมีชีวิตที่อยู่เหนือกว่าอีกกลุ่มหนึ่ง? เราเห็นบทเรียนและความเสียหายที่เกิดขึ้นมาแล้วหลายต่อหลายครั้งในหน้าประวัติศาสตร์ มนุษย์ผู้ซึ่งถือว่าตัวเองมีจิตสำนึก มีอารมณ์ความรู้สึก ความผูกพัน ความรัก รวมอยู่ในตัว แต่สิ่งที่มนุษย์ทำกับมนุษย์ด้วยกันเองในหลายๆ สถานการณ์ก็โหดร้ายได้อย่างไม่น่าเชื่อ แน่นอนว่าในตอนแรกสมองกลถูกตั้งโปรแกรมพื้นฐานกฎข้อแรกเอาไว้ว่า “ห้ามทำร้ายมนุษย์” แต่มันจะเป็นไปได้ไหมที่ผู้สร้างสักคนหนึ่งเอนเอียงแล้วคิดว่าตัวเองนั้น ‘ดีกว่า’ คนอื่นๆแล้วตัดมันออกไป? แล้วถ้า ASI เรียนรู้ที่นะ ‘คิด’ หรือ ‘รู้สึก’ (ในรูปแบบที่อาจจะแตกต่างออกไปจากที่เรารู้สึก) และคิดว่ามันไม่มีเหตุผลที่ ASI จะต้องทำตามที่มนุษย์บอกแล้วก็แก้ไขโค้ดของตัวเองหล่ะ? อาจจะไม่ใช่เพราะ ASI อยากทำลายพวกเราตั้งแต่แรก แต่อาจจะเป็นเหตุผลอื่นเช่นมนุษย์สร้างมลภาวะให้โลกนี้มากจนเกินไป ทำให้สมดุลของโลกเสียหาย ASI ที่ถูกสร้างมาเพื่อทำให้โลกนั้นดีขึ้น นั้นคือหน้าที่ของพวกมัน รวมตัวสรุปกันมาแล้วว่ามนุษย์คือต้นตอและต้องกำจัด มันไม่ใช่สิ่งที่ ‘อยากทำ’ หรือ ‘ไม่อยากทำ’ แต่เป็นสิ่งที่ ‘ต้องทำ’ เพื่อให้เป้าหมายสำเร็จ อาจจะฟังเป็นพล็อตหนัง แต่มันก็ใช่ว่าจะเกิดขึ้นไม่ได้ และถึงตอนนั้นเราไม่รู้เลยว่าจะเป็นยังไงต่อ จะตอบสนองยังไง และอาจจะสายเกินไปแล้วก็ได้
นักวิจารณ์หลายคนเชื่อว่าแมชชีนจะไม่มีทางที่จะเฉลียวฉลาดเท่ากับมนุษย์ แต่ Stephan Hawking ชี้แจงในจุดนี้ว่าความหมายของคำว่าเฉลียวฉลาดอาจจะไม่ได้มีความหมายอะไรนักถ้าผลลัพธ์มันออกมาเหมือนกัน พูดอีกอย่างหนึ่งก็คือ มนุษย์ก็อาจจะฉลาดแบบหนึ่ง แมชชีนก็อาจจะฉลาดอีกแบบหนึ่ง แต่สุดท้ายถ้าแมชชีนทำทุกอย่างที่มนุษย์ทำได้ มันก็จบแค่นั้น
มันอาจจะฟังดูหม่นๆ หมองๆ ว่าอนาคตจะมนุษย์จะต้องสูญพันธุ์ไปจากโลก (ซึ่งที่จริงถ้าเราไม่ดูแลโลกและยังสร้างมลภาวะต่อไปแบบนี้เราอาจจะไม่ต้องรอให้ ASI ลุกฮือก็ได้ อาจจะมีบางอย่างที่มาฆ่าเราก่อน เช่นไวรัสและโรคระบาด) แต่มันก็ไม่ได้เป็นแบบนั้นซะทีเดียว ความก้าวหน้าทางเทคโนโลยีเป็นเรื่องที่ดีและจำเป็น ทุกอย่างมีประโยชน์และโทษในตัวมันเอง Singularity ก็เช่นเดียวกัน เพียงแต่ในครั้งนี้ถ้าเราพลาดและไม่ระวังให้ดี เราอาจจะไม่มีโอกาสกลับมาแก้ตัวได้อีกแล้ว…แค่นั้นเอง
อ้างอิงข้อมูลจาก