แม้ AI จะเข้ามาเป็นผู้ช่วยของมนุษย์ได้ในหลายๆ ด้าน แต่เหรียญก็ย่อมมี 2 ด้านเสมอ กรณีนี้ก็เช่นกัน เพราะนอกจาก AI จะสามารถเข้ามาช่วยเหลือมนุษย์ในด้านต่างๆ แล้ว มันก็ยังสามารถเป็นภัยต่อมนุษย์เหมือนกัน และด้วยอันตรายของ AI ที่เกิดขึ้น ก็ทำให้คนเริ่มกังวล เช่นเดียวกับ อีลอน มัสก์ (Elon Musk) และผู้บริหารบริษัท – ผู้เชี่ยวชาญอีกประมาณ 1,000 คน
เมื่อวานนี้ (29 มีนาคม) อีลอน มัสก์ นักธุรกิจ ผู้ร่วมก่อตั้งของเทสลา (Tesla) และผู้ร่วมก่อตั้ง Open AI ร่วมกับผู้เชี่ยวชาญด้าน AI และผู้บริหารบริษัทไอทีอีกนับ 1,000 คน ลงนามในจดหมายเปิดผนึกขององค์กร Future of Life Institute เรียกร้องให้บริษัทต่างๆ หยุดพัฒนาระบบ AI ขั้นสูงกว่า ChatGPT 4 เป็นเวลา 6 เดือน โดยอ้างถึงความเสี่ยงที่จะเกิดขึ้นต่อสังคมและมนุษยชาติ และจดหมายดังกล่าว ก็เกิดขึ้นเพียง 2 สัปดาห์หลังจาก OpenAI ซึ่งได้รับการสนับสนุนจาก ไมโครซอฟท์ (Microsoft) เปิดตัว ChatGPT 4
ในจดหมายระบุว่า “ควรจะพัฒนาระบบ AI ที่ทรงพลัง ก็ต่อเมื่อเรามั่นใจว่าผลกระทบของมันจะเป็นบวกและ พวกเขาสามารถจัดการกับความเสี่ยงนั้นได้”
นอกจากนี้ ในจดหมายยังตั้งคำถามถึง AI ว่า เราควรให้เครื่องจักรเผยแพร่ข้อมูลที่เต็มไปด้วยข้อความโฆษณาชวนเชื่อและความเท็จเต็มไปหมดอย่างนั้นหรือ? แล้วเราควรพัฒนาจิตใจของสิ่งที่ไม่ใช่มนุษย์ จนในท้ายที่สุดมันอาจเพิ่มจำนวนมากกว่า ฉลาดกว่ามนุษย์จนทำให้เราล้าหลัง แล้วมาแทนที่เราอย่างนั้นหรือ? ทั้งระบุอีกว่า แต่การตัดสินใจเกี่ยวกับเรื่องนี้ย่อมต้องไม่ได้มาจากผู้นำด้านเทคโนโลยีที่ไม่ได้มาจากการเลือกตั้ง
ย้อนกลับไปเมื่อต้นเดือนมีนาคม มัสก์ก็เคยกล่าวเอาไว้ว่า “AI ทำให้ผมเครียด” แม้ว่าบริษัทเทสลาของเขาจะใช้ระบบ AI สำหรับขับเคลื่อนยานพาหนะ ทั้งยังเรียกร้องให้เจ้าหน้าที่ตรวจสอบและรับประกันให้ได้ว่า การพัฒนาปัญญาประดิษฐ์จะทำให้เกิดสาธารณประโยชน์ก็ตาม
อย่างไรก็ดี เจมส์ กริมเมลมันน์ (James Grimmelmann) ศาสตราจารย์ด้านกฎหมายดิจิทัลและข้อมูลแห่งมหาวิทยาลัยคอร์เนลกล่าวว่า อีลอน มัสก์ เสแสร้ง แกล้งทำเป็นลงนาม เพราะในตอนนี้บริษัทเทสลาของเขายังต่อสู้เพื่อไม่ให้ตัวเองต้องรับผิดชอบจากความผิดพลาดของ AI ในระบบรถยนต์ไร้คนขับอยู่เลย
แต่กริมเมลมันส์ ก็ยังระบุเพิ่มเติมว่า “การหยุด [พัฒนา AI] ชั่วคราวเป็นความคิดที่ดี แต่จดหมายนั้นคลุมเครือและไม่ได้ให้ความสำคัญกับปัญหาการกำกับดูแลอย่างจริงจัง”
เช่นเดียวกับ แกรี่ มาร์คัส (Gary Marcus) ศาสตราจารย์จากมหาวิทยาลัยนิวยอร์กที่ลงนามในจดหมาย ก็กล่าวว่า “จดหมายไม่ได้สมบูรณ์แบบ แต่จิตวิญญาณนั้นถูกต้อง เราต้องชะลอ [การพัฒนา AI] จนกว่าเราจะเข้าใจลักษณ์หรือปัญหาที่เกี่ยวข้องมากกว่านี้”
อีกทั้ง มาร์คัสยังระบุอีกว่า มีบริษัทที่เข้ามาลงเล่นในสนาม AI นี้มากขึ้นเรื่อยๆ โดยที่ประชาชนไม่มีข้อมูลอะไรเลยเกี่ยวกับสิ่งที่เขาทำ นั่นจึงเป็นเรื่องยากที่จะทำให้สังคมป้องกันอันตรายจาก AI ได้
อย่างไรก็ตาม OpenAI ยังไม่ได้แสดงความเห็นอะไรเกี่ยวกับจดหมายเปิดผนึกที่เรียกร้องให้หยุดการพัฒนา AI ขั้นสูงชั่วคราว
อ้างอิงจาก