เรารู้กันว่าเทคโนโลยีหลายอย่างพัฒนาอย่างพุ่งปรี๊ดในช่วง 2-3 ปีที่ผ่านมา และเราก็รู้ว่ามันมี Dilemma ต่างๆ เกิดขึ้นจากอคติ ปัจจัยเสี่ยงต่างๆ หรือประเด็นทางจริยธรรม (ดังที่เห็นทั้งในข่าว สารคดี และซีรีส์ต่างๆ) สิ่งที่ทำให้เกิด Dilemma เหล่านั้นอาจมีหลายอย่าง แต่อย่างหนึ่งที่หลายๆ คนมองว่าเป็นหนึ่งในปัญหาก็คือเรื่องที่ว่า “กฏหมายก้าวไม่ทันเทคโนโลยี”
หลายๆ องค์กรได้เห็นความสำคัญของเรื่องนี้ และพยายามเร่งเรียนรู้ปัญหา อัพสปีดการร่างกติกาเกี่ยวกับเทคโนโลยีให้ทันความเร็วของการพัฒนา อย่าง GDPR ข้อบังคับที่คุ้มครองข้อมูลส่วนบุคคลที่ใช้ใน EU และพัฒนามาเป็นกติกาบังคับใช้กันอย่างจริงจังในหลายประเทศ ล่าสุด เมื่อสัปดาห์ที่ผ่านมา สหภาพยุโรป (EU) ได้นำเสนอ “ร่างข้อกำหนดควบคุมการใช้ปัญญาประดิษฐ์ (AI)” เป็นกฎหมายแรกของโลกในการกำกับดูแลขอบเขตการใช้งาน AI ของบริษัท หลังจากมีการถกเถียงประเด็นปัญหาต่างๆ ที่เกิดจากการใช้ AI
แน่นอนว่า EU เองก็เป็นตัวหลักในการผลักดันให้นํา AI มาใช้ในการเพิ่มขีดความสามารถในการแข่งขันและแก้ปัญหาของแต่ละประเทศ รวมถึงได้ทุ่มงบสนับสนุนการวิจัยและพัฒนาเทคโนโลยีด้าน AI & Robotics เพิ่มเป็น 3 เท่าในปี ค.ศ.2020 ที่ผ่านมา (จาก 500 ล้านเป็น 1,500 ล้านยูโร) แต่ก็เพราะเห็นประเด็นท้าทายหลายประการ ทั้งในด้านจริยธรรม มาตรฐานความปลอดภัย และการคุ้มครองข้อมูลส่วนบุคคล ตลอดระยะเวลาการพัฒนา EU จึงให้ความสําคัญกับการสร้างกติกากำกับดูแลที่เหมาะสม ควบคู่ไปกับการพัฒนาศักยภาพของ AI ด้วย (เก่งอย่างเดียวไม่ได้ ต้องดีด้วย!)
“ร่างข้อกำหนดควบคุมการใช้ปัญญาประดิษฐ์ (AI)” จึงเป็นผลลัพธ์ของ EU หลังจากเริ่มต้นด้วย AI Strategy ตั้งแต่ปี ค.ศ.2018 โดยร่างข้อกำหนดฯ นี้ ถูกร่างขึ้นมาเพื่อให้แน่ใจว่า AI ที่ใช้ในกันนั้นมีความปลอดภัย เคารพหลักสิทธิขั้นพื้นฐาน และให้มีกฎหมายที่แน่นอนในการรองรับ ทั้งสำหรับนักพัฒนา นักลงทุน ผู้ใช้งาน และภาครัฐ โดยแบ่งความเสี่ยง AI เป็น 4 ระดับ พร้อมกรอบในการกำกับดูแล
- ระดับที่ 1 ยอมรับไม่ได้ : เป็น AI ที่ละเมิดสิทธิและความปลอดภัยของผู้คน เช่น AI ที่รัฐใช้ให้คะแนนประชาชน (อย่างในประเทศจีน) โดย AI ประเภทนี้จะถูกแบนจาก EU
- ระดับที่ 2 ความเสี่ยงสูง : โดยจะดูทั้งวัตถุประสงค์และกระบวนการพัฒนา ตั้งแต่ชุดข้อมูลที่ใช้ฝึกฝน อัลกอริธึมในการประมวลผล จนถึงวิธีการส่งมอบข้อมูลให้ผู้ใช้ AI ที่เข้าข่ายระดับนี้ เป็น AI ที่เกี่ยวข้องกับการบังคับใช้กฎหมายและกระบวนการยุติธรรม การระบุตัวตนทางชีวภาพ ตลอดจนการให้ข้อมูลเพื่อบริการสาธารณะต่างๆ (แต่ยกเว้นประเด็นที่เกี่ยวกับความมั่นคงของชาติ) โดยจะต้องอยู่ภายใต้การกำกับดูแลตลอดขั้นตอนการพัฒนา รวมถึงปฏิบัติตามข้อผูกพันที่กำหนด
- ระดับที่ 3 ความเสี่ยงจำกัด : เช่น แชทบอท โดยกำหนดให้ผู้พัฒนาจะต้องเปิดเผยต่อผู้ใช้ให้ชัดเจนว่ากำลังคุยกับ AI อยู่
- ระดับที่ 4 ความเสี่ยงต่ำ : AI อื่นๆ ที่ไม่ได้เข้ากลุ่ม 3 ระดับแรก จะไม่ได้มีข้อกำหนดในการกำกับดูแล เพียงแต่ก็เป็นหน้าที่ของนักพัฒนาในการตระหนักถึงผู้ใช้งานและผลกระทบต่อสังคม
โดยกำหนดบทลงโทษเบื้องต้นไว้ว่า หากมีการฝ่าฝืนกฎข้อบังคับเหล่านี้ จะต้องถูกปรับ 6% จากรายได้ทั้งหมด นอกจากนี้ จะยังมีการตั้ง European Artificial Intelligence Board (EAIB) เพื่อสนับสนุนประเทศต่างๆ ในการนำร่างข้อกำหนดไปใช้งาน
หลายสำนักออกมาให้ความเห็นตรงกันว่า กฎหมายใหม่ในการกำกับดูแลการใช้ AI นี้ อาจเป็นจุดเริ่มต้นของการปรับเปลี่ยนวิธีการทำงานของ AI ในอนาคต รวมถึงอาจเป็นต้นแบบสำคัญที่จะนำไปสู่การกำหนดกรอบการพัฒนาเทคโนโลยี AI ของหลายประเทศ เหมือนที่ GDPR เคยเป็นต้นแบบของกติกาในการคุ้มครองข้อมูลส่วนบุคคลมาแล้ว
อย่างไรก็ตาม การออกข้อบังคับที่หลายๆ ฝ่ายเห็นด้วยและยินยอมปฏิบัติตามก็ไม่ใช่เรื่องง่าย Politico จึงได้มีการคาดการถึงข้อถกเถียงที่น่าจะเกิดขึ้น และความท้าทายที่ EU น่าจะต้องเผชิญในการบังคับใช้ร่างข้อบังคับนี้ไว้ 4 ประเด็นที่เกี่ยวข้องกับการบังคับใช้ในระดับสากล (และอีก 2 ประเด็นเฉพาะในสหรัฐฯ)
1.การกำหนดกรอบที่กว้างเกินไปและไม่ครอบคลุมบางอย่าง
แม้จะมีการเขียนกรอบไว้กว้างๆ เพื่อระบุว่า AI ที่มีจุดประสงค์แบบไหน ทำงานงานอย่างไรนั้น เข้าข่ายระดับความเสี่ยงแบบไหนบ้าง แต่สิ่งที่เป็นปัญหาอาจละเอียดอ่อนกว่านั้นและต้องการการระบุที่ชัดเจนมากขึ้นเพื่อป้องกันการใช้ช่องว่างทางกฎหมาย ทว่า นั่นก็อาจกระทบกับผลิตภัณฑ์และบริการหลายอย่างของ Big Tech อย่าง Facebook และต้องผ่านกระบวนการพิสูจน์เจตนา เหมือนกรณีที่เคยเกิดขึ้นกับกฎหมายข้อมูลส่วนบุคคลมาแล้ว
นอกจากนี้ ยังมีประเด็นเรื่องความหลากหลายอีกหลายอย่างที่ยังไม่ถูกพูดถึงในข้อกำหนดนี้ เช่น การเก็บข้อมูลทางชีวภาพบางมิติ เช่น เพศวิถี เชื้อชาติ หรือค่านิยมทางการเมือง นั้นยังไม่ถูกระบุว่าทำไมได้ ซึ่งกลุ่มนักสิทธิมนุษยชนก็จะมองว่าสิ่งนี้ละเมิดจริยธรรมและเป็นสิ่งที่ยอมรับไม่ได้
2.นิยามของคำว่าความเสี่ยงสูง (High Risk)
อีกเกณฑ์ที่น่าเป็นกังวลคือขอบเขตของ AI ที่จะถูกจัดให้อยู่ในระดับความเสี่ยงสูงและต้องมีการควบคุมดูแลในทุกขั้นตอน รวมถึงต้องปฏิบัติตามข้อผูกพันที่กำหนด เพราะ AI นั้นจะพัฒนาให้ก้าวหน้าขึ้นเรื่อยๆ และขั้นต่ำของ AI ที่ใช้งานได้อย่างมีประสิทธิภาพและอยู่ในทุกๆ อย่างของชีวิตประจำวันนั้น อาจอยู่ในระดับนี้ทั้งหมด ดังนั้น ขอบเขตนี้จะถูกขยาย เพิ่มลด หรือมีข้อยกเว้นอย่างไรให้ไม่เป็นอุปสรรคต่อการพัฒนานวัตกรรมใหม่ๆ
ยังมีเรื่องกรอบของข้อยกเว้นเกี่ยวกับการใช้งานของภาครัฐ เช่น จะมีการยกเว้นให้ใช้ AI ระบุข้อมูลทางชีวภาพในเงื่อนไขไหนได้บ้าง เพื่อช่วยสืบสวนอาชญากรรมหาตัวคนร้าย ป้องกันการก่อการร้าย หรือหาเหยื่อลักพาตัวได้หรือไม่ จะรู้ได้อย่างไรว่าปฏิบัติการหรือสถานการณ์ไหนที่ควรยกเว้นบ้าง
3. วิธีการประเมินระดับความเสี่ยง
ในข้อกำหนดนั้น ผู้บังคับใช้กฎหมายของประเทศจะเป็นคนตรวจสอบก็จริง แต่ข้อมูลการพัฒนาและระดับความเสี่ยงเบื้องต้นนั้น มาจากการที่ผู้พัฒนา AI เป็นคนทำการประเมินเอง (self-assessment) ซึ่งระเบียบวิธีการนี้ย่อมเป็นสิ่งที่คาใจบรรดาผู้ใช้ นักเคลื่อนไหว หรือนักวิชาการอย่างแน่นอน ดังนั้นอาจจะต้องมาตกลงกันใหม่ถึงวิธีการที่เหมาะสมกับทุกๆ ฝ่าย
4. การตั้ง European Artificial Intelligence Board (EAIB)
การตั้งคณะกรรมการชุดใหม่ใน EU สร้างความไม่เห็นด้วยกับหลายฝ่าย เพราะมองว่าน่าจะใช้ประโยชน์จากคณะกรรมการที่กำกับดูแลเรื่องข้อมูลส่วนบุคคลที่มีอยู่แล้ว (ที่ดูแลเรื่อง GDPR) แต่เพิ่มทรัพยากรเข้าไปให้ เพื่อความสอดคล้องในการปฏิบัติงาน เพราะสองสิ่งนี้เป็นเรื่องที่แยกจากกันได้ยาก
แม้ EU จะใช้เวลาหลายปีในการพัฒนาร่างกฎหมายนี้ แต่ก็ยังดูมีงานอีกหลายอย่างที่ต้องทำต่อ และผู้คนหรือองค์กรอีกหลายกลุ่มที่ต้องร่วมมือ เพื่อหาแนวทางในการบังคับใช้ให้เหมาะสมที่สุดต่อไป แต่อย่างน้อย เราก็น่าจะพอชื่นใจได้บ้าง ที่ผู้พัฒนาซึ่งสร้างความสะดวกสบายจากเทคโนโลยี จะช่วยลดราคาของความเป็นส่วนตัวหรือผลกระทบต่อสังคม ที่เราต้องจ่ายหากไม่มีกติกาเหล่านี้
และเป็นหน้าที่ของผู้ใช้งานอย่างเราๆ ที่ต้องช่วยกันจับตาสิ่งเหล่านี้ต่อไป เพราะอย่าลืมว่าวันที่เริ่มบังคับใช้ข้อตกลงนี้ เทคโนโลยีหรือ AI อาจกำลังก้าวไปอีกสเต็ปแล้วก็ได้
อ่านร่างข้อร่างข้อกำหนดควบคุมการใช้ปัญญาประดิษฐ์ (AI) ได้ที่ https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence
อ้างอิงข้อมูลจาก