ในช่วงเกือบหนึ่งเดือนที่ผ่านมาเราได้เข้าสู่หมวด work from home กันอย่างเต็มที่ ซึ่งสำหรับคนที่ยังมีงานอยู่ก็ขอให้ดูแลให้ดี เพราะไม่ใช่ว่าทุกคนจะยังคงมีงานให้ทำและมีรายได้เข้ามาแบบไม่ได้รับผลกระทบ SCB EIC ประเมินว่าจำนวนผู้ว่างงานจะเพิ่มขึ้นสูงถึงราว 3-5 ล้านคน ซึ่งจะคิดเป็นอัตราการว่างงานประมาณ 8-13% ของกำลังแรงงานรวมปัจจุบัน ถือเป็นระดับที่สูงที่สุดตั้งแต่มีการเก็บข้อมูลมาในปี ค.ศ.1985 จึงไม่ใช่เรื่องน่าแปลกใจเท่าไหร่ที่เราเห็นข่าวชาวบ้านออกมาแสดงความเดือดร้อนเมื่อไม่ได้รับเงินเยียวยาจำนวน 5000 บาทที่รัฐบาลออกนโยบายมาช่วยเหลือ เพราะนี่เหมือนฟางเส้นสุดท้ายของหลายๆ คน เมื่อตกงาน ธุรกิจถูกสั่งให้หยุด รายได้ก็หายไปทันที
คำถามที่ตามมาก็คือว่าทำไมคนเหล่านี้ถึงไม่ได้รับเงิน? ทั้งๆที่เข้าเกณฑ์ทุกอย่าง และจริงหรือไม่ที่ระบบนี้มีการใช้ AI อยู่เบื้องหลัง? คำตอบสำหรับคำถามแรกคือมันมีหลายปัจจัย อาจจะด้วยข้อมูลที่กรอกไม่ชัดเจนต่างๆ นานา หรือการมีชื่ออยู่ในฐานข้อมูลอื่นที่เป็น ‘negative lists’ อย่างเช่นว่าชื่อไปอยู่ในลิสต์ของฐานข้อมูลเกษตรกร นักศึกษา หรือประกันสังคม ก็จะถูกคัดกรองออกไป (อยากให้ลองฟังบทสัมภาษณ์ของ Techsauce ที่พูดคุยกับคุณสมคิด จิรานันตรัตน์ เบื้องหลังผู้สร้างเว็บไซต์เราไม่ทิ้งกัน) ส่วนคำตอบสำหรับคำถามที่สองคือทั้งใช่และไม่ใช่ เพราะมันไม่ได้เป็น AI แบบที่หลายคนเข้าใจ เบื้องหลังของเว็บไซต์อันนี้เป็นการเขียนโปรแกรมขึ้นมาเพื่อวิเคราะห์ แยกแยะ และตัดสินใจว่าควรจัดคนๆ หนึ่งไว้ในกลุ่มไหนเท่านั้น แต่ไม่ใช่เป็น AI ที่ถูกฝึกมาด้วยเทคนิคอย่าง Deep Learning หรือ Neural Network เพราะต้องอาศัยข้อมูลปริมาณมหาศาลในการฝึก
คำถามต่อมาก็คือว่าถ้ามันเป็น AI ที่ฉลาดกว่านี้ประชาชนจะได้รับความยุติธรรมกว่านี้ไหม? คนที่ควรได้รับเงินสนับสนุนคงได้รับทุกคนรึเปล่า?
คำตอบก็คือ…ก็อาจจะใช่และไม่ใช่
เราต้องเข้าใจก่อนว่านี่คือ AI มันคือสมองกล ไม่ว่ามันจะฉลาดแค่ไหน มันก็ยังคงเป็นสิ่งที่มนุษย์สร้างขึ้นมา แม้ว่าในตอนนี้ AI นั้นถูกนำไปใช้อย่างกว้างขวางในหลายธุรกิจที่อาจจะมีผลกระทบกับชีวิตของมนุษย์ไม่ทางใดก็ทางหนึ่ง ตัวอย่างง่ายๆ ตอนนี้มีทั้งระบบตัดสินใจเลือกคนเข้าทำงาน (แนะนำให้ลองเล่นเกมนี้ดู จะเข้าใจว่า AI มันเอนเอียงแค่ไหน) ระบบการแพทย์วินิจฉัย ระบบการตัดสินใจออกเงินกู้ ระบบการตัดสินทางกฎหมาย ทั้งในส่วนของเอกชนและภาครัฐ
ซึ่งสิ่งหนึ่งที่คนมักเข้าใจก็คือ AI นั้นมีข้อได้เปรียบมนุษย์ตรงที่ไม่มีอารมณ์เข้ามาเกี่ยวข้องในการตัดสินใจในแต่ละครั้ง ทุกอย่างจะขึ้นอยู่กับข้อมูลที่ได้รับแล้วก็ตัดสินใจไปตามนั้น เพราะฉะนั้น AI จึงน่าจะ ‘ยุติกรรมกว่า’ มนุษย์ แต่ถ้าลองศึกษาลึกลงไปให้ดี รายงานการศึกษาหลายชิ้นพบว่าที่จริงแล้ว AI ก็เกิดความเอนเอียงได้เช่นเดียวกัน (ยกตัวอย่างข่าวอันนี้ ที่ฐานข้อมูล Imagenet ต้องลบภาพกว่า 600,000 ภาพเมื่อมีการตรวจพบว่ามีความเอนเอียงทางข้อมูล)
ปัญหานี้ที่จริงไม่ใช่เรื่องใหม่อะไร ย้อนกลับไปในปี ค.ศ.1988 หน่วยงานความเท่าเทียมกันด้านเชื้อชาติและสีผิว (UK Commission for Racial Equality) พบว่ามหาลัยแพทย์แห่งหนึ่งมีความเอนเอียงในการเลือกผู้สมัคร โดยระบบการคัดกรองนี้มีความเป็นไปได้มากกว่าที่จะคัดเอาผู้หญิงและคนที่ชื่อเสียงไม่เหมือนชาวยุโรป ที่น่าสนใจก็คือว่าระบบนี้ถูกพัฒนามาให้ใกล้เคียงกับสิ่งที่มนุษย์ทำมาตลอดและมีผลลัพธ์ที่ใกล้เคียงมากกว่า 90-95% เลยทีเดียว
จุดนี้แสดงให้เห็นว่าระบบเมื่อถูกสร้างขึ้นมานั้น
ไม่ได้เอนเอียงโดยธรรมชาติ
แต่มันเป็นกระจกสะท้อนถึงความเอนเอียง
ที่เคยมีอยู่แล้วในมนุษย์ให้ชัดเจนขึ้นต่างหาก
ในหนังสือ Thinking Fast and Slow เขียนโดย แดเนียล คาฮ์นะมัน (Daniel Kahneman) เคยอธิบายตัวอย่างของการเอนเอียงอันหนึ่งที่เรียกว่า Confirmation Bias ที่สร้างผลกระทบต่อการตัดสินใจของมนุษย์อยู่เสมอ อธิบายง่ายๆ ก็คือว่ามันเป็นการเอนเอียงที่ตัวเราพยายามค้นหา อธิบาย และคิดถึงข้อมูลต่างๆ เพื่อมาสนับสนุนให้ความเชื่อที่มีอยู่แล้วในตัวเราแข็งแกร่งขึ้นกว่าเดิม ยกตัวอย่างเช่นคุณคิดว่ารัฐบาลหนึ่งบริหารประเทศไม่ดี ไม่ว่าจะมีข่าวด้านบวก หรือด้านลบออกมา ในโลกที่เต็มไปด้วยข้อมูลข่าวสาร เราผู้เป็นมนุษย์ที่เรียกตัวเองว่าเป็นสิ่งมีชีวิตที่มีเหตุผลกลับไม่ได้มองหา ‘ความจริง’ ในข้อมูลที่มากมาย เพื่อทำให้เอนเอียงน้อยลงและเข้าใจเหตุการณ์อย่างมีเหตุผลมากขึ้น แต่จะหาข้อมูลอะไรก็ตามในข่าวที่ออกมาเพื่อทำความเชื่อเดิมของตัวเองไม่สั่นคลอน (ซึ่งก็คือรัฐบาลบริหารประเทศไม่ดี) ตอนนี้อัลกอริทึมของการสร้าง AI นั้นมีความซับซ้อนมากขึ้นกว่าแต่ก่อน แต่เราก็ยังพบเจอกับปัญหาเดิมๆ
อย่างที่ผ่านมา AI มีโอกาสที่จะเข้ามาช่วยลดการเอนเอียงก็จริงอยู่ (เพราะตัดสินตามข้อมูลล้วนๆ) แต่มันก็อาจจะทำให้ปัญหาที่มีอยู่แล้วกลับแย่ลงไปกว่าเดิมได้ด้วยเช่นกันโดยเฉพาะในเคสที่ค่อนข้างละเอียดอ่อน ยกตัวอย่างเคสหนึ่ง ของระบบตัดสินผู้กระทำผิดของ Broward Country รัฐ Florida จะระบุว่าจำเลยจากกลุ่มของชาวแอฟริกันอเมริกัน (บุคคลผิวสี) เป็นกลุ่มที่ ‘high risk’ เสี่ยงสูงมากกว่าจำเลยจากกลุ่มคนขาวมากกว่าถึงเท่าตัว หรือแม้แต่บริษัทยักษ์ใหญ่อย่าง Amazon ก็เจอปัญหานี้เช่นเดียวกันในระบบคัดกรองคนเข้าทำงาน ที่พบว่าระบบมักจะเลือกผู้ชายมากกว่าผู้หญิงเมื่อมีความสามารถรอบด้านเหมือนๆ กัน โดยโมเดล AI นี้ถูกฝึกมาด้วยข้อมูลการจ้างงานภายในของบริษัทกว่า 10 ปี จนสุดท้าย Amazon ต้องหยุดการใช้เครื่องมือนี้ทั้งหมด
ต้องเข้าใจอีกอย่างหนึ่งว่านี้ไม่ใช่ ‘error’ หรือการทำงานผิดพลาดของ AI ซึ่งความผิดพลาดมันมีบ้างอยู่แล้วในการตัดสินใจ แต่ความเอนเอียงมันเป็นเรื่องของระบบที่ถูกวางเอาไว้และมีแพทเทิร์นที่เกิดขึ้นแบบซ้ำๆ ต่อเนื่อง ความเอนเอียงคือการที่ระบบไม่ให้ความสำคัญแบบเท่าเทียมกันกับทุกฝ่าย
การสร้างระบบที่เอนเอียงขึ้นมานี่เป็นความรับผิดชอบของเราที่จะต้องแก้ไข เพราะมันสร้างความไม่เท่าเทียมกันและทำร้ายผู้ที่ถูกระบบตัดสินอย่างไม่ยุติธรรม ซึ่งส่งผลต่อระบบสังคมโดยรวมที่มีฐานจากมนุษย์ที่หลากหลาย สร้างความไม่น่าเชื่อถือให้กับ AI ทั้งในภาคเอกชนและรัฐบาล การพัฒนา AI ให้ทำงานแทนมนุษย์นั้นเป็นเรื่องที่จำเป็น แต่ในขณะเดียวกันเราต้องแน่ใจด้วยว่าการฝึก AI เหล่านี้ต้องได้รับการตรวจสอบและรองรับว่ามีมาตรฐานเพื่อลดความเอนเอียงในระบบก่อนจะปล่อยออกไปทำงานจริงๆ
คำถามต่อมาก็คือว่าแล้วความเอนเอียงเหล่านี้
มันเข้าไปอยู่ในระบบของ AI ได้ยังไงตั้งแต่แรก?
ความเป็นไปได้อย่างที่หนึ่งคือ Choice of Attributes หรือตัวเลือกของคุณลักษณะต่างๆ เช่น อายุ เพศ หรือ สัญชาติ เมื่อไหร่ก็ตามที่มันถูกนำมาใช้เพื่อคัดกรองในอัลกอริทึม ระบบก็อาจจะเชื่อมโยงกันระหว่างคุณลักษณะเหล่านี้กับผลลัพธ์ที่จะต้องเลือก สุดท้ายอาจจะทำให้เอนเอียงไปฝั่งใดฝั่งหนึ่งได้
อีกเหตุผลหนึ่งก็คือเรื่องของการเก็บข้อมูลและตัวอย่างของข้อมูล ซึ่งตรงนี้ไม่ได้พูดถึงแค่ขนาดของข้อมูลทั้งหมดเท่านั้น แต่ต้องเป็นความเท่าเทียมกันข้อมูลในแต่ละกลุ่มด้วย ยกตัวอย่างเช่นถ้าเราสร้างระบบ face detection ขึ้นมาโดยใช้กลุ่มคนผิวขาวทั้งหมด ระบบก็อาจจะทำงานได้ดีกับคนผิวสีนั้น แต่เมื่อเจอกลุ่มคนผิวสีอื่นอย่างแอฟริกันหรือเอเชียก็ไม่สามารถทำงานได้เลย หรืออีกตัวอย่างแอพพลิเคชั่น ‘Street Bump’ ที่ถูกใช้ในเมือง Boston พบว่าในชุมชนรายได้สูงนั้นมีถนนที่เป็นหลุมเป็นบ่อเยอะกว่าที่อื่นๆ หลายคนก็สงสัยว่าทำไมย่านคนรวยถนนถึงพังได้ขนาดนี้ ทั้งๆ ที่มันควรเป็นย่านคนจนมากกว่าไม่ใช่เหรอ? คำตอบที่ได้ก็เพราะว่าย่านคนมีเงินนั้นเข้าถึงแอพพลิเคชั่นนี้ได้มากกว่าเลยใช้มันรายงานเยอะกว่า (ทำให้นึกถึงบ้านเราที่พยายามให้คนใช้แอพพลิเคชั่นเพื่อลงทะเบียนขอเงินเยียวยา แต่หลายต่อหลายคนทำไม่เป็นและอีกมากมายที่ไม่มีแม้แต่อุปกรณ์เพื่อเข้าถึงการลงทะเบียนด้วยซ้ำ)
อีกเหตุผลหนึ่งเลยที่ขาดไม่ได้ก็คือเรื่องของข้อมูลที่เอนเอียงโดยมนุษย์ตั้งแต่แรก อย่างที่บอกว่า AI นั้นถูกสร้างขึ้นมาโดยมนุษย์ ข้อมูลเหล่านี้ก็มาจากมนุษย์เช่นเดียวกัน เพราะฉะนั้นเมื่อเราใส่ข้อมูลอะไรลงไปใน AI มันก็สร้างผลลัพธ์ที่คล้ายเรานั้นแหละออกมา AI เป็นเพียงกระจกที่สะท้อนความเอนเอียงในตัวมนุษย์ให้ออกมาชัดเจน
เอนเอียงมากน้อยแค่ไหน
ก็ขึ้นอยู่กับข้อมูลทีป้อนเข้าไป
เหตุผลสุดท้ายก็เพราะว่า AI นั้นมีเป้าหมายที่ถูกกำหนดเอาไว้ (เช่นจ้างคน 10 คนในหนึ่งอาทิตย์ หรือ ลดความผิดพลาดในการตัดสินใจลงทั้งระบบ) ซึ่งระหว่างที่ AI พยายามไปถึงเป้าหมายนั้นมันก็อาจจะลดความสำคัญของปัจจัยอื่นๆ ไปด้วย นำมาซึ่งผลลัพธ์ที่อาจจะดูไม่แฟร์สักเท่าไหร่
AI Biased ยังเป็นหัวข้อที่คนถกเถียงและทำงานวิจัยกันอย่างต่อเนื่องเพื่อหาทางกำจัดความเอนเอียงนี้ออกไปให้หมด มีหลายวิธีที่ถูกนำเสนอย่างการตรวจสอบแหล่งข้อมูลและบุคคลที่เก็บข้อมูลเหล่านี้ว่าได้รับผลประโยชน์อะไรรึเปล่า การทำ audit โมเดล AI ที่สร้างขึ้นมาอย่างละเอียดว่ามีการเอนเอียงไปทางด้านไหนไหม ไม่ใช่แค่กับกลุ่มใหญ่ๆ เพียงเท่านั้นแต่ใน subgroup ของคนเหล่านั้นด้วย อีกอย่างหนึ่งก็คือพยายามสร้างโมเดลที่ผู้สร้างสามารถอธิบายได้ เพราะหลายคนมักบอกว่า AI เป็นเหมือน Black Box คนสร้างไม่รู้ด้วยซ้ำว่าเบื้องหลังมันตัดสินใจยังไง แต่มันไม่ควรเป็นแบบนั้น อย่างน้อยๆ เราควรอธิบายได้ว่า AI ตัดสินแบบนี้เพราะสาเหตุอะไรและอาจจะนำไปสู่การแก้ไขปัญหาเรื่องความเอนเอียงในระบบได้
สุดท้ายแล้ว AI นั้นจะถูกนำไปใช้อย่างกว้างขวางมากขึ้น และมันก็มีความน่าเป็นห่วงอยู่ไม่น้อย โดยเฉพาะในสังคมที่มีความเอนเอียงและไม่ยุติธรรมอยู่แล้วฝังรากลึกในระบบและตัวมนุษย์ผู้สร้างมันขึ้นมา ยิ่งเป็นระบบที่ถูกสร้างขึ้นมาแล้วทำการตรวจสอบได้ยากหรือไม่ได้เลยยิ่งไปกันใหญ่ ความเหลื่อมล้ำยิ่งทวีความโหดร้ายมากยิ่งขึ้นไปด้วย นี่เป็นจุดสำคัญที่เราทุกคนต้องจำเอาไว้ว่ามนุษย์เกิดมาทุกคนมีสิทธิ์เท่าเทียมกัน และระบบของ AI ที่จะเข้ามาช่วยตัดสินใจนั้นต้องถูกสร้างขึ้นมาบนพื้นฐานอันนี้ ไม่ใช่การให้สิทธิ์พิเศษแค่กลุ่มคนบางกลุ่มเพียงเพราะเหตุผลอะไรบางอย่าง
นักวิจัยต่างๆ ยังคงทำงานหนักเพื่อทำระบบ AI ให้โปร่งใสและลดความเอนเอียงลงให้มากที่สุด แค่หวังว่ามันจะทำให้ทั้งระบบนั้นยุติธรรมมากขึ้นและจะเป็นโลกที่น่าอยู่มากขึ้นสำหรับทุกๆ คน…ไม่ใช่แค่คนบางกลุ่มเท่านั้น
ข้อมูลอ้างอิง