ในยุคที่มีข้อมูลมากมาย และการเข้าถึงข้อมูลสามารถทำได้เพียงแค่คลิกเดียว การค้นหาข้อมูลผ่านเครื่องมือค้นหาอย่างกูเกิล หรือเจ้าอื่นๆ กลายเป็นสิ่งที่ทุกคนทำกันเป็นประจำอยู่แล้ว เพราะมันทั้งสะดวก รวดเร็ว ค้นหาข้อมูลอะไรก็ได้ ซึ่งเบื้องหลังผลลัพธ์ที่เราเห็นนั้นมีระบบอัลกอริทึมซับซ้อน ไม่ใช่แค่การพิมพ์คำถามและรอผลลัพธ์ แล้วเราเคยสงสัยไหมว่า คำตอบที่ได้จากการค้นหานั้นมีอคติ และการบิดเบือนข้อมูลที่เราไม่รู้ตัวอยู่รึเปล่า?
ซาราห์ เพรสช์ (Sarah Presch) ผู้อำนวยการฝ่ายการตลาดดิจิทัลของ Dragon Metrics แพลตฟอร์มที่ช่วยบริษัทต่างๆ ปรับแต่งเว็บไซต์ให้ได้รับการจดจำที่ดีขึ้นจากกูเกิล หรือที่เราเรียกว่า SEO กล่าวว่า “ภารกิจของกูเกิลคือ การมอบข้อมูลที่ผู้คนต้องการ แต่บางครั้งข้อมูลที่คนคิดว่าตัวเองต้องการอาจไม่ใช่สิ่งที่มีประโยชน์มากที่สุด”
อัลกอริทึมของเครื่องมือค้นหาได้รับการออกแบบมา เพื่อให้ผลลัพธ์ตรงกับความต้องการของผู้ใช้ ในขณะเดียวกันก็มีแนวโน้มสะท้อนความเชื่อและค่านิยมที่เรามีอยู่แล้ว หากผู้ใช้เคยค้นหาข้อมูลในแนวทางใดแนวทางหนึ่ง ผลลัพธ์ที่ปรากฏขึ้นในครั้งถัดไป ก็จะมีแนวโน้มเป็นไปในทิศทางเดียวกัน จนทำให้เกิด ‘เครื่องจักรแห่งอคติ’ หรือ ‘Bias Machine’ ที่ทำให้ผู้ใช้ได้รับข้อมูลยืนยันความเชื่อเดิมๆ ของตนเองแทนที่จะเป็นข้อมูลที่หลากหลายหรือแตกต่าง
เมื่อผู้ใช้ค้นหาข้อมูลเกี่ยวกับประเด็นที่มีความขัดแย้ง เช่น การเมือง หรือสุขภาพ ผลลัพธ์ที่ได้อาจแตกต่างกันมาก ขึ้นอยู่กับเครื่องมือค้นหานั้นเลือกจะเน้นข้อมูลจากแหล่งใด ในบางกรณี อัลกอริทึมสามารถทำให้ข้อมูลที่ไม่ถูกต้อง หรือมีอคติได้รับการโปรโมตมากกว่าข้อมูลที่ถูกต้อง ซึ่งส่งผลกระทบต่อความคิดเห็นของผู้คนในสังคม
งานของเพรสช์นั้นมีส่วนที่ต้องคอยตรวจสอบผลการค้นหาของกูเกิลอย่างละเอียดอยู่บ่อยๆ โดยรายงานจาก BBC เธอสังเกตเห็นปัญหาที่น่าสนใจ “ฉันเริ่มสังเกตว่ากูเกิลจัดการกับหัวข้อที่มีการถกเถียงกันอย่างดุเดือดอย่างไร” เธอเล่า “และในหลายกรณี ผลลัพธ์ที่ได้น่าตกใจมาก”
ตัวอย่างที่ชัดเจนที่สุดคือ วิธีที่กูเกิลตอบคำถามเกี่ยวกับสุขภาพ ซึ่งกูเกิลมักจะดึงข้อมูลจากเว็บมาแสดงที่ด้านบนของผลการค้นหา เรียกว่า ข้อความที่ถูกคัดสรร (Featured Snippet)
เมื่อเพรสช์ค้นหาคำว่า ความเชื่อมโยงระหว่างกาแฟกับความดันโลหิตสูง (link between coffee and hypertension) ผลการค้นหาอันดับแรกจะแสดงข้อความจากบทความของ Mayo Clinic ที่เน้นว่า ‘คาเฟอีนอาจทำให้ความดันโลหิตเพิ่มขึ้นอย่างรวดเร็วในระยะสั้น’ แต่เมื่อเธอค้นหา ความไม่เชื่อมโยงระหว่างกาแฟกับความดันโลหิตสูง (no link between coffee and hypertension) กูเกิลกลับดึงข้อความที่ขัดแย้งกันจากบทความเดียวกันมาแสดงว่า ‘คาเฟอีนไม่มีผลต่อความดันโลหิตในระยะยาวและไม่เชื่อมโยงกับความเสี่ยงที่จะเป็นโรคความดันโลหิตสูง’
“สิ่งที่กูเกิลทำคือ การดึงข้อความออกมาจากเนื้อหาตามสิ่งที่ผู้คนค้นหา และป้อนข้อมูลที่พวกเขาอยากอ่าน” เพรสช์อธิบาย
ปรากฏการณ์นี้จึงชี้ให้เห็นว่า แทนที่กูเกิลจะนำเสนอข้อเท็จจริงที่เป็นกลางและครบถ้วน กูเกิลกลับเลือกแสดงเฉพาะส่วนที่ตรงกับความเชื่อ หรือสิ่งที่ผู้ใช้ต้องการจะเห็น ซึ่งอาจนำไปสู่ความเข้าใจผิดและการตัดสินใจที่ผิดพลาดได้ โดยเฉพาะในเรื่องสำคัญอย่างสุขภาพ
ตัวอย่างเช่น จากรายงานของ BBC พบว่า ผู้มีสิทธิเลือกตั้งในสหรัฐอเมริกาที่ไม่แน่ใจเกี่ยวกับประเด็นต่างๆ อาจพบมุมมองที่แตกต่างกันอย่างมากเมื่อใช้กูเกิล แม้จะตั้งคำถามเดียวกัน โดยเฉพาะอย่างยิ่งในช่วงการเลือกตั้ง ข้อมูลที่พวกเขาได้รับอาจทำให้เกิดความสับสน หรือความเข้าใจผิดเกี่ยวกับข้อเท็จจริง ซึ่งส่งผลให้เกิดการตัดสินใจที่ไม่ถูกต้อง หรือไม่เป็นกลางในการลงคะแนนเสียง
นอกจากนี้ ยังมีตัวอย่างอื่นๆ ที่แสดงให้เห็นถึงการบิดเบือนข้อมูล เช่น เมื่อผู้ใช้ค้นหาข้อมูลเกี่ยวกับการรักษาด้วยวิธีทางเลือก อาจทำให้ได้รับข้อมูลจากเว็บไซต์ที่สนับสนุนวิธีการเหล่านั้น มากกว่าข้อมูลจากแหล่งที่มีความน่าเชื่อถือสูง นี่คือปัญหาที่เกิดขึ้น เมื่อเครื่องมือค้นหาไม่ได้คำนึงถึงความถูกต้องของข้อมูล แต่เน้นไปที่ความนิยมของแหล่งข้อมูลนั้นๆ
เช่นเดียวกับเอ็ดเวิร์ด เทนเนอร์ (Edward Tenner) นักข่าวจากนิตยสาร Time เขียนเอาไว้ว่า “จุดแข็งของเครื่องมือค้นหาสมัยใหม่ อย่างการให้ความสำคัญกับแหล่งข้อมูลที่ถูกอ้างอิงบ่อยๆ กลับไม่สามารถกรองข้อมูลที่ไม่ดี หรือแม้แต่ข้อมูลปลอมที่ได้รับความนิยมออกไปได้เสมอ”
แน่นอนว่าเราอาจจะเคยเห็นข่าวที่ไม่ถูกต้อง (หรือแม้แต่ข่าวปลอม) ตามหนังสือพิมพ์ นิตยสาร และหนังสือต่างๆ แต่ความแตกต่างคือ ในอดีตเรามักจะหันไปพึ่งพาแหล่งข้อมูลที่น่าเชื่อถือ ไม่ว่าจะเป็นหนังสือพิมพ์ที่มีความน่าเชื่อถือ หรือสารานุกรมเล่มใหญ่ และเรายังพอที่จะสังเกตเห็นอคติของแหล่งข้อมูลที่ให้ข้อมูลผิดๆ เหล่านั้นอยู่บ้าง
อย่างไรก็ตาม เทนเนอร์อธิบายต่อว่า ปัจจุบันการจัดอันดับของเครื่องมือค้นหาเกิดจากกระบวนการซับซ้อนที่ดูน่าเชื่อถือ แต่อาจซ่อนความเท็จและอคติไว้ เพราะถูกออกแบบให้ตอบสนองค่านิยมของผู้ใช้ เช่น การค้นหาเรื่องการแพทย์ทางเลือกจะให้ผลต่างกันในแต่ละประเทศ ตามทัศนคติของวงการแพทย์และผู้ป่วยในพื้นที่นั้น “หากการค้นหาก่อนหน้านี้ของคุณบ่งชี้ถึงทัศนคติบางอย่าง ไม่ว่าจะสนับสนุนหรือคัดค้าน ผลการค้นหาอาจมีอคติด้วยการแสดงข้อมูลในแนวทางเดียวกัน มากกว่าจะนำเสนอข้อสรุปที่มีความเข้มงวดทางวิทยาศาสตร์มากที่สุด”
นอกจากนี้ เทคนิค SEO ยังทำให้บางเว็บไซต์ได้อันดับสูง แม้ข้อมูลจะไม่ถูกต้องหรือถูกบิดเบือน ที่น่ากังวลคือ ผลการค้นหาอาจสะท้อนอคติทางเชื้อชาติหรือเพศโดยไม่ตั้งใจ ตามหลัก ‘ขยะเข้า ขยะออก’ (Garbage In, Garbage Out) ถ้าคนที่มีอคติทางเชื้อชาติหรือเพศใช้วลีใดบ่อยๆ เครื่องมือค้นหาอาจสะท้อนทัศนคติเหล่านั้นโดยไม่รู้ตัว “กลุ่มที่สร้างความเกลียดชังยังสามารถปั่นกระแสผ่านแคมเปญโซเชียลมีเดีย เพื่อบิดเบือนการจัดอันดับได้”
ยิ่งไปกว่านั้น เครื่องมือค้นหามักสร้างภาพลวงว่า ผู้ใช้ควบคุมและเข้าใจทุกอย่างได้ จนเกิดเป็น ‘ปรากฏการณ์ดันนิ่ง-ครูเกอร์’ (Dunning-Kruger Effect) ซึ่งคือแนวโน้มที่คนที่ไม่รู้เรื่องอะไรเลยมักไม่ตระหนักว่าตัวเองรู้น้อยแค่ไหน ในยุคที่ค้นหาข้อมูลได้ง่าย หลายคนจึงละเลยการตรวจสอบความถูกต้อง จนทำให้ความเข้าใจผิดขยายวงกว้างขึ้นเรื่อยๆ
นี่คือปัญหาที่แฝงอยู่ในอัลกอริทึมของกูเกิล ไม่ได้แค่แสดงข้อมูลที่เป็นกลาง แต่คัดกรองผลลัพธ์ตามความชอบส่วนตัว พฤติกรรมการค้นหาที่ผ่านมา และสิ่งที่ระบบคาดว่าเราอยากเห็น ปรากฏการณ์นี้เรียกว่า อคติของอัลกอริทึม หรือฟิลเตอร์บับเบิล
อีไล ปาริเซอร์ (Eli Pariser) นักเคลื่อนไหวด้านอินเทอร์เน็ต ผู้บัญญัติคำว่า ‘ฟิลเตอร์บับเบิล’ ขึ้นในปี 2011 ชี้ให้เห็นว่า การปรับแต่งเนื้อหาให้เข้ากับผู้ใช้บนแพลตฟอร์มอย่างกูเกิลและเฟซบุ๊ก อาจกักขังผู้คนไว้ใน ‘ฟองสบู่’ ของข้อมูลที่ตอกย้ำความเชื่อเดิมๆ เช่น เมื่อค้นหาข้อมูลเกี่ยวกับการเปลี่ยนแปลงสภาพภูมิอากาศ หรือวัคซีน กูเกิลจะแสดงข้อมูลที่สอดคล้องกับมุมมองที่เรามีอยู่แล้ว ถ้าเราตั้งข้อสงสัยเกี่ยวกับเรื่องโลกร้อน (ว่ามันไม่ได้เกิดขึ้น) เราก็จะเห็นบทความที่ตั้งคำถามเกี่ยวกับเรื่องนี้มากขึ้น ในทางกลับกัน ถ้าเราเชื่อมั่นในวิทยาศาสตร์ด้านภูมิอากาศ กูเกิลก็จะจัดลำดับเนื้อหาที่สนับสนุนมุมมองนี้ให้เห็นก่อนเช่นกัน
การทำงานของอัลกอริทึมกูเกิลถูกออกแบบมาเพื่อสร้างการมีส่วนร่วมสูงสุด ยิ่งผู้ใช้คลิกเนื้อหาประเภทไหนมาก ระบบก็จะยิ่งเรียนรู้และปรับแต่งผลลัพธ์ให้ตรงกับความชอบนั้นมากขึ้น เมื่อเวลาผ่านไป วิธีนี้จึงยิ่งขยายอคติด้วยการกรองมุมมองที่ขัดแย้งออกไป แม้กูเกิลจะมีเป้าหมายเพื่อสร้างความพึงพอใจให้ผู้ใช้ แต่ผลลัพธ์คือ ผู้คนจะเห็นเนื้อหาประเภทเดียวกันซ้ำๆ และสร้างโลกทัศน์ที่แคบลง
ผลกระทบของ ‘เครื่องจักรแห่งอคติ’ ของกูเกิลนี้ลึกซึ้งกว่าระดับปัจเจกบุคคล ในสังคมที่กำลังเผชิญกับปัญหาข่าวปลอมและความแตกแยกทางความคิด การตอกย้ำอคติยิ่งทำให้การแบ่งแยกรุนแรงขึ้น โดยเฉพาะในช่วงเลือกตั้ง ผู้คนมักค้นหาข้อมูลที่สนับสนุนแนวคิดทางการเมืองของตน แทนที่จะได้เห็นมุมมองที่หลากหลาย อัลกอริทึมกลับยิ่งนำเสนอเนื้อหาที่สนับสนุนฝ่ายที่เราเลือก จนส่งผลให้เกิดปรากฏการณ์เสียงสะท้อนในห้อง (echo chamber effect) ซึ่งทำให้ผู้คนมองว่า คนที่คิดต่างเป็นพวกที่เข้าใจผิดหรือหลงทาง
ด้วยสัดส่วนของตลาดขนาดใหญ่ เราอาจจะคิดไปว่า นี่เป็นปัญหาของกูเกิลโดยเฉพาะรึเปล่า? แต่ในการศึกษาชิ้นหนึ่งของ University of Washington พบว่า อคติแบบนี้เกิดขึ้นกับเครื่องมือค้นหาข้อมูลอื่นๆ ด้วย ไม่ว่าจะเป็น Baidu, Naver หรือ Yandex ด้วยการทดลองค้นหาคำว่า ‘CEO United States’ เราก็มักจะเจอภาพผู้ชายมากกว่า หรือค้นหาคำว่า ‘Nurse’ ก็จะเจอภาพผู้หญิงมากกว่า
แน่นอนว่าอัลกอริทึมไม่ได้สมบูรณ์ 100% และเราสามารถไถหน้าคำตอบของเราไปเรื่อยๆ เพื่อดูข้อมูลที่หลากหลายมากขึ้น แต่เวลาค้นหาข้อมูล คนส่วนใหญ่อาจจะไม่ได้เลื่อนลงไปดูคำตอบข้างล่าง หรือเลื่อนไปถึงหน้าที่ 2-3 ด้วยซ้ำ ยิ่งการมีฟีเจอร์อย่าง Snippet หรือ AI Overviews ที่คัดคำตอบมาตอบด้านบนเลย ยิ่งทำให้โอกาสในการค้นหาข้อมูลเพิ่มเติมน้อยลง (และมีโอกาสผิดเพิ่มขึ้นด้วย ถ้าเก็บข้อมูลจากแหล่งที่ไม่ถูกต้อง)
นอกจากนี้ แรงจูงใจทางเศรษฐกิจเบื้องหลังการเลือกใช้อัลกอริทึมของกูเกิล ยังเป็นประเด็นที่ไม่อาจมองข้าม เพราะกูเกิลสร้างรายได้หลักจากการโฆษณาแบบเจาะจงกลุ่มเป้าหมาย ทำให้มีผลประโยชน์ในการรักษาความสนใจของผู้ใช้ด้วยการนำเสนอเนื้อหาที่ถูกใจ ซึ่งอาจจะกลายเป็นเชื้อเพลิงให้กับอคติให้เกิดมากขึ้นก็ได้
ปัญหาที่เกิดขึ้นคือ บางครั้งเกณฑ์เหล่านี้ก็ไม่ได้สะท้อนถึงคุณภาพ หรือความถูกต้องของข้อมูลเสมอไป ตัวอย่างเช่น เว็บไซต์บางแห่งแม้อาจจะไม่มีเนื้อหาที่ถูกต้อง แต่กลับได้รับความนิยมสูง เนื่องจากมีการโปรโมตหรือซื้อโฆษณาจำนวนมาก ส่งผลให้เว็บไซต์เหล่านี้ปรากฏอยู่ในอันดับต้นๆ ของผลลัพธ์การค้นหา ในฐานะบริษัทที่มีผู้ใช้งานหลายล้านคนทั่วโลก กูเกิลเองจึงต้องมีความรับผิดชอบในการตรวจสอบและนำเสนอข้อมูลที่ถูกต้องหรือปลอดภัยด้วยเช่นเดียวกัน
ในขณะเดียวกัน สื่อก็ควรมีบทบาทสำคัญในการตรวจสอบข้อเท็จจริง โดยเฉพาะเมื่อเผชิญหน้ากับข่าวปลอมและข้อมูลผิดพลาด สื่อในยุคนี้ควรทำหน้าที่เป็นตัวกลางในการนำเสนอข่าวสารอย่างตรงไปตรงมา และช่วยสร้างความเข้าใจเกี่ยวกับวิธีการทำงานของเครื่องมือค้นหา เพื่อให้ประชาชนสามารถแยกแยะข่าวสารได้ดีขึ้น โดยเฉพาะข่าวสารเกี่ยวกับประเด็นสำคัญ เช่น การเมือง เศรษฐกิจ และสุขภาพ เพื่อช่วยลดโอกาสในการเผยแพร่ข่าวปลอม และเพิ่มโอกาสในการเข้าถึงข้อมูลคุณภาพสูง
อย่างไรก็ตาม บทความนี้พยายามชี้ให้เห็นว่า ข้อมูลที่เราได้รับจากการค้นหานั้นอาจจะ ‘ไม่ได้ถูกต้อง’ ไปซะทั้งหมด ไม่ใช่เพื่อกล่าวโทษกูเกิล หรือเครื่องมือค้นหาข้อมูลบนโลกอินเตอร์เน็ต แต่เราควรต้องเข้าใจการทำงานเบื้องหลังของระบบเหล่านี้ว่าเกิดขึ้นจากอะไร เพราะหากเราไม่รู้จักตั้งคำถามและตรวจสอบแหล่งข้อมูลอย่างรอบคอบ เราอาจตกอยู่ในกับดักของข้อมูลที่สร้างขึ้นมา เพื่อยืนยันความเชื่อเดิมๆ ของเราเอง ดังนั้น การศึกษาและสร้างความตระหนักรู้เกี่ยวกับวิธีการทำงานของเครื่องมือค้นหา จึงเป็นสิ่งสำคัญที่จะช่วยให้เราเข้าถึงข้อมูลที่ถูกต้องและหลากหลายมากขึ้น
ประเด็นนี้ชี้ให้เห็นความสำคัญของการสอนทักษะในการค้นหา โดยเฉพาะในโรงเรียน เพื่อเตรียมเด็กๆ ให้สามารถแยกแยะข้อมูล และเข้าใจบริบทของสิ่งที่พวกเขาค้นพบได้ดียิ่งขึ้น การสร้างหลักสูตรเกี่ยวกับการตรวจสอบข้อเท็จจริงและการวิเคราะห์แหล่งข้อมูล จึงเป็นสิ่งจำเป็นเพื่อเตรียมพร้อมให้เด็กๆ เติบโตขึ้นมาเป็นผู้บริโภคข้อมูลที่มีวิจารณญาณในอนาคตด้วย
การจัดการกับอคติในระบบเอไอจึงเป็นความท้าทายที่ต้องการการแก้ไขหลายด้านควบคู่กัน การมีข้อมูลฝึกฝนที่หลากหลายและดีถือเป็นสิ่งสำคัญ หากระบบเอไอถูกฝึกด้วยข้อมูลที่มีอคติ ก็มีแนวโน้มจะสืบทอดอคติเหล่านั้นต่อไปด้วย การพัฒนาอัลกอริทึมที่คำนึงถึงความเป็นธรรม และการตรวจสอบอย่างสม่ำเสมอ จะช่วยระบุและลดอคติได้ นอกจากนี้ การสร้างวัฒนธรรมแห่งความรับผิดชอบและความโปร่งใสในบริษัทเทคโนโลยี ก็เป็นสิ่งจำเป็นในการสร้างความเชื่อมั่น และทำให้มั่นใจว่าระบบหลังบ้านจะให้บริการผู้ใช้ทุกคนอย่างเท่าเทียม
แม้อัลกอริทึมการค้นหาของกูเกิลจะปฏิวัติการเข้าถึงข้อมูล แต่ก็ไม่อาจหลีกเลี่ยงอคติที่มีอยู่ในสังคมได้ การแก้ไขอคติเหล่านี้ต้องอาศัยความพยายามอย่างต่อเนื่องเพื่อให้แน่ใจว่า ระบบเอไอถูกพัฒนาและนำไปใช้ในทางที่ส่งเสริมความยุติธรรมและความเท่าเทียม ความโปร่งใส ความรับผิดชอบ
เทนเนอร์สรุปได้อย่างดีถึงประเด็นนี้ว่า “เครื่องมือค้นหาไม่ได้เสิร์ฟความจริงมาให้บนจานเงินจานทอง พวกมันเปรียบเสมือนพนักงานขายที่อาจต้องวิ่งกลับไปกลับมาในห้องเก็บของหลายรอบ กว่าจะเจอสิ่งที่คุณกำลังมองหา เราในฐานะลูกค้าต้องเรียนรู้ในการถามคำถามที่ถูกต้องด้วยวิธีที่ถูกต้อง และยิ่งเราเรียนรู้มากขึ้นเท่าไหร่ คำถามที่เราจะถามก็จะยิ่งมีประโยชน์มากขึ้นเท่านั้น”
บทเรียนของเรื่องนี้คือ การตระหนักรู้ว่าข้อมูลที่เราได้รับจากการค้นหาอาจจะไม่ใช่ข้อมูลที่ถูกต้องเสมอไป เราควรหาข้อมูลให้เยอะขึ้นจากหลายๆ แหล่ง โดยเฉพาะแหล่งที่เชื่อถือได้ อย่าเพิ่งด่วนตัดสิน และถ้าให้ดีอย่าลืมลองเลื่อนหาข้อมูลที่มากกว่าแค่หน้าแรกๆ เท่านั้นด้วย
อ้างอิงจาก