เฟซบุ๊กกับปัญหาการรายงานข่าวปลอม

เฟซบุ๊กไม่อยากเป็นข่าว

เอ้า ถ้าพูดให้ถูกต้องบอกว่า เฟซบุ๊กไม่อยากทำตัวเป็น ‘สำนักข่าว’

ถ้ายังพอจำกันได้ ในปีที่แล้ว เฟซบุ๊กเขาถูกโจมตีจากสื่อจำนวนมากเลยครับ ว่ามีวิธีการเลือก Trending News (หรือ ‘ข่าวที่กำลังมา’) แบบที่ไม่ค่อยจะยุติธรรมนัก นั่นคือมักจะเลือกข่าวการเมืองที่สนับสนุนพรรคเดโมแครตขึ้นมาเยอะๆ และข่าวที่โจมตีพรรครีพับลิกันขึ้นมาเยอะๆ อีกเช่นกัน

ที่เป็นแบบนี้ เพราะเขาว่ากันว่า เฟซบุ๊กนั้นมีเฉดทางการเมืองที่ไปตรงกับพรรคเดโมแครตพอดี รวมไปถึงเรื่องลึกลับซับซ้อนเกี่ยวกับนโยบายของพรรคเดโมแครตกับการบริหารจัดการธุรกิจเทคโนโลยีที่ไปพัวพันกับซิลิคอนวัลเลย์ด้วย

ตอนนั้นก็เลยเกิดคำถามขึ้นมาครับว่า – แล้ว ‘การเลือก’ แบบนี้ มันเกิดขึ้นมาได้ยังไง? เมื่อมีคนไปหาคำตอบ ก็พบว่าเฟซบุ๊กนั้นใช้วิธีให้ทีมนักข่าวภายในเลือกขึ้นมา นั่นคือมีลูกจ้างของเฟซบุ๊กจำนวน 26 คนที่มีหน้าที่ในการคัดกรองข่าวต่างๆ แล้วเลือกขึ้นมาว่าข่าวไหนจะเป็น ‘ข่าวที่กำลังมา’ กันแน่

ก็แหงล่ะครับ – ลูกจ้างในที่นี้เป็น ‘คน’ – เป็น ‘มนุษย์’ – ดังนั้นก็ต้องประกอบไปด้วยอคติต่างๆ นานา อยู่ในตัวโดยที่ทั้งรู้ตัวและไม่รู้ตัว เวลาเลือกข่าวที่ ‘กำลังมา’ เขาก็อาจจะคัดกรองข่าวที่ตรงกับความชอบและทัศนคติของตนเอง ถึงแม้ว่าจะรับรู้รับทราบและพร้อมจะปฏิบัติตามจรรยาบรรณของนักข่าวที่ดี (คือไม่เอาทัศนคติไปปะปนกับความจริงมากนัก) แต่ก็เป็นมนุษย์ ดังนั้นก็มีกรณีที่ช่วยไม่ได้อยู่เหมือนกัน – แบบนี้ก็เข้าใจ

ยิ่งเป็นฤดูเลือกตั้งของอเมริกาที่ผ่านมา เรื่องนี้ยิ่งเห็นได้ชัดเจน

เวลาที่สำนักข่าวต่างๆ ประกาศจุดยืนทางการเมืองของตัวเองออกมาอย่างชัดเจน บอกว่าตัวเองไม่เป็นกลาง แต่พยายามจะให้พื้นที่หรือเสนอข่าวหลายๆ ด้าน โดยไม่บิดเบือนความจริง ผมจะชอบมากเลยนะครับ – ผมไม่เคยเชื่อเลยว่าสำนักข่าวต้องมีความเป็นกลาง เพราะความเป็นกลางเป็นสิ่งที่ไม่มีจริงอยู่แล้ว ความเป็นกลางเป็นคำลวงตาที่มนุษย์สร้างขึ้นเพื่อให้เรารู้สึกว่าความจริงมีเพียงหนึ่งเดียว ทั้งๆ ที่ความจริงไม่เคยเป็นอย่างนั้น

ดังนั้นถ้าเฟซบุ๊กอยากทำตัวเป็นสำนักข่าวที่ ‘เอียง’ ไปทางการเป็นเดโมแครต (และประกาศตัวออกมาอย่างนั้นชัดเจน) ก็ย่อมทำได้ แต่ปัญหาก็อาจเป็นว่าเฟซบุ๊กนั้นจะเป็นสำนักข่าวที่ใหญ่มากจนฝั่งตรงข้ามไม่อาจสู้ได้อย่างยุติธรรมเลย

อย่างไรก็ตาม – เฟซบุ๊กไม่อยากให้ตัวเองเป็นสำนักข่าว เฟซบุ๊กอยากให้ตัวเองเป็น ‘แพลตฟอร์ม’ สำหรับความเห็นหลายๆ แบบ อยากเป็นแพลตฟอร์มการสื่อสารของประชาชนบนโลกใบนี้มากกว่า

เมื่อเป็นอย่างนั้น ช่วงเดือนกันยายนที่่ผ่านมา เฟซบุ๊กจึงเขยิบไปในทางที่ทำให้ตัวเองเป็นสำนักข่าวลดลง และเป็นแพลตฟอร์มมากขึ้น ด้วยมาตรการที่ออกจะรุนแรงอยู่สักหน่อย – นั่นคือการไล่ทีมข่าวออกทั้งหมด 26 คน ประกอบด้วยนักเลือกข่าว (curators) 19 คน และนักเขียนพาดหัว (copyeditors) 7 คน โดยมีการแจ้งก่อนล่วงหน้าเพียงไม่นานเท่านั้น โดยบอกว่าต่อไปนี้จะใช้อัลกอริธึมในการคัดเลือกข่าวขึ้นมาเองอัตโนมัติ โดยใช้คนให้น้อยที่สุด

เฟซบุ๊กเชื่อมั่นว่าการทำแบบนี้จะทำให้ส่วน ‘ข่าวที่กำลังมา’ ของตัวเองมีคุณภาพมากขึ้น เขาออกแถลงข่าวมาว่า “ยังมีคนอยู่ในกระบวนการการคัดเลือกข่าวอยู่เพื่อที่ว่าข่าวส่วน  Trending News จะมีคุณภาพ คุณภาพที่ว่าก็อย่างเช่นข่าวที่เลือกมา จะมีความเกี่ยวข้องเกี่ยวพันกับสถานการณ์ที่เกิดขึ้นบนโลกจริงๆ”

แต่ไม่นานหลังจากที่เฟซบุ๊กไล่พนักงานข่าวทั้งหมดออก – ก็เกิดเรื่องจนได้ครับ

ตั้งแต่เย็นวันอาทิตย์จนถึงเช้าวันจันทร์ ต้นเดือนกันยายน ตามเวลาอเมริกา ส่วน Trending News ของเฟซบุ๊ก ดันมี ‘ข่าวปลอม’ ติดมาด้วย มันเป็นข่าวที่บอกว่า Megyn Kelly นักข่าวช่อง Fox News โดนไล่ออกเพราะดันไปเชียร์ฮิลลารี่ คลินตัน (Fox News เชียร์รีพับลิกัน) นี่เป็นข่าวที่มาจาก endingthefed.com

ข่าวนี้ไม่มีมูลความจริงสักนิดเลยครับ หนึ่งก็คือ Megyn Kelly ไม่ได้สนับสนุนคลินตันอะไรทั้งสิ้น และสองก็คือ ไม่เคยถูกไล่ออกจาก Fox News เลย และก็จะไม่ถูกไล่ออกด้วย แต่หลังจากที่เฟซบุ๊กนำข่าวนี้ขึ้น Trending News ก็ปรากฏว่าข่าวนี้ได้ไปมากถึง 200,000 Likes ในเวลาสั้นๆ

ผมออกจะเชื่ออยู่หน่อยว่า ถ้าเฟซบุ๊กยังมีนักข่าวที่เป็นคนอยู่ ข่าวแบบนี้จะมีโอกาสโผล่ขึ้นมาบน Trending News น้อยลง คืออย่างน้อยนักข่าวก็น่าจะเช็คความจริงก่อนที่จะปล่อยออกไปให้คนเป็นแสนๆ ล้านๆ คนได้อ่าน (แต่ก็ไม่แน่นะครับ – ฮ่าๆ!)

พอเฟซบุ๊กปรับมาใช้อัลกอริธึมในการคัดเลือกข่าวเพียงอย่างเดียว ข่าวที่มีคนกดไลก์หรือสนใจเป็นจำนวนมากๆ หรือพูดถึงบ่อยครั้งอยู่แล้ว จึงถูกดันขึ้นมาโดยไม่มีการตรวจสอบว่าข่าวนั้นจริงหรือเท็จ นี่ไม่ใช่ความผิดของอัลกอริธึมเสียทีเดียว แต่เป็นความผิดพลาดของมวลชน

รวมไปถึงการแจ้งเตือนข่าวระเบิดที่ผ่านมาไม่นานด้วย เฟซบุ๊ก “ดึงข่าวอัตโนมัติ” มาจากบางเพจ ที่ดันไปลงข่าวเก่าของปีก่อนๆ จึงทำให้อัลกอริธึมคิดว่ามีเหตุระเบิดในกรุงเทพฯ ครั้งใหม่ จึงแจ้งเตือนออกมาตามนั้น

ก็ทำให้คนตระหนกตกใจกันครั้งใหญ่อย่างที่เป็นข่าวนั่นแหละครับ

ปัญหาข่าวปลอมนี้ไม่ได้เกิดขึ้นกับเฟซบุ๊กเท่านั้น ไม่นานมานี้ ปากีสถานกับอิสราเอลก็เขม่นกันเพราะข่าวปลอม เพราะมีคนไปรายงานมั่วๆ ว่าอดีตรมต. กลาโหมของอิสราเอลจะยิงนิวเคลียร์ใส่ปากีสถานถ้าปากีสถานส่งกองกำลังไปซีเรีย ซึ่งรมต.ของปากีสถานก็ตอบในทวิตเตอร์ว่า “ปากีสถานก็เป็นรัฐนิวเคลียร์เหมือนกัน” (คือไม่ยอมกันนั่นแหละ) ก่อนเรื่องจะแดงว่าเป็นข่าวปลอมในเวลาต่อมา

(ลองอ่าน http://www.cbc.ca/news/technology/twitter-israel-pakistan-fake-news-1.3912956)

ล่าสุดเฟซบุ๊กก็ไม่ได้นิ่งนอนใจ เริ่มมีการ “ติดธง” ว่าข่าวไหนเป็นข่าวจริง ข่าวปลอมแล้ว โดยใช้ข้อมูลจาก 5 แหล่ง คือ AP, ABC News, Factcheck, Snopes และ Politifact แต่อย่างที่เห็นครับว่ายังใช้ไม่ได้ผลเท่าไรนัก จากแค่ข่าวระเบิดของไทยก็บอกอะไรได้พอสมควร

อาจเป็นเพราะแหล่งข่าวส่วนใหญ่ที่เฟซบุ๊กใช้ ไม่ได้ตอบสนองต่อข่าวต่างประเทศอย่างทันทีทันควันนักก็ได้

เราก็รู้กันอยู่แล้วนะครับว่าเวลามวลชนบอกว่าสิ่งไหนถูก สิ่งไหนดี ก็ไม่จำเป็นว่าสิ่งนั้นจะต้องดีเสมอไป เวลามวลชนบอกว่าข่าวไหน ‘น่าสนใจ’ หรือ ‘ใช่’ ก็ไม่ได้แปลว่าข่าวนั้น ‘จริง’ ดังนั้นอัลกอริธึมจึงไม่ได้มีบวกมีลบกับเรื่องนี้เลย มันทำหน้าที่อย่างตรงไปตรงมา ทำงานของมันอย่างซื่อสัตย์ (ถึงแม้จะ ‘บื้อๆ’ ไปหน่อยก็ตามที) เมื่อมันเห็นข่าวจากแหล่งที่ “เคยคิดว่าน่าเชื่อถือ” มันก็ดึงมาง่ายๆ โง่ๆ

อาจต้องมีการปรับปรุงเรื่องความน่าเชื่อถือของแหล่งข่าวเพิ่มเติม และการให้น้ำหนักความน่าเชื่อถือของมวลชนเองก็จำเป็น

ปัญหาเรื่อง ‘มวลชนไม่ได้ถูก’ นี้เป็นสิ่งที่สังคมต้องให้ความสนใจในอนาคตอีกยาวเลยนะครับ เพราะในอนาคต (กระทั่งตอนนี้!) เราก็ได้เห็นการใช้อัลกอริธึมมากขึ้นเรื่อยๆ ซึ่งถ้าอัลกอริธึมแบบตรงไปตรงมาถูกใช้ทาบทับบนข้อมูลที่ผิดตั้งแต่ต้น ผลลัพธ์ก็ไม่อาจเป็นอย่างอื่นไปได้นอกจากความผิดที่ถูกทำให้ร้ายแรงขึ้นไปอีก และเมื่อความผิดนั้นถูกใช้ในอัลกอริธึมอีกอัน ซ้ำแล้วซ้ำอีก ทับแล้วทับอีก สิ่งที่เกิดก็คงเป็นหายนะ เป็นความบิดเบี้ยวขั้นรุนแรง

ที่ดันมีคนเชื่อว่า นั่นเป็นความจริง

Share This!
  •  
  •  
  •  
  •  
  •  
  •  
No Comments Yet

Comments are closed