“เฟซบุ๊กเรา เราจะโพสต์อะไรก็ได้” อาจไม่จริงเสมอไป เพราะทุกสิ่งที่เราโพสต์มีสิทธิถูกสั่งลบโดยพนักงานของมาร์ค ซักเคอร์เบิร์กได้ทุกเมื่อ
ทุกสิ่งที่โพสต์จะถูกควบคุมด้วยกฎของเฟซบุ๊ก ซึ่งก่อนหน้านี้เป็นเหมือนความลับของจักรวาลที่ไม่มีใครรู้ แต่ ณ เวลานี้ มันถูกเปิดเผยแล้ว
เพราะเมื่อวานนี้ (22 พ.ค.) The Guardian ได้เปิดเผยคู่มือลับของเฟซบุ๊ก เป็นแนวปฏิบัติให้พนักงานตัดสินใจว่าโพสต์แบบใดควรลบ ซึ่งไกด์บุ๊คต้องการส่งเสริมเสรีภาพในการพูด ไปพร้อมๆ กับการคัดกรองเนื้อหาที่ไม่เหมาะสมออกไป
“เราตั้งใจให้มีเสรีภาพในการพูดมากที่สุดเท่าที่ทำได้ แต่เราต้องปิดกั้นคอนเทนต์ที่จะนำไปสู่อันตรายที่เกิดขึ้นในโลกจริง… โดยดูจากข้อมูลที่ปรากฏในโพสต์ว่ามีน้ำหนักแค่ไหน จากประสบการณ์ของเรา”
แต่เผยแพร่กฎออกมาแล้ว ก็มีหลายข้อที่ ‘กระตุกต่อมเอ๊ะ’ บรรดาผู้ใช้ทั้งหลาย อย่างเช่น
1. เฟซบุ๊กไม่ลบคำหยาบ ข้อความเหยียดผิวหรือเหยียดเพศออกจากระบบ ให้ความเห็นไว้ว่า การสนทนาในโลกโซเชียลคือภาพสะท้อนคำพูดในโลกจริง
2. ภาพเปลือยที่เห็นอวัยวะเพศ, บั้นท้าย หรือหน้าอกผู้หญิงจะโดนลบ ยกเว้นภาพเปลือยของเชลยศึกชาวยิวที่ถูกพาไปรมแก๊ส เฟซบุ๊กให้ความเห็นว่าเอาไว้เตือนใจคนเรื่องสงคราม
3. เฟซบุ๊กไม่มีนโยบายลบข่าวเท็จออกจากเซิร์ฟเวอร์ กล่าวว่าทุกคนมีสิทธิที่จะโพสต์หรือแชร์สิ่งที่ตัวเองเชื่อ
4. ความรุนแรง เรื่องนี้ก็เป็นปัญหา โดยเฉพาะความรุนแรงที่ทำกับเด็ก เพราะว่าเฟซบุ๊กถือว่าเป็นดุลยพินิจของ moderator ที่บางครั้งอาจปล่อยให้ภาพเหล่านี้คงอยู่ เพื่อให้คนได้แชร์ สังคมจะได้ตื่นตัวกันมากขึ้น (เช่นกรณีของพ่อที่ Live ตอนปลิดชีพลูกสาวตัวเอง สามารถใช้เป็นตัวอย่างให้สังคมตระหนักถึงความเจ็บป่วยทางจิต) อย่างไรก็ตาม ถ้าคนที่ทำความรุนแรงกับเด็กแสดงความสะใจออกมา วิดิโอนี้จะโดนลบทันที เพราะกลัวว่าคนอื่นจะเลียนแบบ
5. คนที่พยายามฆ่าตัวตายหรือทำร้ายตัวเองผ่าน Live เฟซบุ๊ก ทางโซเชียลเน็ตเวิร์กจะไม่ลบออก ให้เหตุผลว่า “ไม่อยากเซนเซอร์หรือลงโทษคนที่กำลังสิ้นหวัง” นอกจากนี้ยังยกคำแนะนำจากผู้เชี่ยวชาญว่า คนที่กำลังหดหู่สิ้นหวังถ้าได้มีปฏิสัมพันธ์กับโลกภายนอกผ่านหน้าจออยู่ มันจะช่วยเยียวยาพวกเขาได้ แต่แน่นอน ถ้าการทำร้ายตัวเองมันไปจนถึงการจบชีวิต ทางเฟซบุ๊กก็ขอให้คนรีพอร์ทเพื่อที่จะได้ลบวิดีโอนี้
6. เฟซบุ๊กห้ามคนโพสต์ข้อมูลส่วนตัวหรือภาพเปลือยของคนอื่นเพื่อแฉ หรือแบลกเมล์ถ้าอีกฝ่ายไม่ยินยอม ถ้า moderator เจอนอกจากจะลบแล้ว ยังแบน user อีกด้วย เรื่องนี้เคยมีเคสที่ คารัวนา กาลิเซีย จากสมาคมผู้สื่อข่าวสอบสวนนานาชาติ ถูกเฟสบุ๊กแบน โดยหลายฝ่ายเชื่อว่าเธอโพสต์ภาพพาสปอร์ตลูกค้า จากกรณีเปิดโปง Panama Papers
7. โพสต์ที่แสดงคำขู่ว่าจะทำร้ายคน เฟซบุ๊กก็มีมาตรฐานที่คนกังขา เช่น การบอกว่า “ใครซักคนช่วยยิงทรัมป์ให้ตูที” อันนี้จะโดนลบ แต่ “ถ้าจะบีบคอนังแ_ศยา ต้องให้ชัวร์ว่าได้กดลงไปที่กลางลำคอ” แบบนี้ผ่าน ลงได้ โดยให้เหตุผลว่ามันไม่ได้อยู่ที่ความรุนแรงของภาษาที่แสดงออกมา แต่อยู่ที่โพสต์นั้นบอกรายละเอียดการกระทำชัดหรือเปล่า การขู่ฆ่าคนที่ไม่ได้เจาะจงว่าใครถือว่าไม่มีน้ำหนักมากพอว่าคนโพสต์ตั้งใจจะทำเช่นนั้น
(ทาง The MATTER ได้สรุปคู่มือที่ว่าออกมาแล้ว อ่านเพิ่มเติมได้ที่นี่)
แล้วใครล่ะที่เป็นผู้คุมกฎ?
เฟซบุ๊กมีคนทำหน้าที่สอดส่องเนื้อหาหรือ moderator เพื่อตรวจสอบรีพอร์ทจากผู้ใช้ที่ร้องเรียนเข้ามา และตัดสินว่าโพสต์ดังกล่าวจะได้ไปต่อหรือไม่ โดยเฉพาะเรื่องที่เป็นปัญหาอย่างต่อเนื่องในช่วง 1-2 เดือนที่ผ่านมา ที่มีคน Live โชว์การฆ่าตัวตายหรือพ่อที่แขวนคอลูกสาวตัวเอง ทั้งหมดทำงานภายใต้แนวคิดนี้
“ถ้าต้องการสร้างชุมชนที่ปลอดภัย เราจะเป็นต้องรับมือกับมันอย่างทันท่วงที เรากำลังทำระบบให้คนรีพอร์ทวิดิโอต่างๆ ได้ง่ายขึ้น เพื่อเราลงมือจัดการปัญหาได้เร็วกว่าเดิม – ไม่ว่าจะเป็นการโต้ตอบคนที่ต้องการความช่วยเหลืออย่างรวดเร็วหรือการลบโพสต์เป็นต้น”
เดือนนี้ มาร์ค ซัคเกอร์เบิร์ก เพิ่งรับ moderator เข้ามาใหม่ 3,000 คน ทำให้ตอนนี้เฟซบุ๊คมี moderator อยู่ 7,500 คนด้วยกัน แต่นั่นเทียบไม่ได้กับจำนวน user ที่ผลสำรวจในเดือนล่าสุดรายงานว่ามีมากกว่า 1,900 ล้านคน และมีการโพสต์โดยเฉลี่ย 1.3 ล้านครั้งต่อนาที
จำนวนคนตรวจสอบที่เทียบไม่ได้เลยกับจำนวนคอนเทนต์ มันทำให้งานนี้เหนื่อยกว่าเข็นครกขึ้นภูเขา
ล่าสุด ทางเฟซบุ๊กออกมาให้ความเห็นว่า “เราเข้าใจเรื่องความลำบากของทีมงานและ moderator เป็นอย่างดี มันเป็นงานที่ยากและท้าทาย มีเนื้อหาหลายๆ ชิ้นที่ทำให้ผู้คนไม่สบายใจ เราต้องระวังและทำให้คนตรวจสอบกล้าตัดสินใจในสิ่งที่ถูกต้อง รวมถึงดูแลสภาพจิตใจของพวกเขา นั่นคือเรื่องท้าทายมากๆ”
กฎแบบนี้มันดีจริงไหม? กับความเห็นที่หลากหลาย
เกิดความเห็นเป็น 2 ฝั่ง ทั้งฝั่งที่เชื่อว่าเฟซบุ๊กเป็นสื่อที่มีอิทธิพลและต้องรับผิดชอบต่อสังคม และฝั่งที่มองว่าการสองส่องเนื้อหาและสั่งลบเป็นการควบคุมการสื่อสารของคนทั้งโลก รวมถึงการพึ่งใช้วิจารณญานของเฟซบุ๊กว่าคอนเทนต์ใดควรลบหรือไม่ ทำให้คนกังขาว่ามันเป็น ‘ความเห็นส่วนตัว’ มากเกินไปหรือเปล่า
พื้นที่สีเทาๆ นี่ล่ะที่เป็นปัญหา เพราะหลายฝ่ายต้องการให้มันชัดเจนไปเลย
คอลัมนิสต์ด้านเทคโนโลยี แมทธิว อินแกรม จาก Fortune ให้ความเห็นว่าเฟซบุ๊กควรทำหลักเกณฑ์ให้โปร่งใส
“เฟซบุ๊กอาจไม่อยากยอมรับว่ามันเป็นสื่อ แต่ความเป็นจริงแล้ว มันมีบทบาทสำคัญที่กำหนดว่าคนเป็นพันๆ ล้านว่าพวกเขาจะเห็นสิ่งรอบตัวอย่างไร และพวกเขาต้องรับผิดชอบด้วยการทำให้หลักเกณฑ์ในการตัดสินใจว่าคนควรเห็นหรือไม่เห็นอะไรชัดเจนและโปร่งใสกว่านี้”
เช่นเดียวกับ อีเวตต์ คูเปอร์ สส.จากพรรคเลเบอร์ ประเทศอังกฤษให้ความเห็นว่า “เราจำเป็นต้องเรียกร้องให้ทางโซเชียล เน็ตเวิร์คทบทวนแนวปฏิบัติ เพราะตอนนี้มีคอนเทนต์ที่รุนแรงและเป็นอันตรายมากเกินไปแล้ว… ภาพ (ที่ไม่เหมาะสม) ทั้งหมดควรถูกส่งให้ตำรวจและลบทิ้งจากเซิร์ฟเวอร์ เฟซบุ๊กตัดสินใจผิดและต้องแก้ไขด่วน”
ความคิดของคูเปอร์ ก็มีคนไม่เห็นด้วย อย่างเช่น ผู้เชี่ยวชาญเรื่องสิทธิเด็กมองว่าไม่ควรปล่อยให้ทีมงานของเฟซบุ๊กเป็นคนตัดสินใจว่าภาพหรือคลิปที่ความรุนแรงต่อเด็กนั้นจะโดนลบหรือไม่ แต่ควรตั้งทีมพิเศษที่ใช้ผู้เชี่ยวชาญเฉพาะมาตรวจสอบ
แคลร์ ลิลลี่ หัวหน้าฝ่ายความปลอดภัยเด็กในโลกออนไลน์หรือ National Society for the Prevention of Cruelty to Children (NSPCC) ให้ความเห็นว่า “ถ้ามีสิ่งที่ต้องถูกตรวจสอบหรือดำเนินคดีหรือมีคนผู้กระทำผิดแสดงตัวออกสื่อ เฟซบุ๊กไม่ควรเป็นคนติดสินใจ มันเป็นเรื่องของตำรวจ”
ส่วนแดน กิลมอร์ จากสมามบรรณาธิการโลก Global Editors Network และเป็นผู้สนับสนุนเสรีภาพในการพูด เขาเป็นห่วงเรื่องการควบคุมเนื้อหาในโลกโซเชียลไว้ดังนี้
“กฎของเฟซบุ๊กว่าผู้ใช้ควรหรือไม่ควรโพสต์อะไร แสดงให้เห็นว่าบริษัทเดียวสามารถควบคุมการสื่อสารของคนทั้งโลกได้แค่ไหน”
และเขายังกังวลว่าการคัดกรองเนื้อหาของเฟซบุ๊กจะทำลายเสรีภาพในการพูด ซึ่งเขามองว่า เราต่อสู้กับถ้อยคำที่ไม่ดี ด้วยการสร้างถ้อยคำที่ดีมาทดแทน และแทรกแซงควรใช้เฉพาะกรณีที่สุดโต่งจริงๆ
ถ้าจะให้ชั่งน้ำหนักแล้ว เราอยากได้ชุมชนออนไลน์ที่สงบสุขปลอดภัย หรือพื้นที่ที่คนสามารถแสดงออกได้อย่างเสรีมากกว่ากัน?
อ้างอิงข้อมูลจาก
theguardian.com/revealed-facebook-internal-rulebook-sex-terrorism-violence
theguardian.com/facebook-moderators-quick-guide-job-challenges
theguardian.com/facebook-live-zuckerberg-adds-3000-moderators-murders
theguardian.com/facebok-like-free-speech-protection
fortune.com/facebook-censorship-transparency
fortune.com/facebook-media-principles
arstechnica.co.uk/facebook-napalm-girl-photo-censorship-norway
arstechnica.com/facebook-moderator-guidelines-leaked-tory-internet-regulation