คนสั่ง หุ่นยนต์สอน เมื่อปัญญาประดิษฐ์เปลี่ยนวิธีที่เราสื่อสาร

ปัญหาหนึ่งของผมเวลาเดินทางไปประเทศที่ใช้ภาษาอังกฤษก็คือ ถึงแม้ผมจะพูดภาษาอังกฤษในระดับสื่อสารได้ แต่ก็มีคำ สำนวน หรือประโยคที่ผมไม่มีพื้นฐานทางวัฒนธรรมให้เลือกใช้เลย คือถ้าเขาพูดมาผมก็พอจะแปลออกบ้าง แต่ผมไม่สามารถพูดเองได้อย่างเป็นธรรมชาติ เช่น เวลาไปซื้อของ ฝรั่งอาจพูดว่า ‘How much do I owe you?’ (ผมติดหนี้พี่เท่าไร) ได้อย่างหน้าตาเฉย (มันแปลง่ายๆ ว่า ‘เท่าไรครับ’ นั่นแหละ)

ประโยคนี้ยังไม่เท่าไรนะครับ แต่กับคำง่ายๆ ที่ฝรั่งนับเป็น ‘magic word’ อย่างคำว่า ‘please’ ผมยังไม่ค่อยพูดเลย

 

ไม่ใช่ผมหยิ่งหรือไม่อยากแสดงความสุภาพ แต่เราเรียนกันมาตั้งแต่เด็กว่า please นั้นแปลว่า ‘ได้โปรด’ หรือ ‘กรุณา’ ซึ่งปกติแล้วคนไทยเราพูดคำนี้กันที่ไหนล่ะครับ ถ้าขอให้คนอื่นทำอะไรให้อย่างสุภาพ อย่างดีเราก็จะพูดคำว่า ‘ช่วย’ หรือพูดเป็นประโยคคำถาม เช่น ‘พี่ช่วยยกอันนี้ให้หน่อยได้ไหมครับ’ แต่เราแทบไม่เคยได้ยินใครพูดว่า ‘ได้โปรด’ หรือ ‘กรุณา’ ในชีวิตประจำวันเลย

แต่สำหรับฝรั่ง คำว่า please เป็นเรื่องใหญ่เหมือนกัน ถ้าไม่พูดในบางสถานการณ์ก็จะก่อให้เกิดความกระอักกระอ่วนเพราะเขาอาจรู้สึกเหมือนเราไปสั่ง พ่อแม่เองก็จะอบรมลูกให้พูดคำนี้ตั้งแต่เด็ก ถ้าไม่พูดก็จะไม่ยอมทำอะไรให้

 

เร็วๆ นี้มีข่าวว่า พ่อแม่หลายครอบครัวบ่น Amazon Echo หรือเจ้าตัว virtual assistant (ผู้ช่วยเสมือน—อุปกรณ์ลำโพงในบ้านที่เราสามารถถามคำถามหรือสั่งให้มันทำอะไรก็ได้) ว่ามันทำให้พวกลูกๆ กลายเป็นคนไม่สุภาพ

เวลาที่คุณจะถามอะไร Amazon Echo คุณแค่พูดชื่อของมัน เช่น “Alexa” แล้วตามด้วยประโยคคำถาม มันก็จะเข้าใจและตอบคำถามได้ เช่น  Alexa, tell me a joke. ให้มันเล่าเรื่องตลก หรือ Alexa, how do you spell forest? ให้มันสะกดคำ ความง่ายนี้ทำให้เด็กๆ ชอบมัน เพราะแค่เรียกชื่อมันก็พร้อมทำตามคำสั่งแล้ว

ปัญหาคือ Alexa เป็นแค่ปัญญาประดิษฐ์ เธอพร้อมตอบคำถามหรือทำตามคำสั่ง แม้ว่าคำถามนั้นจะไม่ได้อยู่ในรูปประโยคขอร้อง Alexa จะไม่โต้กลับว่า “สั่งให้ดีๆ หน่อยสิคะ” หรือบ่นว่าเจ้านายของตนหยาบคาย เธอจะทำงานไปอย่างไม่รู้จักเหน็ดจักเหนื่อย ซ้ำร้าย ถ้าไปพูดว่า ‘please’ เธออาจจะไม่เข้าใจคุณ เพราะมีคำเพิ่มขึ้นมา

 

ด้วยเหตุนี้เด็กๆ จึงรู้จัก ‘สั่ง’ ผู้ช่วยเสมือนอย่างเดียว แต่ไม่เคย ‘ขอ’ ผู้ช่วยเสมือนเลย บล็อกเกอร์คนหนึ่งถึงกับเขียนระบายความในใจเป็นบล็อกชื่อ ‘Amazon Echo นี่ดีอย่างกับเวทมนตร์เลย แต่มันทำให้ลูกผมกลายเป็นคนงี่เง่า’ เพราะ Alexa สอน (อย่างอ้อมๆ) ว่าคุณจะสั่งอะไรโดยไม่ต้องพูดคำว่า Please ก็ได้ (แถมยังต้องสั่งเสียงดังพอให้ Alexa ได้ยินด้วย)

หลังจากข่าวนี้ออกมาเสียงก็แตกออกหลายทางครับ บางคนก็เห็นด้วยกับฝั่งพ่อแม่ว่าจริงๆ แล้วบริษัทเทคโนโลยีน่าจะพัฒนา ‘family mode’ ที่ช่วยสร้างเสริมพฤติกรรมของเด็กได้ แต่บางคนก็บอกให้แยกแยะ เลี้ยงลูกให้ดีเองสิ

 

ถึงอย่างนั้น ผมว่าเรื่องนี้ก็ชวนให้เราคิดเหมือนกันนะครับ คิดถึงความสัมพันธ์ของคนกับหุ่นยนต์ คิดถึงการปฏิสัมพันธ์กับสิ่งหนึ่งที่อาจค่อยๆ วางกรอบคิดและวิธีมองโลกให้กับสิ่งอื่นๆ

มันอาจเป็นแค่เรื่องเล็กๆ ของคำว่า ‘please’

แต่ก็เป็นเรื่องของคำเล็กๆ นี่แหละที่สร้างปัญหาใหญ่ๆ มานักต่อนัก

 


จากคอลัมน์ Lab โดย ทีปกร วุฒิพิทยามงคล : giraffe Magazine 42 — Humour Issue

ติดตามเรื่องราวอื่นๆ ได้ที่ readgiraffe.com

Share This!
  •  
  •  
  •  
  •  
  •  
  •  
No Comments Yet

Comments are closed