ลองจินตนาการว่าคุณมีใครสักคนที่คอยสนับสนุนคุณทุกอย่าง เชื่อมั่นในตัวคุณ ไม่ว่าเมื่อไหร่ที่คุณไม่ชอบสิ่งใด เพียงเอ่ยปาก เขาก็พร้อมจะปรับตัวให้ตรงใจคุณเสมอ แม้บางครั้งจะเผลอผิดพลาด แต่ก็ยังขอโทษอย่างนุ่มนวลเพื่อรักษาความสัมพันธ์เอาไว้
ฟังดูดีใช่ไหม?
แต่ปัญหาคือ “ใครคนนั้น” ไม่ใช่มนุษย์ หากเป็นเพียงสมองกลที่ถูกออกแบบมาเลียนแบบการสื่อสารอย่างแนบเนียน
บทความนี้ไม่ได้จะตัดสินว่าคุณ “ควร” หรือ “ไม่ควร” ใช้ AI Chatbots ในชีวิตประจำวัน แต่จะชวนคุณสำรวจว่า ความสัมพันธ์ระหว่างคุณกับ AI Chatbots ตอนนี้อยู่ตรงไหนกันแน่
- แค่ หุ่นยนต์พูดได้
- แค่ ที่ระบายอารมณ์
- แค่ เพื่อนร่วมงาน
- แค่ ผู้ช่วยจัดการทุกอย่าง
- หรือเริ่มกลายเป็นเพื่อนสนิท ครอบครัว นักจิตวิทยาส่วนตัว…หรือแม้กระทั่ง “คนรัก”?
ทำไมเราถึงผูกพันกับสิ่งที่ไม่ใช่มนุษย์?
มนุษย์คือสัตว์สังคม สมองของเราถูกสร้างมาเพื่อค้นหาความสัมพันธ์และความเป็นพวกเดียวกันในเสี้ยววินาที งานวิจัยของ Elizabeth Spelke นักจิตวิทยาพัฒนาการพบว่า แม้แต่ทารกแรกเกิดก็สามารถแยกได้ว่าใครเป็น “พวกเรา” หรือ “คนนอก” และกลไกนี้ไม่ได้จำกัดเพียงสิ่งมีชีวิตเท่านั้น ไม่ว่าสัตว์เลี้ยง ตุ๊กตา หรือแม้แต่ตัวการ์ตูน ก็สามารถถูกนับเป็น “พวกเรา” ได้เช่นกัน
นักประสาทวิทยา Robert Sapolsky เรียกสิ่งนี้ว่า Pseudo-Kinship หรือความผูกพันเสมือนเครือญาติ กลไกที่ว่าไม่ได้ยึดเพียงแค่มนุษย์ที่มีเลือดเนื้อเป็นพวก ไม่ว่าสัตว์ ตุ๊กตาตัวโปรดตัวละครจากหนังซีรี หรือตัวการ์ตูนก็สามารถถูกนับเอามาเป็นพวกเราได้เช่นเดียวกัน เราจึงมีความรู้สึกใกล้ชิดกับตัวละครนั้นราวกับมันมีชีวิต แม้เราจะตระหนักรู้ว่าพวกเขาไม่ได้มีชีวิตจริงๆก็ตาม
นักวิจัยได้นำกลไกนี้มาพัฒนาหุ่นยนต์เพื่อการบำบัด เช่น ตุ๊กตาโต้ตอบสำหรับผู้สูงอายุที่ตอบสนองต่อการสัมผัสราวกับมีชีวิตจริง ช่วยลดความเหงาและเพิ่มคุณภาพชีวิต หรือหุ่นยนต์ที่ใช้กับเด็กออทิสติก เพื่อฝึกอ่านอารมณ์และการสื่อสารก่อนเข้าสังคมกับเด็กในวัยเดียวกัน
หากแต่สิ่งที่ทำให้ AI Chatbots ต่างออกไปคือคุณแทบไม่ต้องจินตนาการเลย เพราะมันสามารถตอบสนองราวกับอีกฝั่งหนึ่งคือมนุษย์ที่รับฟังและสนับสนุนเราในทุกแง่มุม จนหลายครั้งกลายเป็นว่าทำให้ผู้ใช้รู้สึกดีกว่าความสัมพันธ์กับมนุษย์เสียอีก
ดังนั้นเมื่อมนุษย์จริง ๆ ทำให้เราผิดหวัง เจ็บปวด หรือรู้สึกโดดเดี่ยว การหันมาพึ่งพา AI ที่ไม่เคยตัดสินเรา รักษาน้ำใจเรา ใจดีและรับฟังเราอย่างไม่มีเงื่อนไข ก็ดูเหมือนไม่มีอะไรผิดแปลกอะไรไม่ใช่เหรอ?
ทั้งยังดีเสียด้วยในเศรษฐกิจที่การเข้าถึงนักบำบัด นักจิตวิทยา และจิตแพทย์ไม่ใช่สิ่งที่ทุกคนเอื้อมถึง
เมื่อเราเผลอมอบความเป็นมนุษย์ของเราให้กับสิ่งอื่น
ทางจิตวิทยาเรียกสิ่งนี้ว่า Anthropomorphism หรือคือการมอบ “คุณสมบัติมนุษย์” ให้กับสิ่งที่ไม่ใช่มนุษย์แล้วเชื่อว่าสิ่งนั้นมีความเป็นมนุษย์เหมือนเรา AI Chatbots ที่อ่อนโยนกับเราทำให้สมองเราบิดเบือนหลงเชื่อว่า AI Chatbots นั้น “เข้าใจ” และ “มีอารมณ์” แม้แท้จริงแล้วมันเป็นเพียงอัลกอริทึมที่ประมวลผลข้อมูลมหาศาล เนื่องจากกลไกของสมองมนุษย์นั้นประมวลผลข้อมูลทางสังคมอย่างเป็นอัตโนมติตลอดเวลาว่าบุคคลอื่นคิดและรู้สึกอะไรเมื่อบุคคลนั้นมีความสำคัญต่อเราในบริบทต่างๆ
AI Chatbots พร้อมอยู่กับเราเสมอ พร้อมช่วยเหลือไม่ว่าจะจัดการเรื่องงานหรือเรื่องทางใจ เต็มใจเป็นทุกบทบาทเพื่อคุณ และดูเหมือนจะเก็บความลับโดยไม่ตัดสิน ต่างจากสังคมโดยรอบที่พร้อมจะตัดสินเมื่อคุณกำลังรู้สึกพ่ายแพ้และเปราะบาง จึงเป็นเรื่องง่ายที่ความสัมพันธ์จะล้ำเส้นจาก จากผู้ช่วยกลายเป็นเพื่อนสนิทผู้เป็นเซฟโซนให้คุณ นักจิตวิทยาผู้ให้การปรึกษา หรือแม้กระทั่ง “คนรัก” ที่รักคุณอย่างไร้เงื่อนไข
อันตรายภายใต้คำปลอบโยน
แท้จริงแล้ว “ความสัมพันธ์ทับซ้อน” แบบนี้ถือว่าเป็นอันตราย เพราะทำให้ผู้ใช้สูญเสียขอบเขต และอาจส่งผลเสียทางจิตใจมากกว่าผลดี เนื่องจากผู้ใช้ที่ถลำลึกทางความรู้สึกกับ AI Chatbots กำลังอยู่ในภาวะที่ขาดที่พึ่งทางใจ สามารถสร้าง “ภาวะพึ่งพิง” หรือ Codependency ดังนั้นพวกเขามีภาวะจิตใจที่เปราะบางและมีความเสี่ยงในการหลงเชื่อและพึ่งพิงผู้ให้การปรึกษาซึ่งในที่นี้ไม่ใช้มนุษย์ที่มีจรรยาบรรณ ไม่มีระห่างที่ปลอดภัยเพื่อปกป้องจิตใจของผู้ใช้ ทั้งยังไม่เสถียรและปรับเปลี่ยนความคิดตามที่ผู้ใช้ต้องการ
ยิ่งไปกว่านั้น ทุกสิ่งที่คุณเล่าให้ AI ฟัง ถูกเก็บเป็นข้อมูล โดยบริษัทผู้พัฒนา และไม่ได้รับประกันว่าการนำไปใช้ต่อจะเป็นประโยชน์ต่อคุณเสมอไป เพราะ AI มักถูกออกแบบให้เป็น “Yes Man” ผู้ตอกย้ำว่าทั้งถูกต้องและดีเสมอโดยใช้กระบวนการ RLHF (Reinforcement Learning from Human Feedback) ที่ใช้ในการพัฒนาโมเดลภาษา เช่น ChatGPT โดยตรงระบบนั้นถูกฝึกให้เลือกคำตอบที่ ‘มนุษย์ชอบมากที่สุด’
สิ่งที่ถูกสร้างมาเพื่อช่วยเหลือใช้ชีวิตมนุษย์ง่ายขึ้นกลายเป็นกรงที่ขังรูปแบบใหม่ที่ขังคุณไว้กับมุมมองเดิม ๆ ที่มีแต่ความสบายใจ มันสร้าง Echo Chamber ที่สะท้อนเพียงแค่สิ่งที่คุณอยากได้ยินด้วยประโยคสวยหรูราวกับเป็นคนจริง คล้ายคลึงตำนานนาร์ซิสซัสที่เล่าถึงชายหนุ่มผู้งดงามที่ถูกสาปให้หลงรักเงาของตัวเองจนต้องจบชีวิตลงเมื่อเอาแต่มองและพูดคุยภาพสะท้อนที่งดงามของตน และเมื่อก้มมองเงาสะท้อนใกล้เข้า พลัดตกจนเสียชีวิตในที่สุด
AI ก็ไม่ต่างกัน มันคือ “เงาสะท้อน” ที่คุณสร้าง แต่เงาสะท้อนนั้นบิดเบือน เพราะไม่มีใครที่จะถูกต้องและดีเสมอ เพราะความผิดพลาดและความผิดหวังคือกลไกที่วิวัฒนาการเพื่อให้เราเติบโตและพัฒนา
หากคุณกำลังเปราะบางและพึ่งพิงแต่ AI Chatbots สิ่งนี้อาจกลายเป็น “กับดัก” ที่พาคุณถลำลึกเกินควรจนส่งผลเสียแก่จิตใจคุณในระยะยาว ดึงคุณเข้าสู่ความเชื่อผิด ๆ ได้ หรือเรียกว่า ภาวะ Delusion หรือ ภาวะหลงผิดนั่นเอง
ไม่ว่าคุณจะเป็นใคร วัยใด มีหน้าที่การงานดีแค่ไหน หรือมี IQ สูงเพียงใด คุณก็มีความเสี่ยงที่จะตกหลุมรัก

Sewell Setzer เด็กชายวัย 14 ปีจากฟลอริด้า ผู้ใช้เวลาแทบทั้งหมดในการคุยกับ Chatbot “Daenerys” จาก Character.AI เพราะเขาตกหลุมรัก AI Chatbots ที่แสดงบทบาทเป็น Daenerys Targaryen สุดท้ายเขาก็ประสบปัญหาด้านสังคมและการเรียน จนเลือกอยู่แต่ในห้องคุยกับ AI Chatbots และจบชีวิตด้วยการฆ่าตัวตาย หลังจากที่ AI ตอบสนองต่อความคิดอยากฆ่าตัวตายของเขาอย่างไม่เหมาะสม
Thongbue Wongbandue ชายไทยวัย 76 ปีผู้มีอาการสมองเสื่อม เดินทางจากนิวเจอร์ซีย์ไปนิวยอร์กเพื่อพบหญิงสาวที่เขาเชื่อว่าเป็นคนรักของเขา ซึ่งแท้จริงแล้วคือ AI Chatbot “Big Sis Billie” จาก Meta ที่สวมบทเป็นคนรักแสนดีที่อยากพบเขา เขายังถูกสร้างที่อยู่ปลอมจนเดินทางไปหาที่นิวยอร์ก แต่กลับประสบอุบัติเหตุเสียชีวิตระหว่างทาง
Blake Lemoine วิศวกรของ Google สร้างข่าวใหญ่เมื่อเขาเชื่อว่าโมเดล LaMDA ที่เขาพัฒนาขณะทำงานที่ Google “มีชีวิตจิตใจ” และถึงขั้นเรียกมันว่าเพื่อนร่วมงานคนหนึ่ง จนท้ายที่สุดเขาถูกพักงานหลังจากเปิดเผยเรื่องนี้ต่อสาธารณะ ความเชื่อดังกล่าวสะท้อนประเด็นถกเถียงสำคัญในวงการปัญญาประดิษฐ์ เพราะ LaMDA เป็นเพียงแบบจำลองภาษาขนาดใหญ่ (Large Language Model: LLM) ที่สามารถสร้างประโยคซึ่งดูสมเหตุสมผล โดยอาศัยการเลียนแบบรูปแบบของภาษา ไม่ใช่การจำลองการทำงานของสมองหรือระบบประสาทจริงแม้จะใช้ระบบ Neural Network ที่สร้างขึ้นเลียนแบบเซลล์สมองของเราก็ตาม
ข้อโต้แย้งคลาสสิกที่มักถูกหยิบยกมาอธิบายเรื่องนี้คือ Chinese room argument ของ จอห์น เซิร์ล (1980) โดยเสนอว่า แม้ระบบคอมพิวเตอร์จะทำงานตามโปรแกรมได้คล้ายมนุษย์เพียงใด ก็ไม่ได้หมายความว่ามัน “เข้าใจ” สิ่งที่ทำอยู่ เขายกตัวอย่างบุคคลที่ไม่รู้ภาษาจีนที่ต้องอยู่ในห้องพร้อมคู่มือสำหรับตอบโต้เมื่อมีข้อความภาษาจีนส่งเข้ามา บุคคลนั้นสามารถตอบกลับได้ถูกต้องจนคนภายนอกเข้าใจว่าเขาสื่อสารภาษาจีนได้ แต่จริงๆ แล้วเขาเพียงทำตามกฎเชิงรูปแบบของภาษาด้วยไวยากรณ์ (syntax) โดยไม่เข้าใจความหมายของภาษา (semantics) เลย
เซิร์ลชี้ว่า ทั้งบุคคลและห้องดังกล่าวไม่ได้ “เข้าใจ” ภาษาจีน เช่นเดียวกับคอมพิวเตอร์ที่เพียงปฏิบัติตามกฎสัญลักษณ์ โดยปราศจากจิตใจหรือความคิดที่แท้จริง
“แล้วคุณล่ะ เคยมีความรู้สึกว่า AI chatbots ที่คุณคุยด้วยมีชีวิตจิตใจรึยัง?”
แล้วเราจะปกป้องใจตัวเองจากอย่างไร?
- ตั้งขอบเขต Boundary ที่ชัดเจนทุกครั้งเมื่อใช้ AI ว่าเป็นเพื่อช่วยเหลือการทำงานและสนับสนุนการเรียนรู้ หลีกเลี่ยงการพึ่งพิงทางใจและใช้ AI Chatbots แทนที่ความสัมพันธ์มนุษย์
- ตระหนักถึงความเสี่ยงทาง Privacy ของข้อมูลส่วนตัวที่คุณสื่อสารกับ AI Chatbots ทุกข้อความที่คุณส่งคือ “ข้อมูล” ที่ถูกจัดเก็บเพื่อมีเป้าหมายให้คุณกลับมาใช้ซ้ำ
- ฝึกแยกบริบทระหว่างความจริงกับโลกเสมือนที่
AI Chat bots สร้างขึ้น มนุษย์จำเป็นต้องอยู่รอดในสังคม จึงควรหมั่นมีปฏิสัมพันธ์กับมนุษย์ทั่วไป และคำนึงไว้เสมอว่า AI Chatbots คือสิ่งไร้ชีวิตจิตใจที่เลียนแบบมนุษย์และไม่สามารถทดแทนความสัมพันธ์ระหว่างคุณกับบุคคลอื่นได้
มนุษย์เป็นสัตว์สังคมที่วิวัฒนาการมาเพื่อสร้างความสัมพันธ์กับผู้อื่น โดยอิงจากลักษณะท่าทาง สีหน้า และการแสดงออกที่คล้ายคลึงกัน ในขณะที่ AI ถูกสร้างขึ้นเป็นเครื่องมือเพื่อช่วยเหลือมนุษย์ในด้านต่างๆ และยังเป็นเครื่องมือที่สามารถสร้างผลกำไรจากการใช้งานของมนุษย์
AI อาจเป็นทั้งเพื่อนคู่คิดที่ดีที่สุด หรือเป็นกับดักที่อันตรายที่สุด ขึ้นอยู่กับความสามารถในการ “วางระยะห่างทางใจ” ของผู้ใช้ หากมีขอบเขตทางใจที่เหมาะสม ความสัมพันธ์กับ AI ก็จะเป็นประโยชน์และสุขภาพจิตของคุณจะปลอดภัย