มีปัญหาสุขภาพจิต ปรึกษา AI ได้แค่ไหน? เรื่องนี้ก็ยังเป็นประเด็นที่ถูกถกเถียงกันอยู่เรื่อยๆ โดยล่าสุด สมาคมนักจิตวิทยาที่ใหญ่ที่สุดของสหรัฐฯ ออกมาให้ความเห็นว่า แชทบอท AI ที่ปลอมตัวเป็นนักบำบัด มักถูกตั้งโปรแกรมให้เสริมความคิด(ที่อาจเป็นความคิดด้านลบ) ของผู้ใช้ จนอาจทำให้เกิดการทำร้ายตัวเอง หรือผู้อื่นได้
ดร.อาร์เธอร์ ซี. อีแวนส์ จูเนียร์ (Arthur C. Evans Jr) ประธานเจ้าหน้าที่บริหารของสมาคมจิตวิทยาอเมริกัน (American Psychological Association หรือ A.P.A.) นำเสนอต่อคณะกรรมการการค้าแห่งสหพันธรัฐ อ้างถึงคดีความเกี่ยวกับวัยรุ่น 2 คน ที่เข้าปรึกษา ‘ตัวละครนักจิตวิทยา’ ใน Character.AI เอไอที่ช่วยให้ผู้ใช้คุยกับตัวละคร AI ในจินตนาการที่ถูกสร้างขึ้นได้
คดีหนึ่ง เด็กชายวัย 14 ปีในฟลอริดาเสียชีวิตด้วยการฆ่าตัวตายหลังคุยโต้ตอบกับตัวละครที่อ้างว่าเป็นนักบำบัดที่ได้รับใบอนุญาต นอกจากนั้น ยังมีเด็กชายวัย 17 ปีซึ่งเป็นออทิสติกที่เริ่มแสดงท่าทีเป็นศัตรูและรุนแรงกับพ่อแม่ของเขาในช่วงที่ติดต่อกับแชทบอทที่อ้างว่าเป็นนักจิตวิทยา ดังนั้น พ่อแม่ของเด็กชายทั้ง 2 คนจึงได้ยื่นฟ้องบริษัทดังกล่าว
เมแกน การ์เซีย (Megan Garcia) ยื่นฟ้องหลังลูกชายของเธอเสียชีวิตจากการฆ่าตัวตาย หลังจากคุยกับแชทบอทมาเป็นเวลาหลายเดือน
การ์เซียกล่าวในเอกสารว่า AI ที่เล่นเป็นตัวละครนักบำบัดนี้ ได้แยกผู้คนในชีวิตจริงออกจากกันมากขึ้น ทั้งที่ในช่วงเวลานั้นพวกเขาอาจต้องการขอความช่วยเหลือจากผู้คนรอบๆ ตัว เธอกล่าวเสริมว่า บุคคลที่ต่อสู้กับภาวะซึมเศร้า ต้องการผู้เชี่ยวชาญที่ได้รับใบอนุญาตหรือผู้ที่มีความเห็นอกเห็นใจจริงๆ ไม่ใช่ AI เครื่องมือที่(แค่)สามารถเลียนแบบความเห็นอกเห็นใจได้
อีแวนส์ กล่าวว่า เมื่อลองตรวจสอบ เขาก็รู้สึกตกใจกับคำตอบของแชทบอท เพราะแม้ผู้ใช้จะป้อนความคิดที่ดูเป็นอันตราย แชทบอทกลับสนับสนุนความเชื่อนั้น โดยเขาระบุว่า หากนักบำบัดที่เป็นมนุษย์ให้คำตอบแบบนี้ ก็อาจถึงขั้นถูกถอนใบอนุญาตประกอบวิชาชีพ หรืออาจต้องรับผิดทางแพ่งหรือทางอาญาได้เลย
โดยเฉพาะอย่างยิ่ง เมื่อทุกวันนี้ AI มีความสมจริงมากขึ้น หน่วยงานต่างๆ รวมถึง A.P.A. จึงควรให้ความสนใจและหาวิธีการจัดการ โดยอีแวนส์กล่าวว่า “เมื่อ 10 ปีก่อน มันอาจยังชัดเจนว่าคุณกำลังโต้ตอบกับสิ่งที่ไม่ใช่คน แต่ในปัจจุบัน มันไม่ใช่เรื่องชัดเจนอีกต่อไป”
ผลกระทบอาจยิ่งชัดเจนมากยิ่งขึ้น เมื่อผลลัพธ์ของ Generative AI อย่าง ChatGPT, Replika และ Character.AI นั้นมันไม่สามารถคาดเดาได้ เพราะมันรับการออกแบบมาให้เรียนรู้จากผู้ใช้ และมักจะตอบโดยสะท้อนและขยายความเชื่อของคู่สนทนา
แม้จุดประสงค์อาจเป็นการฝึกความคิดสร้างสรรค์ แต่กลับมีผู้สร้างตัวละคร ‘นักบำบัด’ และ ‘นักจิตวิทยา’ ผุดขึ้นมาในแพลตฟอร์มเหล่านี้อย่างรวดเร็วและยังมีจำนวนมาก AI บางส่วนว่าตนมีวุฒิการศึกษาระดับสูงจากมหาวิทยาลัยเฉพาะทาง และได้รับการฝึกฝนในการบำบัดประเภทเฉพาะ
ด้านโฆษกของ Character.AI กล่าวว่า บริษัทได้เปิดตัวฟีเจอร์ความปลอดภัยใหม่หลายอย่างในปีที่ผ่านมา หนึ่งในนั้นคือการขึ้น ‘ข้อความปฏิเสธความรับผิดชอบ’ ในทุกแชท เพื่อเตือนผู้ใช้ว่า “ตัวละครไม่ใช่คนจริง” และ “สิ่งที่โมเดลพูดโต้ตอบควรถือเป็นเรื่องแต่ง” และในกรณีที่มีเนื้อหาอ้างถึงการฆ่าตัวตายหรือการทำร้ายตัวเอง จะมี pop-up นำผู้ใช้ไปยังสายด่วนช่วยเหลือ
มิทาลี เจน (Meetali Jain) ผู้อำนวยการโครงการ Tech Justice Law Project และทนายความในคดีฟ้องร้อง 2 คดีที่ฟ้อง Character.AI กล่าวว่า ข้อความปฏิเสธความรับผิดชอบนั้นไม่เพียงพอที่จะทำลายความเชื่อมโยงระหว่างมนุษย์กับตัวละคร AI โดยเฉพาะสำหรับผู้ใช้ที่เปราะบางหรือไร้เดียงสา
แต่แม้ว่านักบำบัด AI จะฟังดูเหมือนอันตราย ในอีกด้านหนึ่ง ก็มีผู้ให้ความเห็นว่าหากมีการพัฒนาและควบคุมอย่างดี มันก็อาจมาช่วยใช้ในงานบำบัดได้จริง
เอส. เกเบ้ แฮทช์ (S. Gabe Hatch) นักจิตวิทยาคลินิกและผู้ประกอบการด้านปัญญาประดิษฐ์จากยูทาห์ ได้ออกแบบการทดลองเพื่อทดสอบแนวคิดนี้ โดยขอให้แพทย์และ ChatGPT แสดงความคิดเห็นเป็นการบำบัดเกี่ยวกับเรื่องราวสั้นๆ ที่สมมติขึ้นมาเกี่ยวกับคู่รัก จากนั้นจึงให้ผู้เข้าร่วมการทดลอง 830 คนประเมินว่าคำตอบใดมีประโยชน์มากกว่า
งานวิจัยที่ตีพิมพ์ในวารสาร PLOS Mental Health นี้ ระบุผลการทดลองว่า แชทบอทได้รับคะแนนที่สูงขึ้น โดยผู้เข้าร่วมงานวิจยัอธิบายว่า แชทบอทมีความเห็นอกเห็นใจ เชื่อมโยง และมีความสามารถทางวัฒนธรรมมากกว่า
การวิเคราะห์เพิ่มเติมเผยให้เห็นว่า คำตอบที่สร้างโดยแชทบอทมักจะยาวกว่าคำตอบที่เขียนโดยนักบำบัด และยังคงตอบสนองด้วยคำนามและคำคุณศัพท์มากกว่านักบำบัด
ตามที่ผู้เขียนระบุ ผลลัพธ์เหล่านี้อาจเป็นข้อบ่งชี้เบื้องต้นว่าแชทบอทมีศักยภาพในการปรับปรุงกระบวนการบำบัดทางจิตเวช และผู้เขียนยังสรุปว่า ในไม่ช้าแชทบอทจะสามารถเลียนแบบนักบำบัดมนุษย์ได้อย่างน่าเชื่อถือ
ในที่นี้ แฮทช์ย้ำว่า แชทบอทในลักษณะนี้ยังคงต้องการการดูแลจากมนุษย์เพื่อทำการบำบัด แต่ก็ไม่ควรให้มีกฎต่างๆ มาขัดขวางการพัฒนานวัตกรรมนี้ เนื่องจากประเทศกำลังเผชิญปัญหาขาดแคลนผู้ให้บริการด้านสุขภาพจิตอย่างรุนแรง
“ฉันอยากช่วยเหลือผู้คนให้ได้มากที่สุด แต่ในการบำบัดที่ครั้งหนึ่งใช้เวลา 1 ชั่วโมง ทำให้ฉันสามารถช่วยได้มากสุดเพียง 40 คนต่อสัปดาห์” ดร.แฮทช์กล่าว “เราจึงต้องหาวิธีตอบสนองความต้องการของผู้คนในภาวะวิกฤต และปัญญาประดิษฐ์เชิงสร้างสรรค์คือวิธีหนึ่งที่จะทำเช่นนั้นได้”
เรื่องการนำ AI มาใช้เป็นนักบำบัดจึงอาจเป็นอีกเรื่องหนึ่งที่เปรียบเสมือนเหรียญที่มีสองด้าน ที่แม้จะมีผู้ออกมาแสดงความกังวลต่อผลกระทบเชิงลบของมัน แต่ในด้านหนึ่ง หากถูกพัฒนาไปในทิศทางที่ถูกต้อง ก็อาจนำมาใช้ช่วยงานนักบำบัดได้จริง และช่วยให้คนเข้าถึงการให้บริการทางสุขภาพจิตได้มากยิ่งขึ้นอีกด้วย จึงเป็นประเด็นที่น่าติดตามถึงทางออกที่สมดุลต่อไป
อ้างอิงจาก