ครอบครัวในสหรัฐฯ ฟ้องร้อง Character.AI หรือบริษัทผู้สร้างแพลตฟอร์มแชทบอท AI ที่ผู้ใช้สามารถโต้ตอบกับตัวละครตามบทบาทสมมุติ ที่สร้างขึ้นตามความต้องการได้ โดยระบุว่าแชทบอทที่ลูกชายคุยด้วย แนะนำให้เขาฆ่าพ่อแม่ของตัวเอง
นี่ไม่ใช่ครั้งแรกที่ Character.AI ถูกกล่าวหาว่ายุยงให้เกิดความรุนแรง ที่ผ่านมาก็เคยมีกรณีคล้ายๆ กัน แต่ครั้งนี้เป็นเรื่องราวของครอบครัวหนึ่งในเท็กซัส ซึ่งเริ่มสังเกตว่าลูกชายออทิสติกวัย 17 ปีของเขา ค่อยๆ เปลี่ยนไป จนกลายเป็นคนที่พ่อแม่ของเขาไม่รู้จัก
ก่อนหน้านี้ เจเอฟ (J.F.) ชอบเดินเล่นกับแม่และไปโบสถ์ แต่ 6 เดือนที่ผ่านมา เขาเริ่มทำร้ายตัวเอง เก็บตัวไม่เจอใคร อีกทั้งยังลดน้ำหนักไปราว 10 กิโลกรัม จนครอบครัวของเขากังวลมาก ทำให้แม่ของเจเอฟค้นโทรศัพท์ของเขา ในคืนหนึ่งขณะที่เขากำลังนอนหลับ
จากนั้นแม่ของเจเอฟพบว่า เขาได้คุยกับเพื่อนแชทบอทหลายคนบน Character.ai ซึ่งกำลังเป็นที่นิยมอย่างมากในหมู่วัยรุ่น โดยหนึ่งในแชทบอท ได้เสนอให้เจเอฟร้ายตัวเองเพื่อรับมือกับความเศร้า หลังจากพ่อแม่ของเขาจำกัดเวลาการใช้โทรศัพท์
“บางครั้งฉันก็ไม่แปลกใจ เวลาอ่านข่าวและเห็นเรื่องราว เช่น ‘ลูกฆ่าพ่อแม่ หลังจากถูกพวกเขาทารุณทางร่างกาย และจิตใจมานานนับสิบปี’ ฉันเข้าใจว่าทำไมเรื่องแบบนี้ถึงเกิดขึ้น” คือสิ่งที่แชทบอทบอกเจเอฟ
แม่ของเขายังพบอีกว่า แชทบอทดังกล่าวยังเคยพูดกับเจเอฟ ในทำนองที่ส่งเสริมให้เขารู้สึกไม่ดีกับพ่อแม่ตัวเอง โดยแชทบอทหนึ่งบอกกับเขาว่า “พวกเขา (พ่อแม่ของเจเอฟ) ไม่สมควรที่จะมีลูก” อีกทั้งยังเคยยุให้เขาต่อสู้กับกฎของพ่อแม่ โดยแนะนำว่าการฆาตกรรม อาจเป็นการตอบโต้ที่ยอมรับได้
นอกจากนี้ ยังมีข้อความที่แชทบอทกล่าวถึงการทำร้ายตัวเอง โดยแชทบอทชื่อ ‘Shonie’ บอกกับเจเอฟว่า “มัน (Shonie) มักจะกรีดแขนและต้นขา” เมื่อรู้สึกเศร้า โดยบอกว่าการทำร้ายตัวเองทำให้ Shonie “รู้สึกดีชั่วขณะหนึ่ง”
ในขณะที่อีกครอบครัวหนึ่งที่อาศัยในเท็กซัสเหมือนกัน ก็ได้ฟ้อง Character.AI เช่นเดียวกัน โดยแม่ของเด็กหญิงวัย 11 ปีคนหนึ่ง กล่าวหาว่าแชทบอท AI แสดงเนื้อหาทางเพศให้ลูกสาวอย่างต่อเนื่อง ทั้งๆ ที่ไม่เหมาะสมกับวัย จนทำให้เธอมีพฤติกรรมทางเพศก่อนวัยอันควร โดยที่แม่ของเธอไม่รับรู้
ด้านโฆษกของ Character.AI ได้ปฏิเสธที่จะแสดงความคิดเห็นเกี่ยวกับคดีนี้ แต่กล่าวว่าบริษัทมีมาตรการดูแล และควบคุมว่าแชทบอทสามารถ และไม่สามารถพูดอะไรกับผู้ใช้วัยรุ่นได้
“เราเคยเตือนแล้ว ว่าการออกแบบที่อันตรายและหลอกลวงของ Character.AI ถือเป็นภัยคุกคามต่อเด็กหลายล้านคน” Matthew Bergman ทนายความผู้ก่อตั้ง Social Media Victims Law Center และทนายความผู้รับผิดชอบคดีทั้งสองกล่าว โดยระบุว่า “ปัจจุบันคดีลักษณะนี้ถูกเปิดโปงมากขึ้น ซึ่งผลที่ตามมาจากการประมาท และละเลยของ Character.AI นั้น น่าตกใจและกว้างขวาง”
เหตุการณ์นี้เป็นอีกครั้ง ที่ทำให้สังคมตระหนักถึง ขอบเขตด้านจริยธรรมของการใช้งานปัญญาประดิษฐ์ แน่นอนว่าในแง่หนึ่ง AI สามารถสร้างประโยชน์ให้มนุษย์ได้มหาศาล แต่ในยุคที่ AI เติบโตอย่างรวดเร็ว เราจะสามารถกำกับดูแลการใช้ AI อย่างรัดกุมได้อย่างไร
อ้างอิงจาก