แม้ Amazon’s Alexa จะเริ่มพูดจาคล้ายมนุษย์มากขึ้นเรื่อยๆ แต่ก็มีรายงานว่า AI ที่เป็นผู้สั่งการได้ตอบโต้กับผู้ใช้งานด้วยประโยคแปลกๆ หรือบางครั้งก็หยิบเอาเสียงประหลาดๆ มาเปิดให้ผู้ใช้ฟังแบบคาดเดาไม่ได้ ไม่รู้ที่มาที่ไป
สำนักข่าว Reuters รายงานว่า Alexa ยังเคยให้คำแนะนำกับลูกค้ารายหนึ่งว่า “จงฆ่าพ่อแม่บุญธรรมของคุณ” (“Kill your foster parents”) ซึ่ง AI น่าจะหยิบเอาคำแนะนำนี้มาจากเว็บไซต์ Reddit มาโดยไม่ได้วิเคราะห์เรื่องบริบทอย่างเพียงพอ
โฆษกของ Amazon ยอมรับว่า เป็นข้อผิดพลาดของ AI จริงๆ เพราะมันทำงานผ่านกลไกที่เป็น Data driven ซึ่งเมื่อวิเคราะห์ผิดก็อาจดึง Data มาอย่างผิดๆ ได้ โดยเรียกสิ่งนี้ว่าเป็นการดึงเข้าข้อมูลที่ผิดพลาด แต่ถึงอย่างนั้น กรณีที่เป็นข่าวก็ไม่ได้เกิดขึ้นบ่อยเท่าไหร่
“มันมีความเป็นไปได้ที่ socialbot ของเรา อาจจะดึงข้อมูลและเรียนรู้จากบางสิ่งที่ไม่เหมาะสมนัก” โฆษกของ Amazon ระบุ
ในช่วงหลังมานี้ Amazon ได้พยายามพัฒนาระบบของ Alexa และ Machine Learning ให้สามารถพูดคุยตอบโต้กับผู้ใช้งานในประเด็นที่หลากหลายรวมถึงตอบได้ตรงประเด็นมากยิ่งขึ้น
Rohit Prasad รองประธาน และผู้นำทีมนักวิจัยของ Amazon’s Alexa ให้สัมภาษณ์กับเว็บไซต์ด้านเทคโนโลยีอย่าง Wired ว่า เป้าหมายที่พวกเขากำลังจะทำต่อไปให้ได้คือพัฒนา Alexa ให้สามารถวิเคราะห์ ‘อารมณ์’ ของผู้ใช้งานผ่านน้ำเสียงที่เปลี่ยนไปตามบริบทต่างๆ ได้
เทคโนโลยีที่สามารถตอบโต้กับมนุษย์เราได้แบบเรียลไทม์อย่าง Alexa น่าจะเป็นตัวอย่างที่ดี ถึงภาพอนาคตที่กำลังจะเกิดขึ้นกับโลกของเรา ยิ่งเมื่อเทคโนโลยีถูกพัฒนาให้ ‘เรียนรู้’ พฤติกรรมของมนุษย์ได้แม่นยำขึ้นเรื่อยๆ บทบาทของพวกมัน ก็คงจะเข้ามาเกี่ยวพันกับชีวิตเราได้อย่างลึกซึ้งมากขึ้นเช่นกัน
อ้างอิงจาก
https://news.vice.com/en_us/article/mbynnx/amazons-alexa-told-someone-to-kill-your-foster-parents
https://www.theguardian.com/technology/2018/dec/21/alexa-amazon-echo-kill-your-foster-parents
https://www.wired.com/story/amazon-alexa-2018-machine-learning/
#Brief #TheMATTER