ระหว่างที่นั่งพิมพ์งานส่งต้นฉบับนี้อยู่ ผมกำลังขมวดคิ้วเพราะรู้สึกสงสัยกับเรื่องที่กำลังอ่าน อยู่ๆ ก็มีโฆษณาเด้งขึ้นมาถามว่า “คุณดูมีคำถามกับสิ่งที่อ่านนะ อยากถามผู้เชี่ยวชาญหรือให้เราโทรหาไหม?” เฮ้ย! …เดี๋ยวสิ
อย่าเพิ่งตกใจไปครับ มัน ‘ยัง’ ไม่ใช่เรื่องจริง อย่างน้อยๆ ก็ในเวลานี้…
แต่อีกไม่นานหรอกที่บริษัทต่างๆ จะสามารถคาดเดาอารมณ์ ความรู้สึก หรือแม้กระทั่งความคิดของลูกค้าว่ามีปฏิกิริยาตอบสนองต่อสื่อที่พวกเขากำลังเสพแบบ real-time แล้วปรับคอนเทนต์ไปตามการตอบสนองในแต่ละครั้ง นี่คือสิ่งที่เรียกว่า ‘emotion economy’ (เศรษฐกิจทางอารมณ์) เพราะโลกกำลังมุ่งหน้าเข้าสู่เศรษฐกิจยุคใหม่ ที่ลูกค้าไม่ได้เป็นฝ่ายรอรับ (passsive) คอนเทนต์อย่างเดียวเหมือนสมัยก่อนอีกต่อไป ความอยู่รอดของหลายธุรกิจขึ้นโดยตรงกับ ‘อารมณ์ร่วม’ ที่ลูกค้ามีกับผลิตภัณฑ์ของแบรนด์นั้นๆ อันไหนปัง เป็นไวรัลโดนใจ หรือคนพูดถึงเยอะก็มีโอกาสสร้างเม็ดเงินมากขึ้นตามไปด้วย เพราะฉะนั้นการวิเคราะห์อารมณ์ว่าตอนนี้ลูกค้ารู้สึกยังไงแบบวินาทีต่อวินาที กำลังจะกลายเป็นสิ่งที่บริษัทน้อยใหญ่ต้องการ และสิ่งเหล่านี้จะกลายมาเป็นส่วนหนึ่งของชีวิตเราอย่างน่าเหลือเชื่อ
Affectiva เป็นบริษัท MIT สตาร์ทอัพที่กำลังมุ่งพัฒนาเทคโนโลยีด้านนี้อย่างจริงจัง นำโดย CEO เลือดใหม่อย่าง Rana el Kaliouby (ติดอันดับ 35 Innovators under 35 ของ MIT Technology Review) ให้บริการระบบพื้นฐานแบบ software-as-a-service ที่อ่าน ‘การแสดงสีหน้า’ ของลูกค้า ซึ่งมันถูกเรียกแบบแปลกๆ โดยบริษัทว่า ‘อารมณ์ในรูปแบบของบริการ’ (emotion as a service) โดยเป้าหมายของ Affectiva คือ การเป็นตัวกลางในการเพิ่มความรู้สึกและอารมณ์เข้าไปในผลิตภัณฑ์ที่มีการโต้ตอบกับผู้ใช้ เพื่อให้บริษัทที่ใช้บริการสามารถเข้าถึงข้อมูลว่าตอนนี้ลูกค้ารู้สึกยังไงกับผลิตภัณฑ์ชิ้นนั้นๆ พูดง่ายๆ ว่า อีกไม่นานจะมีซอฟต์แวร์คอยสังเกตุว่าช่วงไหนของวิดีโอที่คุณนั่งหาว หลังจากนั้นก็ปรับคอนเทนต์ให้สนุกมากขึ้นเพื่อดึงดูดความสนใจของคุณกลับคืนมาสู่หน้าจออีกครั้ง โดยข้อมูลตรงนั้นก็ถูกเก็บไว้เพื่อช่วยให้บริษัทพัฒนาคอนเทนต์ที่น่าสนใจในครั้งหน้า หรือบางทีก็ยกเลิกและปิดตัวสินค้าตัวนั้นไปเลยเพื่อตัดค่าใช้จ่ายสำหรับสินค้าที่ไม่มีคนสนใจ
เป้าหมายของ Affectiva คือ การเป็นตัวกลางในการเพิ่มความรู้สึกและอารมณ์เข้าไปในผลิตภัณฑ์ที่มีการโต้ตอบกับผู้ใช้ เพื่อให้บริษัทที่ใช้บริการสามารถเข้าถึงข้อมูลว่าตอนนี้ลูกค้ารู้สึกยังไงกับผลิตภัณฑ์ชิ้นนั้นๆ
Rana อธิบายว่า Affectiva เริ่มต้นโดยการใช้เทคโนโลยี computer vision กับ deep learning เพื่อวิเคราะห์การแสดงออกทางสีหน้าบนวิดีโอออนไลน์ โดยไม่ใช้เสียงหรือบทสนทนาเข้ามาเป็นตัวบ่งชี้ ไม่ว่าจะเป็นวิดีโอแชท ไลฟ์สตรีม วิดีโอไฟล์ หรือแม้แต่ภาพเคลื่อนไหวสั้นๆ อย่าง GIF ระบบจะทำการคัดกรองหลังจากนั้นก็เลือกว่าตอนนี้หน้าตาแบบนี้แปลว่าอะไร สุข เศร้า กังวล กลัว สนใจ ตกใจ หรือประหลาดใจ ฯลฯ มีลูกค้าที่เป็นบริษัทยักษ์ใหญ่อย่าง Unilever และ Kellogg’s สื่อโทรทัศน์อย่าง CBS บริษัทโฆษณาและบริษัทวิเคราะห์ตลาดต่างล้วนให้ความสนใจเป็นอย่างมาก
ขั้นตอนการทำงานของเทคโนโลยีชนิดนี้มีส่วนคล้ายกับ facial recognition แต่ก็ไม่เหมือนกันเลยซะทีเดียว ยกตัวอย่างในสมาร์ทโฟนรุ่นใหม่ของ Apple หรือ Samsung ที่ใช้เพื่อระบุตัวบุคคลว่าเป็นใครเพื่อการเข้าถึงข้อมูล (หรืออย่างของเฟซบุ๊กที่ใช้แท็กเพื่อนบนรูปถ่าย) ส่วนของ Affectiva จะเป็นการวิเคราะห์การขยับเขยื้อนส่วนต่างๆ ของใบหน้า (ไม่ได้บอกว่าใครเป็นใคร) เพื่อนำข้อมูลเหล่านั้นมาบ่งชี้ว่าคนนั้นกำลังรู้สึกยังไง โดยขั้นตอนของมันคือการจับจุดต่างๆ บนใบหน้าของผู้ใช้ โดยเฉพาะคิ้ว หน้าผาก ดวงตา หางตา ปาก มุมปาก เหล่านี้ หลังจากนั้นก็ใช้สมองกลในการจำแนกอารมณ์ออกมาว่าในเวลานี้รู้สึกแบบไหน เมื่อมีข้อมูลที่ถูกต้องมากขึ้น การบ่งบอกอารมณ์ที่ซับซ้อนก็สามารถเป็นไปได้มากขึ้น ถึงขั้นว่าอีกหน่อยอาจจะสามารถแบ่งแยกอารมณ์ของ ความหวัง หงุดหงิด ไม่พอใจ หรือแม้แต่ช่วงจังหวะอารมณ์แห่งแรงบันดาลใจ (น่าสนใจว่าหน้าตาของคนที่มี Eureka โมเมนต์นั้นเป็นยังไง) ทางบริษัทอ้างว่าพวกเขามีคลังข้อมูลรูปภาพและวิดีโอใบหน้าและอารมณ์ที่ใหญ่ที่สุดในโลกกว่า 4.25 ล้านชิ้นที่มาจากกลุ่มคนกว่า 75 ประเทศ
ความท้าทายของเทคโนโลยีนี้คือเรื่องของการอ่านค่าที่แม่นยำในกลุ่มอายุและวัฒนธรรมที่แตกต่างกัน เพราะการแสดงออกทางสีหน้าบางอย่างมันเฉพาะเจาะจงแค่เพียงกลุ่มคนของบางประเทศเท่านั้น ยกตัวอย่างเช่น ‘การยิ้มแบบเกรงใจ’ (politeness smile) ที่ไม่ได้แปลว่า ‘มีความสุข’ หรือ ‘ยิ้มเยาะ’ ซึ่งมีเพียงในกลุ่มคนเอเชียแต่ไม่มีในคนยุโรป หรือแม้แต่การแสดงออกของอารมณ์คนเอเชียที่ค่อนข้างเก็บอารมณ์ความรู้สึก ไม่ค่อยชอบการแสดงออกมากถ้าเทียบกับกลุ่มคนแถบอเมริกาหรือยุโรป
บริษัทเกม Flying Mollusk Studio ได้ทดลองใช้ซอฟต์แวร์ของ Affectiva ในเกมส์แนวจิตวิทยาสยองขวัญ (psychological thriller) ชื่อ Nevermind โดยใช้การตอบสนองของผู้เล่น (bio-feedback) เป็นตัวกำหนดความน่ากลัวของเกมส์แบบ real-time ยิ่งเรารู้สึกหวาดกลัวและเครียดมากเท่าไหร่ เกมส์จะยิ่งน่ากลัวและสยดสยองเหมือนฝันร้ายมากขึ้นเท่านั้น แต่ถ้าผู้เล่นสามารถควบคุมอารมณ์ได้อย่างสงบ ตัวเกมส์และเนื้อเรื่องก็จะค่อยๆ คลี่คลายและง่ายขึ้น คล้ายกับการแกะปมเชือก ยิ่งรีบยิ่งรัดและแพ้ภัยตัวเองยอมแพ้ในที่สุด โดยบริษัทเขียนคำอธิบายถึงเกมส์ของเขาว่ามันจะช่วยทำให้เราตอบสนองต่อสถานการณ์ที่ตึงเครียดในชีวิตจริงได้อย่างสงบมากขึ้น ตัวสโลแกนของเกมก็บอกไว้ว่า “ศัตรูที่ร้ายกาจที่สุดอยู่ในหัวของเรา”
สื่อโฆษณาต่างๆ ทดลองใช้ซอฟต์แวร์เดียวกันในกลุ่มสนทนาแบบ focus group เพื่อเก็บข้อมูลเกี่ยวกับการตอบสนองของผู้เข้าร่วมทดสอบโดยไม่ต้องอธิบายว่าตัวเองนั้นรู้สึกยังไงกับสินค้าแต่ละตัว (หรือโฆษณาที่เห็น) หลักการง่ายๆ ของการทดสอบแต่ละครั้งคือการพยายามค้นหาว่าส่วนไหนของโฆษณา, คลิปวิดีโอ, โปรแกรมซอฟต์แวร์, หรือเกมที่ไม่น่าดึงดูด ส่วนไหนที่ผู้ชมส่วนใหญ่เริ่มไม่ค่อยสนใจสิ่งที่อยู่ตรงหน้า โปรแกรมของ Affectiva จะทำการเก็บข้อมูลและสร้างออกมาเป็นรายงานทางอารมณ์ (emotional journey) ของผู้เข้าร่วมทดลอง หลังจากนั้นก็สามารถมาปรับแต่งกันอีกครั้งก่อนปล่อยออกสู่ท้องตลาด
บริษัทเหล่านี้สามารถติดตาม ‘อารมณ์’ ของผู้ใช้ขณะที่กำลังดูโพสต์อันใดอันหนึ่งอยู่ แล้วให้คะแนนความน่าสนใจของแต่ละโพสต์จากข้อมูลอารมณ์ของแต่ละบุคคล
ถึงแม้ว่าผลลัพธ์ที่ได้อาจจะไม่มีทางแม่นยำ 100% เพราะโปรแกรมของ Affectiva ไม่ได้ถูกสร้างขึ้นมาให้เป็นเครื่องจับเท็จ แน่นอนว่าต้องมีกลุ่มคนพยายามหลอกระบบเพื่อความบันเทิงและอยากรู้ต่างๆ นานา (ตัวผมเองก็อาจจะทำ) แต่โดยรวมแล้วผลลัพธ์ที่ได้ออกมาก็ถือว่าเป็นที่น่าพอใจ ซึ่งในอนาคตหากมีข้อมูลผู้ใช้ที่มากขึ้น AI ของโปรแกรมก็สามารถพัฒนาขึ้นไปได้อีกเรื่อยๆ
นอกเหนือจากธุรกิจเกมและโฆษณา เทคโนโลยีของ Affectiva ยังสามารถนำไปประยุกต์ใช้ได้อีกมากมาย ยกตัวอย่างเช่นเฟซบุ๊กหรือยูทูบ บริษัทเหล่านี้สามารถติดตาม ‘อารมณ์’ ของผู้ใช้ขณะที่กำลังดูโพสต์อันใดอันหนึ่งอยู่ แล้วให้คะแนนความน่าสนใจของแต่ละโพสต์จากข้อมูลอารมณ์ของแต่ละบุคคล เมื่อนำมาผสมกันเป็นตัวเลข โพสต์ไหนที่ได้คะแนนสูงๆ ก็อาจจะถูกวางไว้ด้านบนของ news feed ส่วนโพสต์ที่คนดูแล้วหาว ทำหน้าเบื่อๆ บางที่อาจจะไม่มีคนเห็นเลยก็ได้
ในส่วนด้านฮาร์ดแวร์ผู้ผลิตหุ่นยนต์ ก็สามารถดึงศักยภาพในการวิเคราะห์อารมณ์ผู้ใช้งานเพื่อนำมาพัฒนาสมองกลได้เช่นเดียวกัน สมมุติว่าหุ่นยนต์เห็นคนกำลังร้องไห้เสียใจ สำหรับหุ่นยนต์ทั่วไปแล้วอาจจะไม่รู้ว่าต้องทำยังไง แต่ถ้าเป็นหุ่นยนต์ที่รู้หน้าก็รู้ใจว่ามนุษย์กำลังมีความทุกข์ อาจจะเดินเข้ามาถามว่าช่วยอะไรได้บ้างไหม เดินไปหยิบทิชชู่มาให้ หรือแม้แต่เดินเข้ามาโอบกอดปลอบใจ มันไม่ใช่เรื่องที่เกินจินตนาการอีกต่อไป
ในพื้นที่ใหญ่ขึ้นมาหน่อยอย่างงานคอนเสิร์ต อีเวนต์ ห้างสรรพสินค้า หรือแม้แต่สวนสนุก สถานที่เหล่านี้ถ้านำซอฟต์แวร์ของ Affectiva มาใช้ก็สามารถติดตามอารมณ์ของคนที่อยู่ในบริเวณนั้นๆ ถ้าเกิดเห็นว่าคนเริ่มเฉื่อยๆ อาจจะมีการนำตัวมาสคอตออกมาเดินโชว์ เปิดเพลงที่ครึกครื้นมากขึ้น อาจจะมีกิจกรรมออกมาให้ร่วมกันทำ สร้างจุดสนใจใหม่ๆ ได้ทันทีโดยไม่ต้องรอให้ลูกค้าไปทวีตบ่นออนไลน์ ธุรกิจเหล่านี้ล้วนมีโอกาสที่จะได้ประโยชน์จากเทคโนโลยีนี้ทั้งสิ้น
แต่เทคโนโลยีใหม่ล้วนสร้างผลกระทบต่อชีวิตเราเสมอไม่ว่าด้านใดด้านหนึ่ง อย่าง Affectiva เราต้องคำนึงถึงความเป็นส่วนตัว (privacy) ให้มากยิ่งขึ้น มันดูดิสโทเปียและน่าขนลุก ที่ต้องรู้สึกว่ามีใครสักคนคอยจับตามมองเราทุกฝีก้าว ถึงแม้ว่าผู้ก่อตั้งบริษัทอย่าง Rana จะเคยเน้นย้ำในบทสัมภาษณ์ว่าทางบริษัทที่ใช้โปรแกรมนี้ต้องแจ้งลูกค้าล่วงหน้าและได้รับการยินยอมก่อนเสมอ
“เราอยากให้ผู้ใช้รู้เลยว่าเทคโนโลยีทำอะไรได้บ้าง และรู้ตัวว่าพวกเขากำลังทำอะไรอยู่”
แต่นี้ก็เป็นอีกเรื่องหนึ่งที่ควบคุมได้ยาก เพราะธุรกิจของพวกเขาสร้างเม็ดเงินจากการให้ข้อมูลเหล่านี้กับบริษัทต่างๆ พวกเขาจะรับมือยังไงถ้าเกิดว่ามีบริษัทหนึ่งที่ใช้ซอฟต์แวร์ของบริษัทโดยที่ไม่ยอมแจ้งให้ลูกค้าทราบ หรือแม้แจ้งแต่ก็เป็นเพียงหมายเหตุดอกจันเล็กๆ ที่ไม่ถ้าไม่สังเกตก็ไม่มีทางรู้ บริษัทจะเอาหูไปนาเอาตาไปธนาคารรึเปล่า?
คำตอบตรงนี้ผู้บริโภคตาดำๆ ทั่วไปอย่างพวกเราอาจจะไม่มีทางทราบได้ คิดไปแล้วก็ไม่ค่อยแฟร์เท่าไหร่ เพราะเรารู้หน้าแต่ไม่มีทางรู้ใจบริษัทเหล่านี้ได้ แต่ในทางกลับกัน Affectiva แค่มองหน้าก็อาจจะรู้แล้วว่าเราต้องการอะไร