นับตั้งแต่เทคโนโลยี Deepfake ได้รับความนิยมมากขึ้น มีผู้มีชื่อเสียงหลายคนตกเป็นเหยื่อ ถูกนำใบหน้าไปใช้ในสื่ออนาจาร สถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลีใต้ (KAIST) จึงได้พัฒนาแอพลิเคชั่นตรวจจับการใช้ Deepfake หวังลดอัตราการตกเป็นเหยื่อจากแอพฯ ปลอมแปลงภาพดังกล่าว
ทีมนักวิจัยของสถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลีใต้ (KAIST) เปิดตัวแอพลิเคชั่นตรวจจับ Deepfake โดยใช้ซอฟต์แวร์ชื่อ KaiCatch ซึ่งจะนำเทคโนโลยี AI มาใช้ในการตรวจจับรูปภาพที่ถูกตัดต่อ หรือบิดเบือนได้อย่างแม่นยำ
สำหรับวิธีใช้งาน ลี ฮึงคยู (Lee Heung-kyu) ศาสตราจารย์ผู้พัฒนา KaiCatch ระบุว่า ผู้ใช้สามารถอัพโหลดรูปภาพต้องสงสัยลงในแอพฯ ได้เลย จากนั้นระบบจะตรวจสอบรูปภาพดังกล่าวอย่างละเอียด ซึ่งกระบวนการเหล่านี้มีค่าใช้งานอยู่ที่ 2,000 วอน หรือประมาณ 55 บาทต่อรูป
ลี ฮึงคยู เปิดเผยว่าเขาเริ่มพัฒนาซอฟต์แวร์ตรวจสอบภาพตัดต่อตั้งแต่ปี ค.ศ.2015 โดยอาศัยการรวบรวมฐานข้อมูล และวิดีโอจำนวนมากเพื่อมาทดสอบระบบ ซึ่งเขาหวังว่าการซอฟต์แวร์ตัวนี้จะช่วยให้ผู้คน โดยเฉพาะเหล่าคนดังที่มักตกเป็นเหยื่อ ถูกตัดต่อภาพในสื่ออนาจารหลุดพ้นจากสิ่งเหล่านี้ได้
“นี่เป็นเพียงจุดเริ่มต้นของ KaiCatch” ลี ฮึงคยู กล่าว “เราวางแผนจะอัพเดตซอฟต์แวร์อยู่เสมอ เพื่อพัฒนาเทคโนโลยีตรวจจับ Deepfake ให้ดีขึ้น” ขณะนี้ KaiCatch เปิดให้บริการเฉพาะโทรศัพท์ระบบ Android ในภาษาเกาหลีเท่านั้น แต่ ลี ฮึงคยูเปิดเผยว่า ทีมงานกำลังวางแผนที่จะปล่อยเวอร์ชั่น IOS สำหรับผู้ใช้ iPhone รวมถึงเพิ่มภาษาอื่นๆ อาทิ ภาษาอังกฤษ จีน และญี่ปุ่นในอนาคต
ปัญหาการถูกตัดต่อรูปอนาจาร เป็นหนึ่งในปัญหาใหญ่ที่หน่วยงานภาครัฐของเกาหลีใต้พยายามแก้ไขมาตลอด ซึ่งในช่วงต้นปีที่ผ่านมา เว็บไซต์ของสำนักงานประธานาธิบดีมีคำร้องเรียนในกำหนดบทลงโทษอย่างรุนแรงต่อผู้ตัดต่อสื่อลามก โดยมีประชาชนร่วมลงชื่อกว่า 390,000 คน
อ้างอิงจาก
http://www.koreaherald.com/view.php?ud=20210330000699
https://www.blognone.com/node/121944
#Brief #TheMATTER