เกาหลีออกแอพจับคลิปโป๊ deepfake ปลอมหน้าคนดัง

เกาหลีใต้เปิดตัวแอพตรวจจับความบิดเบือดบนใบหน้าในคลิปปลอม ข่าวปลอมต่างๆ โดยเฉพาะคลิปโป๊ที่ตัดต่อหน้าคนดังลงไป

เทคโนโลยี ai ถูกใช้ผิดทางในวงการบันเทิง  โดยนิยมใช้ปลอมแปลงหน้าดาราผู้มีชื่อเสียง ซ้อนไปกับคลิปหนังลามก

 

ทำให้เกิดข่าวปลอมอื้อฉาวของดาราหรือนักการเมืองผู้ชื่อเสียงจำนวนมากขึ้นเรื่อยๆ เริ่มจากในสหรัฐอเมริกา ลามมาถึงเกาหลีใต้  ซึ่งเหยื่อส่วนใหญ่เป็นเพศหญิงผู้มีชื่อเสียง

 

และล่าสุด สถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลีใต้ หรือ KAIST (The Korea Advanced Institute of Science and Technology) จึงเปิดตัวแอพชื่อว่า “KaiCatch” ตรวจจับการตัดต่อใบหน้าในคลิปปลอมต่างๆ

 

กว่าจะมาเป็นแอพนี้ ทีมวิจัยต้องรวบรวมรูปหรือคลิปจากผู้ใช้งานจำนวนมหาศาล เพื่อให้ ai ช่วยตรวจสอบ

 

ช่วงแรก KaiCatch ใช้ได้แต่ในระบบแอนดรอยด์ และจำกัดในเกาหลีใต้เท่านั้น และจะขยายไปบนระบบ iOS ต่อไป   และขั้นต่อไปจะขยายไปรองรับภาษาจีน อังกฤษ  และญี่ปุ่นด้วย

 

 

 ข่าวจาก
  koreaherald.com/view.php?ud=20210330000699