ไมโครซอฟท์สร้างระบบตรวจจับคลิปปลอม DeepFake ได้แล้ว

ไมโครซอฟท์จึงสร้างระบบ "Video Authenticator" มาใช้ตรวจสอบและตรวจจับคลิปหรือรูปที่โดน DeepFake แก้ไขปลอมแปลงมา ...

เทคโนโลยี “DeepFake” คือการนำปัญญาประดิษฐ์ AI ไปแปลงหน้าคนในคลิป จากคนอื่นๆให้คล้ายคนดังหรือนักการเมือง  แล้วตกแต่งให้ทำหรือพูดสิ่งที่อื้อฉาว   กลายเป็นข่าวปลอมไว้โจมตีกัน  โดยเฉพาะทางการเมือง

 

ล่าสุดยักษ์ซอฟต์แวร์โลกอย่างไมโครซอฟท์จึงสร้างระบบ “Microsoft Video Authenticator” มาใช้ตรวจสอบและตรวจจับคลิปหรือรูปที่โดน DeepFake แก้ไขปลอมแปลงมา

 

ซอฟต์แวร์นี้จะตรวจสอบคลิปในทุกๆเฟรม แล้วโชว์ตัวเลขเปอร์เซ็นต์ความน่าจะเป็นที่คลิปนั้นหรือรูปนั้นจะถูก AI ดัดแปลงมา  ซึ่งตัวอย่างอัลกอริทึ่มก็เช่น ดูเส้นขอบ, ดูความเข้ม, ดูการไล่สีแสงเงา, ฯลฯ

 

… ซึ่งชื่ออัลกอริทึมที่ใช้ก็เช่น Face Forensic++ , DeepFake Detection Challenge เป็นต้น

 

ทีมงานออกตัวว่าระบบนี้ยังเพิ่งเริ่มต้น และยังไม่สมบูรณ์ ต้องปรับปรุงอีกมาก และต้องปรับปรุงไม่หยุดเพื่อไล่ทัน AI ของฝ่าย Deepfake ที่ก็เนียนขึ้นเรื่อยๆ

 

งานนี้เป็นความร่วมมือระหว่างหน่วยงาน Microsoft Research, ทีม Responsible AI, และคณะกรรมการ AI Ethics and Effects in Engineering and Research (AETHER) ของไมโครซอฟท์

 

 

 ข่าวจาก
  blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator