องค์กรสามารถตรวจสอบการทำงานของระบบ AI ได้ เพื่อความเที่ยงตรงของข้อมูล

สถาบันการศึกษา IBV เปิดเผยว่า องค์กรถึง 82% จะมองถึงการนำ AI มาใช้แยกแยะข้อมูลที่ซับซ้อน และเลียนแบบการทำงานของมนุษย์ได้

แต่ก็เกิดคำถามว่า การแยกแยะข้อมูลหรือการเลียนแบบของมนุษย์นั้น เป็นสิ่งที่ถูกต้องและเลียนแบบในสิ่งที่ถูกต้องหรือไม่ ?

…ฉะนั้นจึงมีความพยายามตรวจสอบเทคโนโลยี AI ไปด้วยพร้อมกัน

เทคโนโลยี IBM Trust and Transparency ถูกพัฒนาโดยบริษัท IBM บนไอบีเอ็มคลาวด์ (IBM Cloud) เป็นบริการซอฟต์แวร์ ที่นำมาช่วยให้องค์กรรู้ที่มาของการตัดสินใจของระบบ AI ได้อัตโนมัติในขณะที่ระบบทำงาน

ระบบนี้สามารถบันทึกความถูกต้องของโมเดลต่าง ๆ ช่วยให้องค์กรสามารถตรวจสอบและเรียกดูข้อมูลย้อนหลัง เช่นดูว่า ได้ปฏิบัติตามข้อกำหนดกฎหมายต่าง ๆ เช่น GDPR หรือไม่ ? ฯลฯ  …โดยไม่ต้องอาศัยบุคลากรที่มีทักษะด้าน AI ตลอดเวลาแต่อย่างใด

ทั้งนี้ก็เพื่อป้องกันการป้อนชุดข้อมูลและโมเดลแมชชีนเลิร์นนิงต่างๆ โดยองค์กรสามารถตั้งค่าบริการซอฟต์แวร์ดังกล่าวให้ตรวจสอบปัจจัยที่มีผลต่อการตัดสินใจของ AI

คำอธิบายผลต่อการตัดสินใจของระบบ AI จะถูกเสนอในรูปแบบที่ผ่านแดชบอร์ด ทั้งในทิศทางที่ระบบแสดงออกมาและในทิศทางตรงกัน พร้อมระบุที่มาของคำแนะนำต่าง ๆ

ทั้งหมดนี้ก็เพื่อให้องค์กรสามารถเข้าใจปัจจัยที่มีอิทธิพลต่อการตัดสินใจของ AI ควบคุมเฟรมเวิร์คของระบบ AI ต่าง ๆ รวมถึงแสดงระดับความมั่นใจของระบบในระยะยาวต่อไป