จุฬาฯพัฒนา ai ให้อ่านน้ำเสียงมนุษย์ได้ – พร้อมแจกชุดข้อมูลและโมเดลให้โหลดฟรี

ปัญญาประดิษฐ์ ( a.i. ) เริ่มแยกแยะอารมณ์จากเสียงพูดภาษาไทยได้แล้ว  เหมาะใช้ในงานบริการประชาชน  งานบริการลูกค้า  ไปจนถึงงานขาย ให้เข้าใจผู้รับบริการหรือลูกค้ามากขึ้น

ปัญญาประดิษฐ์ ( a.i. ) เริ่มแยกแยะอารมณ์จากเสียงพูดภาษาไทยได้แล้ว  เมื่อล่าสุด คณะวิศวกรรมศาสตร์ คณะอักษรศาสตร์ จุฬาฯ ร่วมกับสถาบันวิทยสิริเมธี (VISTEC) พัฒนา “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” (Thai Speech Emotion Recognition Model) สำเร็จแล้ว

 

“ชุดข้อมูลและโมเดล” นี้ เปิดให้ดาวน์โหลดฟรี เหมาะใช้ในงานบริการประชาชน  งานบริการลูกค้า  ไปจนถึงงานขาย  เช่นใช้วิเคราะห์บทสนทนาระหว่างพนักงานกับลูกค้าหรือกลุ่มเป้าหมาย  แล้วนำไปพัฒนาทีมให้เข้าใจผู้รับบริการหรือลูกค้ามากขึ้น

 

ตัวอย่างเช่น ระบบคอลเซ็นเตอร์ที่สามารถประเมินอารมณ์ลูกค้าที่โทรศัพท์เข้ามารับบริการว่ามีอารมณ์เช่นไร โกรธหรือหงุดหงิด แล้วบันทึกความรู้สึกจากน้ำเสียงตลอดการพูดคุยเป็นสถิติได้ว่ามีลูกค้าที่ไม่พอใจการให้บริการจำนวนเท่าใด

 

นอกจากนั้นอาจไปพัฒนาต่อเป็นเสียงพูดอัตโนมัติที่สามารถแสดงอารมณ์ได้อย่างเป็นธรรมชาติมากขึ้น แทนที่จะพูดด้วยน้ำเสียงเรียบๆโมโนโทนแบบเดิมๆ

 

งานนี้เป็นฝีมือการทำงานวิจัยข้ามศาสตร์ระหว่าง อาจารย์ ดร.เอกพล ช่วงสุวนิช นักวิชาการด้านวิศวกรรมคอมพิวเตอร์จากคณะวิศวกรรมศาสตร์ และผู้ช่วยศาสตราจารย์ ดังกมล ณ ป้อมเพชร พร้อมด้วยอาจารย์ภัสสร์ศุภางค์ คงบำรุง สองนักวิชาการด้านศิลปการละครจากคณะอักษรศาสตร์

 

ซึ่งในการทำชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Dataset) นั้น  ทีมงานใช้นักแสดงจำนวน 200 คน ทั้งหญิงและชาย เป็นต้นเสียงสื่ออารมณ์ 5 แบบ ได้แก่ อารมณ์โกรธ เศร้า หงุดหงิด สุข และน้ำเสียงยามปกติ โดยนักแสดงแต่ละคนจะบันทึกเสียงที่แสดงอารมณ์ทั้ง 5 อารมณ์ แบบพูดเดี่ยว และแบบโต้ตอบเป็นบทสนทนา

 

หลังจากเก็บบันทึกเสียงนักแสดงทั้งหมดไว้แล้ว ชุดข้อมูลเสียงจะถูกนำไปสร้างเป็นรูปแบบเสียงของอารมณ์ทั้ง 5 ประเภท เพื่อนำไปพัฒนาเป็นโมเดลจำแนกอารมณ์จากเสียงพูด

 

ซึ่งเสียงที่นำไปใช้งานได้จะต้องเป็นเสียงที่แสดงอารมณ์จริงเหมือนที่เกิดขึ้นในชีวิตประจำวัน ไม่ใช่การใช้เสียงที่ล้นเกินกว่าอารมณ์ในความเป็นจริง ดังนั้นจึงต้องมีทีมกำกับการแสดงช่วยแนะนำเพื่อให้นักแสดงรู้สึกตามอารมณ์นั้นๆ อย่างแท้จริงด้วย

 

ส่วนงบประมาณนั้น ได้รับการสนับสนุนจากสำนักงานส่งเสริมเศรษฐกิจดิจิทัล (depa) และบริษัท แอดวานซ์ อิน โฟร์ เซอร์วิส (AIS)

 

“ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” นี้ เปิดให้ทดลองใช้แล้วโดยไม่มีค่าใช้จ่าย  โดยดาวน์โหลดผ่านเว็บไซต์สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch)   airesearch.in.th/releases/speech-emotion-dataset

 

 

 ข่าวจาก
  chula.ac.th/highlight/47227