วันนี้ AI สามารถรับรู้อารมณ์ของคนจากน้ำเสียงได้แล้ว ด้วย “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย”

คณะอักษรศาสตร์ ร่วมมือกับคณะวิศวกรรมศาสตร์ และสถาบันวิทยสิริเมธี (VISTEC) พัฒนา “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” ปัญญาประดิษฐ์แยกแยะอารมณ์จากเสียงพูด เสริมประสิทธิภาพงานขายและระบบบริการที่ต้องเข้าถึงใจลูกค้า

AI แยกอารมณ์ 5 แบบ ได้แก่ อารมณ์โกรธ เศร้า หงุดหงิด สุข และน้ำเสียงยามปกติ

สามารถนำไปใช้ประโยชน์ด้านต่างๆ เช่น
– ระบบ Call Center ช่วยประเมินอารมณ์ของลูกค้า
– หุ่นยนต์ Avatar โต้ตอบกับมนุษย์แบบแสดงอารมณ์ได้

อ่านเรื่องราวเกี่ยวกับ “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” เพิ่มเติมได้ที่ https://www.chula.ac.th/highlight/47227/
#Chula #InnovationsForSociety

[post-views]

ข่าวที่เกี่ยวข้อง