Trong luận văn này, tôi giới thiệu xMERC, một mô hình mới cho bài toán Nhận Diện Cảm Xúc Đa Phương Thức Trong Cuộc Hội Thoại, tập trung vào tính giải thích và cải thiện hiệu suất mô hình. Phương pháp này tối ưu hóa độ chính xác của mô hình bằng cách khai thác sự thay đổi cảm xúc qua các đầu phụ trợ và phân loại chuyển đổi cảm xúc cụ thể tại mỗi câu nói. Ngoài ra, xMERC sử dụng ngữ cảnh cảm xúc để cung cấp thông tin toàn diện về trạng thái cảm xúc trong suốt các cuộc hội thoại, từ đó nâng cao tính chính xác và rõ ràng của từng dự đoán. Mô hình xMERC đảm bảo tính minh bạch trong quá trình nhận diện cảm xúc bằng cách tích hợp một luồng giải thích đầu - cuối, phân tích đóng góp của mỗi mô-đun trong mô hình cho từng mẫu dữ liệu. Kết quả thực nghiệm cho thấy xMERC đạt hiệu suất cải thiện nổi bật trên cả hai bộ dữ liệu IEMOCAP và CMU-MOSEI. Khả năng của mô hình trong việc làm nổi bật tầm quan trọng của các phương thức và từng điểm dữ liệu khác nhau tăng cường khả năng giải thích và ứng dụng thực tiễn. Kết quả nghiên cứu chỉ ra rằng xMERC cải tiến đáng kể với bài toán nhận diện cảm xúc đa phương thức trong hội thoại bằng cách cung cấp mô hình có độ chính xác cao và các giải thích chi tiết cho các dự đoán của nó.
Readership Map
Content Distribution
Trong luận văn này, tôi giới thiệu xMERC, một mô hình mới cho bài toán Nhận Diện Cảm Xúc Đa Phương Thức Trong Cuộc Hội Thoại, tập trung vào tính giải thích và cải thiện hiệu suất mô hình. Phương pháp này tối ưu hóa độ chính xác của mô hình bằng cách khai thác sự thay đổi cảm xúc qua các đầu phụ trợ và phân loại chuyển đổi cảm xúc cụ thể tại mỗi câu nói. Ngoài ra, xMERC sử dụng ngữ cảnh cảm xúc để cung cấp thông tin toàn diện về trạng thái cảm xúc trong suốt các cuộc hội thoại, từ đó nâng cao tính chính xác và rõ ràng của từng dự đoán. Mô hình xMERC đảm bảo tính minh bạch trong quá trình nhận diện cảm xúc bằng cách tích hợp một luồng giải thích đầu - cuối, phân tích đóng góp của mỗi mô-đun trong mô hình cho từng mẫu dữ liệu. Kết quả thực nghiệm cho thấy xMERC đạt hiệu suất cải thiện nổi bật trên cả hai bộ dữ liệu IEMOCAP và CMU-MOSEI. Khả năng của mô hình trong việc làm nổi bật tầm quan trọng của các phương thức và từng điểm dữ liệu khác nhau tăng cường khả năng giải thích và ứng dụng thực tiễn. Kết quả nghiên cứu chỉ ra rằng xMERC cải tiến đáng kể với bài toán nhận diện cảm xúc đa phương thức trong hội thoại bằng cách cung cấp mô hình có độ chính xác cao và các giải thích chi tiết cho các dự đoán của nó.