Nghiên cứu của các nhà khoa học Nhật Bản cho thấy, việc dạy cho robot cách cười đúng lúc và đúng cách qua AI không hề dễ dàng như chúng ta vẫn mường tượng. "Các hệ thống cố gắng mô phỏng cuộc trò chuyện hàng ngày vẫn gặp khó khăn trong việc tự xác định khi nào nên cười", một nghiên cứu được công bố hôm thứ Năm trên tạp chí Frontiers in Robotics và AI cho biết
Nghiên cứu nêu chi tiết nghiên cứu của nhóm về việc phát triển một hệ thống trò chuyện AI tập trung vào tiếng cười được chia sẻ để làm cho cuộc trò chuyện giữa con người và robot tự nhiên hơn. Họ hình dung nó sẽ được tích hợp vào phần mềm đàm thoại hiện có dành cho rô bốt, vốn đang học cách phát hiện cảm xúc và đối phó với sự phức tạp kết thúc mở như những mệnh lệnh mơ hồ của con người.
"Chúng tôi nghĩ rằng một trong những chức năng quan trọng của AI đàm thoại là sự đồng cảm", Koji Inoue, trợ lý giáo sư tin học tại Đại học Kyoto của Nhật Bản và là đồng tác giả của nghiên cứu, cho biết trong một tuyên bố. "Tất nhiên, cuộc trò chuyện là đa phương thức, không chỉ phản hồi chính xác. Vì vậy, chúng tôi quyết định rằng một cách robot có thể đồng cảm với người dùng là chia sẻ tiếng cười của họ."
Điều quan trọng là hệ thống không chỉ nhận dạng tiếng cười, nó còn quyết định xem có nên cười để đáp lại hay không và sau đó chọn loại tiếng cười phù hợp cho tình huống. Inoue cho biết: “Kết quả quan trọng nhất của bài báo này là chúng tôi đã chỉ ra cách chúng tôi có thể kết hợp cả ba nhiệm vụ này vào một robot. "Chúng tôi tin rằng loại hệ thống kết hợp này là cần thiết cho hành vi cười thích hợp, không chỉ đơn giản là phát hiện một tiếng cười và phản ứng với nó."
Để thu thập dữ liệu đào tạo về tần suất và kiểu cười được chia sẻ, nhóm nghiên cứu đã khai thác Erica , một robot hình người tiên tiến được thiết kế bởi các nhà khoa học Nhật Bản Hiroshi Ishiguro và Kohei Ogawa, làm nền tảng để nghiên cứu sự tương tác giữa người và robot. Erica có thể hiểu ngôn ngữ tự nhiên, có giọng nói tổng hợp của con người và có thể chớp mắt, di chuyển mắt khi nghe con người nói chuyện.
Các nhà nghiên cứu đã ghi lại cuộc đối thoại giữa các nam sinh viên Đại học Kyoto, những người lần lượt trò chuyện trực tiếp với Erica (đang được điều khiển bởi các nữ diễn viên nghiệp dư trong một phòng khác thông qua micrô). Các nhà khoa học đã chọn cách thiết lập đó vì biết rằng tự nhiên sẽ có sự khác biệt giữa cách con người nói chuyện với nhau và cách họ nói chuyện với rô bốt, thậm chí cả những rô bốt được điều khiển bởi một con người khác.
"Chúng tôi muốn, càng nhiều càng tốt, mô hình tiếng cười được đào tạo trong các điều kiện tương tự như tương tác giữa người và robot thực sự", nhà nghiên cứu của Đại học Kyoto, Divesh Lala, một đồng tác giả khác của nghiên cứu cho biết.
Dựa trên sự tương tác, các nhà nghiên cứu đã tạo ra bốn cuộc đối thoại âm thanh ngắn giữa con người và Erica - được lập trình để đáp lại các cuộc trò chuyện với các mức độ khác nhau của tiếng cười, từ không có tiếng cười nào đến cười khúc khích thường xuyên để đáp lại những người bạn trò chuyện của cô ấy.
Các tình nguyện viên sau đó đánh giá những điểm xen kẽ đó về sự đồng cảm, tự nhiên, giống với con người và sự hiểu biết. Các kịch bản gây cười được chia sẻ hoạt động tốt hơn những kịch bản mà Erica không bao giờ cười hoặc cười mỗi khi cô phát hiện ra tiếng cười của con người mà không sử dụng hai hệ thống con khác để lọc ngữ cảnh và phản ứng.
Các nhà nghiên cứu của Đại học Kyoto đã lập trình hệ thống cười chung của họ vào robot bên cạnh Erica, mặc dù họ nói rằng những tiếng động này vẫn không thực sự giống tự nhiên.
Inoue nói: “Có thể sẽ phải mất hơn 10 đến 20 năm nữa trước khi chúng ta có thể trò chuyện bình thường với một con robot như chúng ta với một người bạn".
Nguyên Đỗ