단순히 도식화 하자면
음성->녹음->녹음된 음성을 문자로 변환->번역->번역된 문자를 음성으로 변환->음성출력
이렇잖아요.
이 과정에서 비언어적 표현도 함께 번역 프로세서에 사용된다면 더욱 번역 정밀도가 높아지지 않을까요?
가장 대표적인 비언어적인 표현은 억양과 음정 높이인데, 억양과 음정은 문장의 배합만큼 무한정의 케이스를 가지고 있는게 아니고 한정적이니 가능 할 것 같아요.
한가지 생각나는 문제점은 자기는 화내는 목소리를 내고 싶어서 낸게 아닌데 원래 습관이라서 그런 목소리가 나는 사람들도 있다는 거죠.
그런 사람들보고 "화난 상태구나"라고 오해 할 수도 있겠네요.
하지만 그러한 오해는 (그 사람의 습관 잘 알고 있는 친구를 제외하곤) 당연히 비언어적인 맥락을 활용하는 인간들 또한 그렇기 때문에 연구가 충분히 진행된다면 적어도 이부분에 대해서는 인간과 같은 오해의 수준을 가지는 것이겠죠.
그리고 갈호쳐놓은, 그 사람의 습관을 잘 알고 있는 친구관계라면 애초에 번역기능을 사용하지 않을테구요.
....
이미 연구자 분들은 연구하고 계시겠죠?