none.gif

yugebing

GF  2022-02-11 15:22

【技术讨论】基于神经网络的语音翻译系统实现难点在哪里

长久以来,音声和艾薇的汉化工作大多是人工翻译完成的,这种工程极其耗费人力物力,而且效率不高。那么有没有可能,在原有的通用语音翻译系统的框架基础上,生成一个新的神经网络并用现在已知的流放音声和带字幕艾薇去训练他,得到一个效果很好,甚至于几乎不需要后期润色的翻译结果呢。这构思起来似乎并不是很难,但是直觉告诉我,整个过程种一定有某种技术难题是很难攻克的,希望大家能予以指导

none.gif

衔尾蛇

B1F  2022-02-11 20:32
实现不难, 就是成本比不上回报, 大概率你花时间做出效果后发现, 还不如走百度的语音识别+翻译api的路子, 百度终究是有整个百度社区体系的训练样本的, 目前用百度的付费接口, 其实已经有能将就看的效果, 就是没什么必要=-=


最后, 关于你认为的盈利模式问题, 你可能忘了行业中以前有类似的存在, 心愿屋, 你再想想他的名声和下场