Gpt 和翻译的未来

ChatGPT在翻译中的作用既不是绝大多数有用的,也不是完全具有破坏性。 其力量主要在于人们对其能力的看法。 正如Stanford Andrew Ng 教授所建议的那样,聊天GPT 作为开发者工具比作为一个独立的解决方案生成类似人工写出的文本的文字更有效。

适度使用: 聊天GPT 在修改和生成适度可用文本方面的优秀风格。 在可用性要求不太高的地方,符合许多翻译需求。
译后编辑: 使用个性化聊天GPT 引擎进行翻译后修改, 在通过诸如DeepL之类的工具进行初始翻译之后,如果事先提供风格指南,可以生成有用的文本。

聊天GPT 不同于传统的机器翻译,因为它将翻译视为一项预测任务。 它预测下一个合乎逻辑的字词顺序,考虑到上下文、语法和语义。 然而,它面临挑战。

用于翻译的聊天GPT 使用案例:修改翻译文本。 对于中文来说,输出的文本质量一般但是勉强能读。 就英语而言,我注意到全球公益物趋势是使用某些动词和过度使用广告。 它可以更容易地检测是否由 GPT 生成或修改了文本。

与Google翻译和DeepL相比, 聊天GPT 与更长篇幅的文本进行斗争,大多数人发现DeepL的翻译是略微更自然的语音,欧洲和亚洲语都是如此。
与特定领域的翻译引擎相比较:目前ChatGPT缺乏医学和法律等受管制行业所需的确切翻译能力。 在内容需要广泛适应的地方。

最初,ChatGPT有截取数据的危险,收集的个人信息似乎没有过多的保密措施。
OpenAI 现在允许用户禁用聊天历史记录。 然而,他们仍保留30天的滥用情况监测数据。 因此,OpanAI仍然有一种接触个人数据的途径。 同样,由于隐私问题和版权问题,个人GPT-4模式的培训也有局限性。 GPT是否上传和分享受过训练的信息尚不清楚,通过个性化培训阻碍了商业化。

伦理问题:是否应授予机器版权仍有待辩论。 但在中国,关于机器版权的第一个案例并没有胜诉。AI不被视为具有版权。 参见此处。

不准确的翻译和偏见:ChatGPT可能会产生不准确的翻译,特别是对于资源不足的语言或与英文差别很大的语言。 它还表现出偏见,正如在产生幽默的文本或图像时所看到的那样。

伦理方面的考虑:大型语言模型的开发和使用引起了道德方面的关注,包括翻译偏见和可能的滥用。 这就要求有一个负责任地使用方法的全面框架。

容量限制:目前,GPT-4 在生成和管理可下载的文件方面有某些限制, 例如词汇表或精炼的翻译,下载链接很快失效或者显示无法找到文件。 它在全面分析文件方面的能力也有改进的余地。 大多数任务都是通过聊天界面中的文本输入执行的,这个界面虽然有效,却受到输入音量限制的限制。 这种情况推迟了这一进程,影响到总体效率。

聊天GPT生成文本的方式,特别是英文文本的方式,显示了某些缺点。 它的词汇往往漏掉了翻译人员将要使用的细微细微细致。 这个问题主要是由于ChatGPT依赖扩展数据库和预测算法来生成文本。 它往往过分使用副词,倾向于死板的句子结构,且过度使用某些词语,例如“丰富的质感rich tapestry”, “魔法magic“急切”eagerly“肯定certainly”和更多,使机器生成的文本显得很突出。 例如,在最近的一次任务中,包括我在内的我的班级的许多人使用ChatGPT来编写我们的初稿。 教授说,我们的呈件似乎非常相似。 我只能想到人类过分依赖机器的未来,以至于所有文本都是由算法生成和修改的,因此不会有创意, 该数据库添加了精彩的文本和来自人类的原始文本。 语言表达式的局限性导致灵感和创造性的崩溃…

记忆限制:ChatGPT 往往在几次互动之后忘记初始指示,影响了连续任务的效率。

实时翻译潜力:ChatGPT在实时翻译,例如在会议中使用时,可以作为不错的辅助。 有一次,当我们来到秋天的论坛时,我无法知道我讲法语的邻居是在谈什么, 所以我使用 GPT 插件的语音控制来进行实时翻译,并允许聊天GPT 翻译结果。 我将翻译与人类口译员所说的话作了比较,我发现差别不大。 不包括一、二次人工和文化参考资料。 需要进一步的受控实验和观测。

ChatGPT赋能的翻译未来是一个复杂的景象。 虽然它具有某些优势,但目前的特别是高风险行业,重要的文本依旧需要人类翻译官的控制和润色,讲究可读性的文本一开始就使用机器翻译反而会破坏人工翻译的思路。 ChatGPT模型不断发展的能力及其对翻译领域的影响仍然是不断观察和辩论的主题。

Hendy, Amr, et al. “gpt 模型在机器翻译中有多好?一个全面的评估。” arXiv:2302.09210(2023)。

Siu, Sai Cheong. “ChatGPT 和 GPT-4 专业翻译:探索翻译中大语言模式的潜力。” 可查阅SSRN 448091 (2023)。

Roberto Navigli、Simone Conia和Bjoutrends rn Ross。 2023. 《大语言模式中的偏见:起源、清单和讨论》。 J. 数据和信息质量15,2,第10条(2023年6月),21页。 https://doi.org/10.1145/3597307

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部