谷歌研究院和谷歌 DeepMind 的人工智能 (AI) 研究人员开发了一种方法,可以用其他语言模型来增强大型语言模型 (LLM)。
这解决了法学硕士最大的突出问题之一,允许开发人员为现有模型注入新功能,而无需从头开始或进行昂贵的再培训/微调课程。
根据谷歌研究团队的说法,用另一种语言增强法学硕士既可以提高现有任务的性能,也可以完成模型本身无法完成的新任务。
教旧的聊天机器人新技巧 这项研究是使用谷歌的 PaLM2-S LLM 进行的,该公司称该模型可与支持 OpenAI ChatGPT 的人工智能 GPT-4 相媲美。
PaLM2-S 在团队的实验中自行进行了基准测试,然后在使用更小的专门语言模型进行增强后再次进行了基准测试。
执行的任务包括翻译(增强版本比基线提高了 13%)和编码。
在编码任务中进行测试时,混合模型显示出显着的改进,根据该论文:“同样,当 PaLM2-S 使用特定于代码的模型进行增强时,我们发现代码生成和解释方面比基本模型相对提高了 40%潜在的巨大影响 从表面上看,所展示的性能提升可能会对人工智能领域产生直接影响。
例如,当将支持度较低的语言翻译成英语时,翻译任务的性能提升显然是最大的。
这仍然是机器学习中的一个突出问题,谷歌在这方面的工作有可能取得进展。然而,从更大的计划来看,这一研究方向可能会解决悬在许多科技首席执行官头上的达摩克利斯之剑。人工智能领域:法律问题可能会摧毁 ChatGPT 等聊天机器人的基础。 版权 VS 人工智能 一些最受欢迎的大型语言模型的制造商已在众多诉讼中被列为被告,这些诉讼的依据是这些人工智能系统接受的训练受版权保护的数据。立法者和法院必须回答的问题是,营利性公司是否可以合法地使用这些数据来训练他们的语言模型。
在极端情况下,如果法院裁定开发人员不能使用此类数据,并且必须清除任何受版权保护材料训练的模型,那么继续提供受影响的服务在技术上可能是不可能的或在经济上是不可行的。
从本质上讲,由于训练大型语言模型的成本很高,而且它们对大量数据的依赖,像今天构建的 ChatGPT 这样的产品在监管更加严格的美国人工智能环境中可能不可行。如果谷歌新的法学硕士增强计划随着进一步发展而成功,