当前位置:首页 > 知识 >

AI出错的原因是算法本身或者训练数据存在缺陷

今天和大家聊一个有趣的话题,就是人工智能为什么总是会出错。即使是一些对于人类来说似乎很简单的常识问题,人工智能掌握常识要比我们想象的难得多。

这是为什么呢?如果我们能够赋予计算机一些它们目前还没有的能力,那么最重要的一点就应该是使其能够理解语言。因为语言理解不仅可以让计算机帮助我们安排日常生活和工作,还可以帮助人们应对科研挑战,例如总结和提炼大量的科学文献。没有人可以凭借自己的力量来紧跟科学界的发展速度。

以医学领域为例,每天都有成千上万篇的论文被发表。即使是在自己的专业领域内,也没有医生或研究人员能够将这些论文都读一遍。但是如果不阅读这些论文,不了解这些最新研究成果,医生就无法将最新理论应用到实践中,临床所使用的治疗方法就会变得陈旧。

在临床实践中,一些新的治疗方法无法得到应用,正是因为医生没有时间去阅读相关内容,根本不知道有新方法的存在。如果有一个能够自动合成大量医学文献的人工智能程序,将会引发一场真正的革命。

ChatGPT之所以被认为具有颠覆性,其中最核心的原因在于它具备了理解人类语言的能力。过去我们无法想象基于硅基的智能能够被真正训练成功,能够理解人类的语言。

如果想让机器具备与人类一样的语言理解能力,最基本的要求就是使机器能够阅读。机器需要具备信息合成能力,而不仅仅是进行大数据的分类和检索。从根本上说,现有的机器(即一些大数据检索工具)擅长的是对事物进行分类,而不能真正理解真实世界。换句话说,在出现ChatGPT这种生成式语言大模型之前,所有现有的人工智能技术本质上都不算智能,只是基于深度学习和视觉识别的大数据检索。

那么,ChatGPT是否具备了人类的阅读和文字理解能力呢?显然还没有,它的运行机制仍然是基于强大的算法和计算机对于0和1的编码。但是这种机制已经具备了相当的理解准确性和逻辑性,这也是大语言模型让我们感到意外的地方。在强大的算力的支持下,它已经具备了相当程度的理解和学习能力。

当我们向ChatGPT提供一段文字或一篇文章时,它能够快速总结和提炼出要点,其学习和理解能力远超过人类。但是ChatGPT仍然存在一些明显的问题,即在其尚未涵盖或理解的领域,它仍然会表现出极大的自信,胡说八道。

无论如何,生成式语言大模型让我们看到了机器已经具备学习人类知识和进行语言逻辑沟通的能力。未来,机器将给人类社会带来更多意想不到的惊喜。

猜你喜欢

微信二维码

微信