前沿科技AI最大的缺点被发现

近日,美国加州大学伯克利分校(UniversityofCalifornia,Berkeley)的研究人员发现,人工智能缺乏人类的“关键创新能力”。相关研究被刊发在《心理科学展望》(PerspectivesonPsychologicalScience)杂志上。

图片来源:物理学家组织网

这篇论文的合著者尤妮斯·姚(EuniceYiu,)在接受采访时解释说,现阶段的人工智能系统使用起来可以像写作一样,作为一种‘文化技术’来总结现有的知识。但与人类不同的是,每当涉及到需要有创新想法的时候,AI常常会遇到困难。研究人员表示,像ChatGPT这样的人工智能大语言模型(LLM)是在包含数十亿个人类生成的单词和图像的数据集上被动训练的。

尤妮斯·姚说:“我们只能把这些人工智能系统看作是一种新的图书馆或搜索引擎,它们能有效地总结并向我们传达了现有的文化和基础知识,但不是像人类一样具有创造力。”

据了解,尤妮斯·姚及其团队测试了人工智能系统的“模仿和创新能力”与儿童和成人的不同之处。他们向42名3至7岁的儿童和30名成年人展示了日常物品的文字描述。在实验的第一阶段,88%的儿童和84%的成年人能够正确地识别出哪些物体与另一个物体“最搭”。例如,他们将指南针与尺子而不是茶壶配对,因为指南针和尺子都有刻度。

在实验的第二阶段,85%的儿童和95%的成年人也能够使用日常用品来解决新的问题。例如,在一项任务中,参与者被问及如何在不使用指南针等典型工具的情况下画一个圆。在尺子、圆底茶壶和炉子之间进行选择时,大多数参与者选择了茶壶,虽然看起来茶壶与指南针是完全不同类型的工具,但它可以实现与指南针相同的功能——能够画一个圆。

当研究人员向五个人工智能大型语言模型提供相同的文本描述时,这些模型在模仿任务中的表现与人类相似,得分从表现最差的模型的59%,表现最好的模型的83%。然而,人工智能对创新任务的回答远没有那么准确。表现最差的模型选择有效工具的概率为8%,表现最好的模型选择有效工具的概率为75%。研究人员表示,这个实验证明了孩子们可以使用他们以前从未见过或未听说过的东西用作全新用途,但人工智能语言大模型却不行。

在另一个相关的实验中,孩子们能够通过实验和探索来发现一台没有见过的新机器是如何工作的,但是,人工智能语言大模型依旧很难做出同样的推断。研究人员表示,可能是因为答案没有包含在它们的训练数据中,所以无法进行回答。

尤妮斯·姚表示,这些人工智能大语言模型可以总结传统智慧,但它们不能像人类那样扩展、创造、改变、放弃、评估和改进传统智慧,也就是所谓的“思维固化”。

不过,当前人工智能仍处于早期阶段,关于如何提升其学习和创新能力,人类还有很多功课要做。如果从儿童好奇、积极和内在动机的学习方式中汲取灵感,或许可以帮助研究人员设计出有创新力的人工智能系统。

但到那个时候,人类又会不会有危险呢?

#优质作者榜#

欢迎点赞、评论、转发、收藏,感谢您的支持!



转载请注明地址:http://www.1xbbk.net/jwbjj/9727.html


  • 上一篇文章:
  • 下一篇文章:
  • 网站简介 广告合作 发布优势 服务条款 隐私保护 网站地图 版权声明
    冀ICP备19027023号-7