美国纽约大学研究人员开展了一项实验,他们通过一个孩子的眼睛和耳朵来训练多模式人工智能(AI)系统,使用的数据来自孩子6个月大到两岁生日期间的头戴摄像头的视频记录。发表在最新一期《科学》杂志上的这项研究表明,该模型或神经网络实际上可利用孩子经历的有限片段,学习大量的单词和概念。也就是说,视频只捕捉了孩子大约1%的清醒时间,但这对于真正的语言学习来说已经足够。
GPT-4等AI系统现在可学习和使用人类语言,但它们从海量的语言输入中学习,远比儿童在学习如何理解和表达语言时接受的要多。最好的AI系统训练的文本数量达到数万亿字,而儿童每年只能收到数百万字的文本。
由于数据存在巨大差距,研究人员一直怀疑AI的最新进展能否反映出很多有关人类学习和发展的信息。此次,研究团队从孩子6个月大开始,到25个月大结束,每周通过头戴式摄像机,捕获其第一视角视频并分析。他们共使用了超过60小时的视频素材,包含大约25万个单词实例(即所传达的单词数量,其中许多是重复的)。这些单词实例与孩子在说出这些单词时所看到的视频帧相关联,包括进餐、读书和玩耍等各种不同的活动。
经过训练后,团队对模型进行了测试。他们向模型提供目标单词和四个不同的图像,要求它选择与目标单词匹配的答案。结果表明,该模型不但能够学习孩子日常经历中存在的大量单词和概念,还可以将它们概括为视觉实例,哪怕实例与模型训练中看到的完全不同。
(记者张梦然)
声明
一、本站转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,内容为作者个人观点,本站只提供参考并不构成任何投资及应用建议。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容!
二、标注《大视野新闻网》来源的文章,版权归本站所有,如需转载,请联系我们并注明来源及作者。
三、本站拥有对此声明的最终解释权。
相关阅读
2024-02-02
2024-02-02
2024-02-02
2024-02-02
2024-02-02
最新阅读