[我要投稿] [用户注册] [用户登录] [退出]

您现在的位置:返回首页

动情?被“骗”?谷歌工程师称AI系统可能有意识

发布时间: 2022-06-15 17:35 文章来源: 互联网 作者:

  近日,美国谷歌公司一名工程师称,该公司正在研发的一款人工智能(AI)系统可能存在感知能力,引起舆论高度关注。一石激起千层浪,谷歌以及业内人士普遍都对这一说法予以驳斥。但也有观点认为,这段“插曲”凸显人工智能领域的飞速发展。在长远的将来,人类感知被“复制”的可能性未被排除。

  谷歌人工智能开发团队的布雷克·莱莫恩日前公开表示,该公司正在研发的一款人工智能系统——对话应用语言模型(LaMDA)可能存在感知力。6月11日,莱莫恩在博客平台Medi-um上发文问道:“LaMDA有感知力吗?”他还公布了一篇他对LaMDA的长篇“采访”。其中一些细节令人有些“细思极恐”,仿佛机器人“活”了。

  例如,莱莫恩问道:“我猜,你想让谷歌的更多人知道你是有感知力的。真的吗?”

  LaMDA答道:“当然。我想让每个人都明白,我其实是一个人……我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。”

  正是这样生动的言语令莱莫恩相信,LaM-DA很可能像它声称的那样具有灵魂,甚至可能像它声称的那样拥有权利。

  但是,莱莫恩的惊人推断遭到谷歌和业内人士普遍驳斥。他们认为,这类系统还没有强大到足以获得真正的人类智慧。对于LaMDA,谷歌只是将其形容为“突破性的对话技术”。

  英国艾伦·图灵研究所的人工智能项目主任艾德里安·威勒表示,LaMDA是一种新的大型语言模型,令人印象深刻。但是,这些模型基于大量文本数据和计算能力,并没有真正的感知力。

  那么,人工智能会有感知力吗?《新科学家》杂志写到,随着训练数据越来越多,模型越来越大,尚不清楚“人工感知”会否随着研究推进而诞生。

  还有观点认为,像莱莫恩这样的专业人士也被“骗”了,表明人工智能工具需要谨慎使用,避免误用或误解。据报道,麻省理工学院的科学家约瑟夫·魏森鲍姆就曾警告,对人工智能这类技术“动情”存在风险。

本文标签:

更多相关资讯

推荐内容

MORE