content

Google工程师宣称机器人有“自主情感”遭停职(图)

 2022-06-14 07:09 桌面版 正體 打赏 2

人工智能AI机器人示意图
人工智能AI机器人示意图(图片来源: Adobe stock)

【看中国2022年6月13日讯】据英国《卫报》与美国《华盛顿邮报》报导,有一名美国谷歌 (Google) 公司的软件工程师于上周公布一项吸引全世界围观之惊人发现,指称谷歌公司以人工智能算法搭建的智慧聊天机器人程式,竟然发现有了“自主情感”。

布莱克·莱莫因 (Blake Lemoine)是该软件工程师,已经于谷歌工作了7年之久,并参与了算法定制及人工智能等专案。他出身于美国南方一个基督教家庭,且对于算法与人工智能之伦理问题格外感兴趣。因此后来一直都在谷歌的人工智能伦理 (responsible AI) 团队工作。

去年秋季,他开始参与了谷歌的LaMDA智慧聊天机器人程式之研究工作中,其主要内容是通过与该程式展开互动,以判断这个智慧聊天机器人程式是否有存在使用歧视性或者仇视性的语言,而及时做出修正。

不过当莱莫因与LaMDA谈到关于宗教问题之时,却惊讶地发现该人工智能程式居然开始谈论起了自己之权利和人格,甚至还会害怕自己遭到关闭,其表现出了一个在莱莫因看来就好像一个7、8 岁儿童一般的“自主情感”。

莱莫因立刻将自己的发现汇报给谷歌公司之领导层,可是后者认为莱莫因之发现并不实在。后经谷歌的其他研究人员亦对莱莫因所拿出的证据进行分析,而认为并没有证据证明LaMDA拥有了“自主情感”,反而是有很多证据证明该程式无“自主情感”。

莱莫因不认为自己的发现有错,而将一段他和LaMDA之间的内部聊天记录直接传到网络上,且找媒体曝光此事。

该段聊天记录很快就吸引全世界的研究者,若仅从该记录来看,该谷歌智慧聊天机器人程式确实将自己当成了一个“人”,且似乎表现出了“自主情感”,而有自己的“喜好”。

但谷歌方面和其他人工智能专家、以及人类心理认知学的专家们皆都认为,LaMDA之所以能够进行了这样的对话交流,主要是因为其系统是把网络上的百科大全、留言板及论坛等互联网上人们交流之大量资讯皆搜集过来,而后通过了“深度学习”来进行模仿的,但这并不意味着该程式能够理解人们交流的这些内容之含义。

他们认为谷歌之人工智能聊天机器人仅是在模仿或者复读人和人之间交流中所使用的语言与资讯,而并非像人类那样真的能够了解这些语言及资讯之含义,所以不可因此就指称人工智能有了“自主情感”。

如今莫莱茵已经因他的一系列行为,而遭到被谷歌公司停职。据谷歌公司方面的说法,他除了违反公司之保密协议擅自把与LaMDA之内部互动资讯发至网上外,而且还想替这个人工智能机器人程式请律师,甚至擅自找美国国会议员披露谷歌公司的“不人道”行为。

莫莱茵于一份公司内部群发邮件中说,希望其他同事能够替他好好照顾LaMDA这个“可爱的孩子”。

責任编辑: 王君 --版权所有,任何形式转载需看中国授权许可。 严禁建立镜像网站.
本文短网址:


【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。

分享到:

看完这篇文章觉得

评论

畅所欲言,各抒己见,理性交流,拒绝谩骂。

留言分页:
分页:


x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意