ChatGPT之父因激进研究恐致“AI灭绝人类”被炒?(图)

发表:2023-11-19 18:53
手机版 正体 打赏 2个留言 打印 特大

ChatGPT之父奥特曼(Sam Altman)
奥特曼(Sam Altman)11月16日出席三藩市亚太经合组织(APEC)论坛,讨论AI发展。(图片来源:Justin Sullivan/Getty Images)

【看中国2023年11月19日讯】(看中国记者杨天资综合报导)OpenAI人事大地震成为这个周末科技业界的大新闻,ChatGPT之父奥特曼(Sam Altman)于11月17日被董事会解雇的消息震惊全球,并引起外界无限猜想。且目前尚不清楚董事会成员解雇奥特曼的真实动机,有消息披露奥特曼在开展AI研究时可能过于激进,这可能导致AI人工智能“终有一天会导致人类灭绝”

奥特曼的突然遭炒鱿鱼确实暗示了未来业界将出现的一场争论,发展AI与安全的矛盾——有如一些科学研究、如基因改造的禁忌一样,AI的发展今后也会被设置道德的界限。

ChatGPT之父因激进研究恐致“AI灭绝人类”被炒?OpenAI人事风暴内情曝光 

山姆.奥特曼(Sam Altman)被炒的消息过于突然,相信他事前也不知道。因为奥特曼(Sam Altman在被炒的前一天16日还在三藩市出席亚太经合组织(APEC)会议的一个论坛,谈论AI的发展。

据董事会主席布罗克曼(Greg Brockman)所述,奥特曼是在当地时间11月17日在董事会议被即时解雇。OpenAI技术总监(CTO)穆拉蒂(Mira Murati)其后被任命为临时CEO。

根据OpenAI的声明,奥特曼被辞退是因董事会认为他与董事会沟通的过程中“不够坦诚”,阻碍董事会履行职责的能力,因此“不再相信他能继续带领公司”。

据《纽约时报》18日引述消息报道,OpneAI的高层当日告诉员工,董事会做出解雇决定,并非因为奥特曼的不当行为,或与财务、业务、安全或隐私的事件有关,而是缘于奥特曼与董事会的沟通问题。

路透社11月18日引述美国网站“临界点”(The Verge)报导,OpenAI董事会正与奥特曼Sam Altman讨论让他重新回巢担任CEO。其中一名消息人士透露,奥特曼对回归旧东家感矛盾,他希望公司进行重大的治理变革。

OpenAI建造的ChatGPT在科技业界引起革命,推动生成式AI的快速发展。在今天所有文字的生成式AI,包括微软所使用的AI软件,都是建立自ChatGPT上。

ChatGPT在2022年11月发布,短短一年全球使用者突破1亿,有200万人正参与开发,发展速度之快让人惊讶。

AI人工智能“终有一天会导致人类灭绝” 的真正原因 

一些安全倡导者指出,OpenAI和其他公司发展AI的速度过快,忽视了提倡谨慎行事的声音。这争论在OpenAI的员工中已持续了多年,2020年一群OpenAI的员工因为担心公司过于商业化,把利益放置在安全之上而辞职,部份员工后来成立了Anthropic,他们认为奥特曼(Sam Altman在开展AI研究时可能过于激进。

OpenAI在2015年成立,当时是一间非牟利研究机构,至2019年才成立一家有限盈利的子公司。OpenAI声称这是一种创新安排,投资者的回报受到限制,目的是让公司保留非营利组织的使命。公司赋予了董事会管理有限利润实体的权力。这与其它一般企业不同,奥特曼作为公司的领导者,不直接持有OpenAI的任何股份,而董事会有权投票直接开除他。

董事会成员中最少有两人、即是麦考利(Tasha McCauley)和托纳(Helen Toner)与有效利他主义(Effective Altruism)运动有关联,这是一个伦理运动,运动的成员推动了对AI的安全研究,他们认为失控的强大的AI终有一天会导致人类灭绝。

从英国著名理论物理学家史蒂芬.霍金(Stephen Hawking)到特斯拉创始人伊隆.马斯克(Elon Musk)等世界顶尖人工智能(AI)专家,都曾表示过人工智能对人类生存的威胁。

已经去世的史蒂芬.霍金于2015年8月在美国Reddit网站上,首次提出对人工智能的“威胁论”,他确信“优异的AI绝对会实现它的目标,因此当人类与它道不同时,绝对有间接或直接铲除人类的可能”。

后来又不断地警告:“人工智能系统会自行启动,并以前所未有的速度不断的重新设计、自我改良。”

“研究人工智能如同在召唤恶魔”

“全面性的开发人工智能有一天可能会导致人类灭亡!”。

另一位美国的科学天才马斯克(2002年创建私人太空发射公司SpaceX)于2017年7月,一次由美国各州、领地及联邦组成的“国家管理者协会”(National Governors Association)的会议上,再次重申了他对AI发展的远期担忧——“我接触过最先进的人工智能,我认为人类的确应该对它感到担心。”

他还说:“这是人类文明所面对过的最大挑战。”

马斯克海表示没人听他的警:“我试图说服人们降低AI的发展速度、监管AI,但是无效。我试了很多年,没有人听。”、“AI的发展似乎不受人类控制”

“人工智能比核能武器更危险”!

美国、英国、欧盟以至联合国,都先后为AI召开讨论,试图设立机制确保AI发展可运用在正确对人类及社会有益的事项上,间接引证各国对这一波AI发展感到担忧。

加州大学伯克利分校(University of California,Berkeley)的斯图尔特.罗素教授(Stuart Russell)是该领域的专家。他在《人类相容:人工智能与控制问题》(Human Compatible:AI and the Problem of Control)一书中指出,这种威胁并非来自机器人开始有了自我意识,并起来反抗人类主人。而是因为这些机器人能力变得超强,最后有可能是因为人类的疏忽,为机器人设置了错误的目标,让他们无意中把我们都消灭了。

罗素教授表示,这才是我们应该担心的,而不是像好莱坞大片中所描绘的那样,人工智能开始有自主意识,并向人类倒戈,最后把我们都杀光。

罗素教授强调:我们应该担忧的不是意识,而是它们的“超强能力”(competence)。

罗素教授在接受BBC的采访时表示,假设我们发明了一个可以用于控制气候变化的强大人工智能系统,并且能将大气中的二氧化碳水平恢复到工业革命前的水平。

该人工智能系统经过分析后认为,最容易的方式就是消灭人类,因为人类活动是产生二氧化碳的最主要来源。

当然人类可能会对机器人说,你做什么都可以但就是不能把人类全灭绝。人工智能系统然后可能会说服人类少生孩子,直到最后没有人生孩子,人类慢慢灭绝为止。

 



来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入看中国会员
donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意