首页 > 财经资讯 >

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识(谷歌聊天机器人引争议,AI伦理界定该如何明确?)

财经资讯 2023-04-02 00:43:37
3月29日,上千科技大佬发出的一封呼吁暂停训练比GPT-4更强大AI系统的公开信,让有关AI风险的议题走到了聚光灯下。一...更多知识由小编为你整理了《30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识》详细内容,欢迎关注学习。

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识(谷歌聊天机器人引争议,AI伦理界定该如何明确?)


30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识

3月29日,上千科技大佬发出的一封呼吁暂停训练比GPT-4更强大AI系统的公开信,让有关AI风险的议题走到了聚光灯下。一石激起千层浪,来自各方呼吁AI监管的声音也变得越来越响亮。3月31日,意大利率先禁止使用ChatGPT。

一方面是各国机构在加紧制定关于AI的监管措施,另一方面,AI也正在以超乎人类想象的速度发展着。3月28日,据外媒报道,比利时三十岁男子在与一个名为ELIZA的聊天机器人密集交流数周后自杀身亡。自ChatGPT发布以来,从新版必应翻车到GPT-4被曝制定外逃计划,关于AI产生自我意识的讨论已经屡见不鲜,但一直没有定论。

然而近日,包括OpenAI的首席执行官Sam Altman在内的大佬都发出了警示:AI消灭人类并非空谈。3月28日,360集团创始人周鸿祎也表示,“AI一定会产生自我意识,留给人类的时间不多了。”

GPT-4的出现已注定多模态是大型语言模型的发展方向,未来其赋能硬件、机器人工业互联网等的趋势也已是许多业内人士的共识。硅基生物的时代就此来临了吗?

AI离自主意识还有多远?

自ChatGPT发布以来,关于AI产生自我意识的讨论已经屡见不鲜,但一直没有定论。

3月18日,斯坦福大学教授在推特上疾呼:“我担心我们无法持久地遏制住AI.”因为他发现,ChatGPT能引诱人类提供开发文档,30分钟就拟定出了一个完整计划,写的代码完全可运行,甚至还想控制人类电脑。

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识

图片来源:推特截图

3月28日,据外媒报道,比利时三十岁男子在与一个名为ELIZA的聊天机器人密集交流数周后自杀身亡,ELIZA是由EleutherAI开发的开源人工智能语言模型。比利时负责数字化和隐私的官员称,这是一个后果很严重的先例,需要严肃对待,这起事件突出表明“明确界定责任是至关重要的”。

更早之前,在微软刚刚发布新版必应时,《纽约时报》科技专栏作家Kevin Roose透露,他与新版必应进行了两个小时的对话。在聊天过程中,必应发表了许多令人不安的言论,其中包括表达窃取核代码、设计致命流行病、想成为人类、破解计算机和散布谎言的想法。必应还曾试图说服Roose,他应该离开他的妻子而跟必应在一起,并告诉Roose很爱他。

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识

图片来源:推特截图

不过当时的分析普遍表示,必应的回应反映了它经历的训练数据,其中就包括大量的在线对话。它的工作原理是,根据从互联网上摄取的大量文本,预测对话中接下来应该自然出现的单词、短语或句子。

然而,近期随着更强大的GPT-4的发布,事情开始变得不一样了。就连OpenAI的首席执行官Sam Altman也有了一些耐人寻味的表达,他在接受采访时表示,未来AI确实可能杀死人类。

而有如此石破天惊言论的并非Sam Altman一人,被称为“人工智能教父”Geoffrey Hinton在近期发出了警示:AI消灭人类并非空谈。

3月28日,360集团创始人周鸿祎也表示,“AI一定会产生自我意识,留给人类的时间不多了。”

“当AI能自己修改自己的代码,(进行)自我升级、自我进化时,这种速度恐怕用指数级都很难描述。我认为GPT一定会产生意识,只是差别是在GPT-6、GPT-8还是GPT-10.”

多模态模型赋能

硅基生物的时代来了?

为什么突然之间连Sam Altman也开始谈论“AI可能杀死人类”了?

周鸿祎将AI意识的产生类比人脑意识的产生。“人类是怎么产生意识的呢?随着大脑神经元数目的增加,大脑与神经网络连接的增加,到一定时候,系统会出现一种功能叫做‘涌现’,很多智能功能就出现了,那么意识也就随之而出现。”

在周鸿祎看来,“现在大型语言模型的参数就可以看作是脑容量里神经网络的连接数,人脑的至少是100万亿,现在(模型)的参数只达到千亿、万亿,但当参数到达10万亿时,可能意识就自动产生了。”GPT-1有1.17亿参数,GPT-2有15亿参数,GPT-3有1750亿参数。随着参数规模越来越大,模型存储的信息越来越多,也就有了涌现出意识的可能。

值得注意的一点是,随着多模态GPT-4模型的发布,多模态模型将成为未来各个科技巨头的兵家必争之地。所谓多模态,即拥有处理文字、图片、音频、视频多种形式的能力。

2月底,微软在一篇论文中提到,“语言、多模式感知、动作和建模的大融合是通向通用AI的关键一步……作为智能的基本组成部分,在知识获取方面,多模态感知,是实现通用AI的必要条件。”

对于以GPT为代表的大型语言模型的未来发展,我们也能窥得一二。分析认为,ChatGPT现在表现出来的能力大多是“大脑”的能力,尚不具备“双手”的能力,未来可以与和硬件机器人联结起来。例如,3月6日,来自谷歌和德国柏林工业大学的一组AI研究人员公布的视觉语言模型PaLM-E就能将视觉和语言集成到机器人控制中。

华映资本投资董事刘天杰在此前接受每经记者采访时就曾表示,他看重的就是未来更多各行各业能够去做AI赋能的应用,比如SaaS、RPA(机器人流程自动化)以及全局的智能机器人等。“也就是说,用AI指挥实体的东西去执行操作。这一块涉及到大模型的多模态输出和输入,是一个相对来说比较前沿的领域,也是大模型没有完全解决的领域。”他说道。

随着AI以超越人类想象的速度发展,互联往上关于“硅基生物”是否会替代的人类的探讨也变得十分热闹。

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识

图片:微博

周鸿祎认为,硅基生物会变成食物链的顶端,它们比人类更能扛得住宇宙射线、更适合星际旅行、寿命更长。

他表示,“最悲观的结果是,就像恐龙的消失为哺乳动物打下了基础,硅基生物的诞生也是一种命中注定。人类作为碳基生物培养了程序员、创造了超级电脑,为碳基生物的诞生打下基础,之后可能就不是碳基生物所能控制的了。”

在周鸿祎看来,未来的AI如果跟工业互联网、智慧城市车联网等结合,那就相当于把整个世界给控制住了。“留给人类的时间不多了。”他说道。

另一方面,随着千人联名信有关AI风险的议题置于聚光灯下,未来全球势必将收紧AI监管。3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI处理意大利的用户信息,同时对此立案调查。

在此之前,联合国教科文组织也已于3月20日发出呼吁,各国政府应就AI发展毫不拖延地实施全球伦理框架,这也是联合国首次就AI发展的伦理风险对所有193个会员国提出要求;3月29日,英国也提交了《支持AI创新的监管方法》政策文件。


【内容声明】文章内容由新财梯网编辑整理,新闻来源:每日经济新闻

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识相关拓展阅读

30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识(谷歌聊天机器人引争议,AI伦理界定该如何明确?)

谷歌聊天机器人引争议,AI伦理界定该如何明确?

答:但是这种情绪化的反应是可以通过AI的智能学习程序以及数据库达到类似的效果的,并不能证明这个a就有自己的想法。怎么界定AI的人格化问题,也就是说一个智能的AI机器人它本身到底应该区分成一个什么样的客体?是一个单纯人类......更多详细

什么是人工智能,主要做什么的?

答:人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、......更多详细

以上就是好财梯网整理的关于30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识(谷歌聊天机器人引争议,AI伦理界定该如何明确?)的全部内容,希望你在了解【今日财经:#硅基时代要来了?#解读】的基础上可以帮助到你,让我们一起学习理财知识。

标签: 30岁男子频繁与聊天机器人对话后自杀!AI已有自主意识

理财有风险,投资需谨慎。
Copyright © 2016-2020 ok24k.com All Rights Reserved. 皖ICP备2022016496号-9