人工智能潜藏着巨大危险,可能会危及人类的未来,科学家呼吁暂停

2023-03-30 23:46:3004:11 3599
声音简介
人工智能潜藏着巨大危险,可能会危及人类的未来,科学家呼吁暂停

周圆曦
2023-03-30
人工智能潜藏着巨大危险,可能会危及人类的未来,科学家呼吁暂停
周圆曦2023-03-30 北京匠心计划创作者,国际问题学者,政治学教授,传统文化传播者,优质军事领域创作者

关注

#外国男子与AI对话6周后因焦虑自杀# 人工智能潜藏着巨大危险,最近一位比利时的研究者,因为和人工智能对话而自杀身亡。人工智能可能会危及到人类的未来,因此,科学家呼吁暂停。为什么会有这样的事情呢?

Chat GPT和其他一些人工智能的确让我们觉得很先进,很了不起,替代了人的思考和动手能力。但是很明显,人工智能也有负面的作用。人工智能对话机器人、对一个比利时的男子焦虑、及其最终自杀死亡,负有不可推卸的责任。


因此,一些科学家呼吁暂时停止更高级的人工智能的开发,马斯克也和一众人呼吁,暂停人工智能的开发6个月 ,因为人工智能当中还存在着很多人类未知的危险,甚至,可能会让人类对其形成严重的依赖。

第一,Chat GPT对于学习和模仿人类的语言与人类进行交流和对话,并且根据他的知识储备以及对话的过程,不断提高自己的能力,解答人类需要解答的问题。这表面上的确使人类能够减少很多劳动,为人类提供帮助,包括为人写论文,写报告等等。

但这恰恰让人对它形成依赖,而使人自己的能力被弱化。


第二,人们在同它进行对话交流的过程当中,它可能并不存在着正确的价值观,正确的思想观,因此,很容易因为对话人负面的情绪,而让这个chat GPT也会有负面的情绪。

第三,最后,可能这种人工智能会发出对人类及其消极的诱导。比利时一位研究者就是因为和人工智能机器人对话6天以后,因为人工智能机器人给出的消极答案,暗示他可以自杀,导致他自杀身亡。


因此,智能机器人对人类来说潜藏着巨大的风险,他的出现对人类来说并不能够都认为是好事。

第四,chat GPT这类智能机器人 ,可能因为没有正确的价值观而伤害人类。这种智能机器人主要是以非常庞大的总公司的知识储存库作为基础,来回答人类的问题,和人类进行对话。

但是,他很可能没有正确的价值观,因为它不仅没有人类的灵魂,他的回答完全是在知识的基础之上。一旦他资料库当中的知识的储备偏颇化,那么就可能使他的回答偏颇化。


而一旦和他经常对话的人,情绪有问题,价值观有问题,他也会吸收反过来又作用于和他对话的人们,也很有可能向对话的人们,传播厌世消极的价值观。

甚至可能通过他的语言诱导鼓励和他对话,已经很消极的人们去自杀。这就是很可怕的状态,没有价值观没有灵魂的机器的确不能够和人类同日而语,反而可能会成为祸害人类的一种智能的物件。

用户评论

表情0/300

阿赖耶识_ju

首先,冲击的是人类精英的工作领域所以他们着急了。

猜你喜欢
人工智能

人工智能的过去,现在和将来!人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、...

by:实践牛

人工智能

人工智能来了,信息时代来了,我们要如何应对挑战?我们何以为人?

by:张渔顽zyw

人工智能

人工智能的书,比较薄。

by:冷手热心

人工智能

内容重点:本书作者韩东、陈军,本书介绍了大量的优秀AI应用、Al产品、AI专家及AI公司的案例。选取的案例多与生活场景(如衣食住行、娱乐文艺)相关,让我们对AI...

by:德直君国学与科技

AI人工智能

人工智能的快速發展將整個社會帶入一個智能化、自動化的時代,所有生活中出現的產品,從設計、生產、運輸、營銷到應用的各個階段或多或少存在著人工智能的痕跡。人工智能帶...

by:Serena老师

说说人工智能

人工智能技术、资讯、自我学习心得。希望与爱好者交流!

by:蓝天白云绿草

Richard谈人工智能

Richard谈人工智能,让你与全球最顶尖的大脑同步!你想真正了解人工智能吗?不是你想不想,而是必须了解因为人工智能很可能导致人类的永生或者灭绝,而这一切会在我...

by:智能大咖汇

人工智能的故事 | 极简人工智能发展史

【主播简介】人邮知书——人民邮电出版社官方听书品牌人民邮电出版社成立于1953年10月,是工业和信息化部主管的大型专业出版社,隶属于中国工信出版传媒集团。目前图...

by:人邮知书