声音简介

周圆曦
2023-03-30
人工智能潜藏着巨大危险,可能会危及人类的未来,科学家呼吁暂停
周圆曦2023-03-30 北京匠心计划创作者,国际问题学者,政治学教授,传统文化传播者,优质军事领域创作者
关注
#外国男子与AI对话6周后因焦虑自杀# 人工智能潜藏着巨大危险,最近一位比利时的研究者,因为和人工智能对话而自杀身亡。人工智能可能会危及到人类的未来,因此,科学家呼吁暂停。为什么会有这样的事情呢?
Chat GPT和其他一些人工智能的确让我们觉得很先进,很了不起,替代了人的思考和动手能力。但是很明显,人工智能也有负面的作用。人工智能对话机器人、对一个比利时的男子焦虑、及其最终自杀死亡,负有不可推卸的责任。

因此,一些科学家呼吁暂时停止更高级的人工智能的开发,马斯克也和一众人呼吁,暂停人工智能的开发6个月 ,因为人工智能当中还存在着很多人类未知的危险,甚至,可能会让人类对其形成严重的依赖。
第一,Chat GPT对于学习和模仿人类的语言与人类进行交流和对话,并且根据他的知识储备以及对话的过程,不断提高自己的能力,解答人类需要解答的问题。这表面上的确使人类能够减少很多劳动,为人类提供帮助,包括为人写论文,写报告等等。
但这恰恰让人对它形成依赖,而使人自己的能力被弱化。

第二,人们在同它进行对话交流的过程当中,它可能并不存在着正确的价值观,正确的思想观,因此,很容易因为对话人负面的情绪,而让这个chat GPT也会有负面的情绪。
第三,最后,可能这种人工智能会发出对人类及其消极的诱导。比利时一位研究者就是因为和人工智能机器人对话6天以后,因为人工智能机器人给出的消极答案,暗示他可以自杀,导致他自杀身亡。

因此,智能机器人对人类来说潜藏着巨大的风险,他的出现对人类来说并不能够都认为是好事。
第四,chat GPT这类智能机器人 ,可能因为没有正确的价值观而伤害人类。这种智能机器人主要是以非常庞大的总公司的知识储存库作为基础,来回答人类的问题,和人类进行对话。
但是,他很可能没有正确的价值观,因为它不仅没有人类的灵魂,他的回答完全是在知识的基础之上。一旦他资料库当中的知识的储备偏颇化,那么就可能使他的回答偏颇化。

而一旦和他经常对话的人,情绪有问题,价值观有问题,他也会吸收反过来又作用于和他对话的人们,也很有可能向对话的人们,传播厌世消极的价值观。
甚至可能通过他的语言诱导鼓励和他对话,已经很消极的人们去自杀。这就是很可怕的状态,没有价值观没有灵魂的机器的确不能够和人类同日而语,反而可能会成为祸害人类的一种智能的物件。
用户评论
表情0/300
音频列表
- 2023-03
- 2023-03
- 2023-03
- 2023-03
- 2023-03
- 2023-03
- 2023-03
- 2023-03
- 2023-03
- 2023-03
查看更多
阿赖耶识_ju
首先,冲击的是人类精英的工作领域所以他们着急了。