北京时间11月30日上午,经历被罢免事件后,重返OpenAI的山姆奥特曼发布公开信,强调OpenAI当前的三个当务之急,第一个是AI的安全发展,第二个是改善产品和服务,第三个是重建董事会。其中,AI安全发展被置于首要位置。
去年的11月30日,OpenAI首次对外发布了ChatGPT,有人把这一事件的重要性和十万年前人类走出非洲相提并论。国内外的创业者和企业家,都争相展开对AI技术的研究和开发,担心自己在这轮新技术的革命中落后。
短短一年时间,人们关于技术的落后焦虑还未完全解除,安全焦虑逐渐占领了人类的思想高地。而奥特曼的公开信正是这一情感转变的分水岭。
相比之下,目前国内仍处在快速追赶技术的阶段。一位中国投资人在年初去到硅谷,他认为国内外对AI议题的关注有很大不同:国内生态圈被ChatGPT带来的狂热震撼,都在琢磨怎么搞应用;而硅谷生态圈都在考虑怎么限制AI,他们注重的是安全而不是速度。
造成这种差异的主要原因在于各自在AI发展阶段所处的位置不同,硅谷一直是全球AI创新的中心,甚至有一种说法:硅谷在替全世界做科研,硅谷对于AI领域的前沿技术是有着更深刻理解的。中国企业则更擅长跟随战略,目前国内大多数公司还是在国外开源模型的基础上做创业。在移动互联网时代,我们曾依靠强大的市场优势和快速的落地应用创造了诸多巨型企业,很多创业者认为这种经验在这轮新的创业潮流当中同样适用。
但现实生活中,人们已经开始感受到人工智能带来的一些负面影响,首当其冲的就是AI诈骗。如今,在谷歌搜索栏中输入“AI诈骗”,可以检索出大约2900万条结果。国内每隔一段时间,都会有AI诈骗新闻登上热搜。其中最引人注目的就是今年五月,一起诈骗金额高达430万的AI换脸案件。
骗子通过人工智能技术,能够更加巧妙地进行欺诈活动,利用换脸、语音合成等技术伪装身份,让受害者难以分辨真伪。这种情况不仅给个人造成了巨大的经济损失,还给社会安全带来了严重的威胁。
其实国内关于AI安全的关注也从未停止。在今年世界互联网大会乌镇峰会现场,360集团创始人周鸿祎表达了自己对于人工智能安全议题的看法:他认为数字化技术是把双刃剑,是软件就一定会有瑕疵,就会有漏洞,有漏洞就有可能被攻击。人工智能比一般的数字化技术更复杂,大模型的内容安全等问题值得慎重对待。
清华大学心理系系主任刘嘉在近期的一次专访中表示,在AI和人类对话过程中,就会涌现出“你”和“我”的概念,从而把自己和外面的人区别开来,而一旦“涌现”出“我”的概念之后,意识就会“涌现”。当AI拥有了意识,它就会成为全新的智能物种,而不仅仅是拥有很多很强大能力的工具。
刘嘉还引用了人类历史上智能物种博弈的故事:直立人消灭了能人,尼安德特人消灭了直立人,而智人消灭了尼安德特人。刘嘉最后总结说:智能物种的竞争会出现零和博弈,结果只有你死我生。
言下之意,如果人工智能涌现出了意识,那人类和人工智能之间也必有一战。
当未来人类回归这段历史时,或许会意识到,AI诈骗问题只是人工智能发展中的一道小坎,社会的担忧和反思促使了更为健康和可持续的人工智能发展道路。今天正在经历的一切都将成为历史的一页,记录着人类与技术共同进步的轨迹。
以上内容来源于《中国企业家》杂志。
听完之后,你觉得AI还会带来哪些安全隐患?欢迎大家留言告诉我。
莞769
sora.com openai chatgpt