最近,一封来自超过 350 位 AI领域的权威人士的联名公开信引起了全球科技界的关注。这封公开信呼吁关注人工智能(AI)带来的灭绝风险,将AI视为堪比疫情和核战争等其他社会规模的风险。该声明只有一句话,总共 22 个单词,翻译过来就是:“减轻人工智能带来的灭绝风险,AI应该与大流行病和核战争等其他社会规模的风险一样,成为一个全球性的优先事项。”
OpenAI首席执行官 Sam Altman、谷歌 DeepMind 首席执行官 Demis Hassabis 和Anthropic首席执行官 Dario Amode 三大AI公司掌门人等知名人士均在联名公开信中签字。
中国工程院院士、清华大学智能产业研究院(AIR)院长 张亚勤 ,中国科学院自动化研究所人工智能伦理与治理研究中心主任 曾毅 也在其中。
不是首次呼吁与讨论
这并不是第一次关于AI风险的公开讨论。今年 3 月份,马斯克、Geoffrey Hinton 等多位科技大佬曾发表联名公开信,呼吁 暂停开发比 GPT-4 更强大的人工智能系统,至少停半年时间 。当时他们强调,AI在一般任务上变得与人类一样有竞争力,但目前还没有对其进行相应规划和管理。
当时的联名公开信中提到的问题包括 AI 可能带来的偏见、歧视以及取代部分职业的可能性等。同时,他们还呼吁为更多的专家和公众人物创造共同知识。
有兴趣的小伙伴可以移步这里: 呼吁暂停 ChatGPT 研发后,马斯克狂购 10000 块显卡要搞 TruthGPT (qq.com)
监管要跟上,但是也不用太担心
对于 AI 是否可能灭绝人类这个问题,不同的人可能会有不同的看法。一些专家认为,AI 确实存在潜在的威胁,但是这种威胁是可以控制和管理的。另一些人则认为,AI 的发展可能会导致人类的灭亡。
无论哪种观点,我们都不能忽视 AI 所带来的风险。AI 已经在很多领域取得了重大进展,比如医疗保健、交通、金融等等。但是,随着 AI 技术的不断发展,它也会变得越来越复杂和难以控制。如果我们无法有效地管理和控制 AI 的风险,那么它可能会对人类构成严重的威胁。
因此,我们需要采取措施来减轻 AI 带来的灭绝风险。这需要政府、企业和学术界共同努力。政府需要加强对 AI 的监管和管理,确保其安全性和可控性。企业需要投资于研发更加安全和可靠的 AI 技术,并遵守相关的法律法规。学术界需要加强研究,探索如何更好地管理和控制 AI 的风险。
总而言之,言而总之,AI 是一个非常重要的技术,它可以为人类带来很多好处。但是,我们也需要认识到它的风险和挑战。只有在政府、企业和学术界的共同努力下,我们才能更好地管理和控制 AI 的风险,确保它为人类带来更多的好处而不是威胁,确保它是辅助而不是替代。
尽量别造成大规模失业,不然社会可能要动荡起来了!