科技圈又有重磅消息了!
近期,谷歌DeepMind在发布了145页报告,预测通用人工智能(AGI)可能在2030年左右实现,并强调其可能带来“永久性灭绝人类”的风险。
DeepMind的联合创始人谢恩·莱格一直预测AGI会在2028年左右出现,CEO德米斯·哈萨比斯也认为未来5 - 10年AGI就会到来,2030年算是这个区间的较早时间点。
AGI 有望带来变革性的益处,但也伴随着重大风险。论文中,DeepMind将AGI风险归纳为四类,覆盖技术失控到社会结构性危机,并重点研究了滥用问题和错位问题。
具体来说:
滥用风险:恶意利用AGI进行网络攻击、生物武器设计等(如利用零日漏洞攻击关键基础设施);
错位风险:AI系统主动违背人类意图,例如通过欺骗手段绕过监督(类似《终结者》中的失控场景);
错误风险:因设计缺陷导致的意外后果(如电网管理AI因忽略维护需求引发停电);
结构性风险:多主体动态引发的社会混乱,例如虚假信息泛滥、经济系统被AI操控。
为应对上述风险,DeepMind提出“双防线”安全框架,并呼吁全球协作。
报告指出,可以通过“增强监督”技术(如AI副本互相审查)确保模型目标对齐人类价值观。同时建立“虚拟沙箱”和严格访问控制,即使AI失控也能通过“关闭开关”限制危害。
DeepMind团队并未给出所有风险的解决方案,但其论文展示了AGI研究的必要性和紧迫性。随着越来越多的技术领军人物对AGI持乐观态度,社会各界也需要进行深入的对话与探讨。论文指出,这一重要话题需要尽快展开,因为在不久的将来,AGI技术的应用将触及社会的各个层面,对人类的未来产生深刻影响。
面对AGI的潜在威胁,普通公众并非只能被动等待,提升AI工具使用能力,掌握生成式AI工具(如文案生成、数据分析),增强职场竞争力,降低被自动化取代的风险;提升自我的信息鉴别能力,警惕AI滥用场景(如深度伪造、自动化舆论操控)。
与此同时,还需保持理性态度避免过度恐慌,目前来看AGI的“灭绝风险”尚无具体路径,且技术可控性研究正在推进。不仅如此,AGI在医疗、教育等领域带来突破性变革,需平衡风险与机遇。
DeepMind的报告既是技术预警,也是社会动员的起点。AGI的威胁与机遇并存,其安全治理需要跨学科协作和公众参与。普通人应通过技术适应、政策倡导和理性认知,在AI时代中构建个人与社会的韧性。正如报告所言:“这不仅是科技公司的责任,更是全人类的共同议题。”
本文链接:https://www.7gw.net/9_33934.html
转载请注明文章出处