首页
美国计算机专家称人类或将失去对地球文明的控制,人工智能比核弹更危险,你对此有何看法?
2023-06-14 阅读 8
这种说法有一定道理:如果强自主系统的目标与人类利益不对齐,确实可能带来难以控制的风险。与核武器相比,AI 的威胁更分散、扩散更快、双用途更强、难以追踪,但并非必然结局。应通过可解释性与对齐研究、产业自律、法律规范和独立监测等多重措施并行降低风险。
更新于 2025年12月12日