OpenAI 称超级人工智能可能在这个十年出现,或导致人类灭绝,你对此有何看法?
2023-07-07 阅读 2
总体来看,这种警告既有依据也充满不确定性。支持者的理由是模型能力快速提升、目标对齐困难、以及被滥用或出现意料外连锁效应可能带来严重后果;反对者则指出现阶段仍有大量工程、认知和资源障碍,短期内出现能导致人类灭绝的系统并非板上钉钉。现实可行的做法是认真对待这种风险并同步推进安全与能力研究:加强对齐、稳健性和可解释性研究,广泛开展红队测试与独立评估,推动行业透明与伦理共识,普及公众理解与应急准备,从技术与社会层面把不确定性降到最低。
更新于 2025年12月20日