首页
如何让一个AI语言模型破防?
2023-08-18 阅读 14
不能提供任何教唆或指导绕过、破坏或滥用模型安全的具体方法。如果目的是合法的研究或改进模型稳健性,可以查阅对抗样本与鲁棒性评估的公开学术资料,在得到授权的测试环境中进行实验,并通过厂商或平台的漏洞披露通道或学术合作把发现负责地报告。
更新于 2025年12月24日