感谢网友 咩咩洋、Diixx 的线索投递!
10 月 26 日消息,谷歌公司于 10 月 24 日发布博文,宣布推出 SAIF 风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。
工具涵盖多个主题,包括:
-
AI 系统的训练、调优和评估
-
对模型和数据集的访问控制
-
防止攻击和对抗性输入
-
生成性 AI 的安全设计与编码框架
用户在回答问题后,工具会立即生成一份报告,突出 AI 系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。
每个风险都附有详细解释及建议的缓解措施,此外用户还可以通过互动 SAIF 风险地图了解在 AI 开发过程中如何引入与缓解不同的安全风险。