可信赖的系统
可信赖性是 AI 系统赢得用户信任的基石。本章系统性地探讨构建可信赖 ML 系统的原则,包括负责任 AI 的伦理考量、系统安全性、隐私保护以及可持续性设计。我们将学习如何识别和缓解偏见、确保模型公平性、实施安全防护措施,并评估系统对环境和社会的影响。通过深入案例分析和最佳实践指南,您将了解如何在设计和部署 ML 系统时融入信任元素,适用于关注 AI 伦理和社会影响的开发者、政策制定者和研究人员。
章节目录
探索如何将负责任的 AI 原则转化为具体的工程要求,确保机器学习系统具备公平性、透明性、可问责性,并与社会价值观保持一致。
探索如何将环境可持续性纳入机器学习系统的设计、开发与部署全流程,将资源效率作为与性能和成本同等重要的核心约束,打造可持续的 AI 工程体系。
探索如何在极端资源受限环境下,利用机器学习系统应对关键社会与环境挑战,融合可信 AI 原则,打造具有全球影响力的解决方案。