谷歌推出针对AI歧视的新课程!60分钟ML公平自学训练模块|资源

AI资讯1年前 (2023)发布 AI工具箱
278 0 0

有太多的AI都充满了歧视与偏见。

比如,亚马逊招聘AI歧视女性;谷歌的推荐系统偏向于给女性推送低薪广告等等。

针对这些现象,很多人都发表了愤慨,但鲜有人采取行动去消除这些偏见。

但谷歌不一样,作为一个曾经拿着“Don’t be evil”当口号的企业,最近放出了一个课程:机器学习公平自学训练模块,目的就是让更多的人了解偏见,评估偏见,从而减少偏见。

课程大概有60分钟,已经作为谷歌机器学习速成课程(MLCC)的一部分公开发布了。

关于课程

根据官方介绍,认认真真完成这部分课程的同学,将会得到以下的能力:

  • 可以通过数据,在机器学习模型中将不同类型的人类偏见表现出来
  • 在训练模型之前,识别数据中存在潜在人类偏见的区域
  • 掌握一种评估模型的方法,不仅只评估模型整体性能,还能评估模型的偏见

整个课程主要有六部分组成,分别是:

1、视频讲座。课程形式:视频。讲授者是Margaret Mitchell,谷歌AI的高级研究科学家。

2、偏见的类型。课程形式:文档。主要内容是一些关于偏见类型的定义与解释,每一种偏见下面都给了一个案例。

3、识别偏见。课程形式:文档。主要内容是通过案例分析,来识别偏见。

4、评估偏见。课程形式:文档。有具体的案例和具体的数据,来帮助评估偏见。

5、编程练习。课程形式:实操。通过实际练习来演示如何以公平的方式去审查数据集,并公平地苹果模型。

6、小测验。课程形式:试卷。4个题目,来帮你检查自己的学习成果。

相关传送门

课程学习地址:

https://developers.google.com/machine-learning/crash-course/fairness/video-lecture

一个小提示:中文版即将推出,但没有给出明确的时间。

© 版权声明

相关文章

暂无评论

暂无评论...