Meta开源FACET工具,用于评估AI模型中的种族和性别偏见

2023-09-02 09:47  |  来源:IT之家  |  编辑:张璠  |  阅读量:16011  |  

,Meta 公司为了缓解当前很多计算机视觉模型对女性、有色人种存在系统性偏见问题,近日推出了名为 FACET 的全新 AI 工具,用于识别计算机视觉系统中的种族和性别偏见。

FACET 工具在经过训练之后可以回答复杂问题,例如识别出对象为男性之后,可以进一步识别出滑板运动员,以及浅色、深色皮肤。

Meta 以 FACET 来评测该公司所开发的 DINOv2 模型与 SEERv2 模型,以及 OpenAI 的 OpenCLIP 模型,整体而言,OpenCLIP 在性别上的表现优于其它模型,而 DINOv 则在年龄与肤色上有较佳的判断力。

FACET 的开源将有助于研究人员执行类似的标竿测试,以理解自己的模型中所存在的偏见,亦可用来监控为了解决公平问题而采取的缓解措施所造成的影响。IT之家在此附上 Meta 新闻稿地址,感兴趣的用户可以深入阅读。

广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

上一篇: Mozilla请愿微软提高新条款透明度,专家团队无法确认其使用用户数据训 下一篇:返回列表
ad4
ad3