NVIDIA 初创加速计划,免费加速您的创业启动 了解详情
写点什么

AI/ML 算法的公平性,偏差和对社会/经济的影响

  • 2020-02-05
  • 本文字数:2360 字

    阅读完需:约 8 分钟

AI/ML算法的公平性,偏差和对社会/经济的影响

ArchSummit 北京 2019 大会上,陈海春讲师做了《AI / ML 算法的公平性,偏差和对社会/经济的影响》主题演讲,主要内容如下。


演讲简介


Fairness, bias, and social/economical impact of AI/ML algorithms


“With great power comes great responsibility”, as AI/ML especially deep learning continues to advance in research and expand to commercial applications, AI/ML algorithms are making big social economical impact to people’s lives, from deciding what health insurance policy a person can get, to whether a bank decides to issue a loan to a borrower, or what content a person can see on a web site. With even a slight bias, the algorithms can amplify unfairness or even injustice. So how do we unleash the power of AI/ML to improve people’s lives with fairness and justice, while not tying the hands of the algorithm developers? In this talk, I will talk about how bias creeps into your ML models, both consciously and unconsciously, both from data and from the code, how to address them with novel debias techniques and blackbox model interpretation components, and how to design fairness principles into the architecture of your ML platform, all by using real world examples, cutting edge research results, and practical techniques in algorithm and architecture design. At the end of the talk, you should have a higher level of awareness of bias in AI/ML algorithms, recognize the value of fairness instead of viewing it as an inconvenience, have a mindset of how to address them in your design of ML platform and solutions.


内容大纲


  1. Overview of fairness and bias in AI/ML

  2. Unconscious bias in data

  3. Unconscious bias in algorithms

  4. Well-known trust busters

  5. Current state of the art: research and industry

  6. Case study: B2B AI/ML solutions for digital experience optimization

  7. Identification of protected groups

  8. Generic measurement of fairness

  9. Innovation to correct bias while minimizing accuracy loss

  10. Innovation to interpret black-box model results

  11. Opportunities and challenges in generalizing fairness practices in AI/ML platforms


参考译文


演讲简介


俗话说“权力越大责任越大”。随着 AI / ML(尤其是深度学习)在研究中不断发展并扩展到商业应用,AI / ML 算法对人们的生活日渐产生巨大的社会经济影响,例如保险公司卖给消费者什么样的健康保险,银行是否决定向借款人发放贷款,甚至在网站决定访问者看到什么内容都是由算法决定。即使有轻微的偏差,这些算法都会加剧社会的不公平甚至不公正。那么,如何在不束缚算法开发人员创新的前提下,发挥 AI / ML 的力量,以公平和正义的方式来改善人们的生活呢?


在本次演讲中,我将讨论数据和算法如何有意识或无意识地将偏差渗入到 ML 模型中,如何使用新颖的 Debias 技术和黑盒式模型解释组件来解决这个问题,以及如何将公平原则融入到 ML 平台的架构设计中。所有这些都通过真实案例,前沿研究结果以及算法和架构设计中的实用技术来讲述,以帮助大家对 AI / ML 算法中的偏差有更高的认识,认识到公平的价值,而不是将其视为负担,同时也了解如何在 ML 平台设计中处理这些问题。


内容大纲


  1. AI / ML 中的公平性和偏差概述

  2. 数据中的无意识偏差

  3. 算法中的无意识偏差

  4. 著名的信任破坏案例

  5. 最新的研究和工业技术案例

  6. 案例研究:用于数字体验优化的 B2B AI / ML 解决方案

  7. 确认受保护群体

  8. 公平性的衡量方法

  9. 最小精度损失的去偏差创新方法

  10. 黑箱式模型解释创新方法

  11. 在 AI / ML 平台中推广公平实践的机会和挑战


讲师介绍


陈海春


Netflix Manager, Content Knowledge, Data Science and Engineering


I am managing Content Knowledge Graph team at Netflix where we apply deep learning techniques in NLP and CV to curate the best knowledge about entities in the entertainment world, which in turn is used in content/talent discovery and acquisition. We leverage state-of-the-art models but also develop our own technology whenever necessary. Prior to Netflix, I led data science teams as a group manager at Adobe Inc. where my teams provided AI/ML solutions to enterprises such as Nike and Disney. Prior to Adobe I worked as a senior machine learning engineer at Google where I applied AI/ML techniques to combat abuse and anomaly problems for highly impactful products such a AdWords and Google Play. Prior to Google, I worked as Software Architect at Synopsys Inc. where I applied algorithms and system design to solve simulation problems for semiconductor design and manufacturing.


参考译文:我在 Netflix 带领内容知识图谱团队,结合 NLP 和 CV 中的深度学习技术,来收集有关娱乐界个体的最准确知识,然后利用这些知识帮助我们发现和招募优秀的娱乐内容和人才。我们尽可能采用当前最先进的模型,如有需要也会开发自己的技术。在加入 Netflix 之前,我曾在 Adobe Inc. 领导数据科学团队,为耐克和迪斯尼等企业提供 AI / ML 解决方案。在此之前,我在 Google 担任高级机器学习工程师,使用 AI / ML 技术来解决 AdWords 和 Google Play 等产品中的滥用和异常行为侦测。在 Google 之前,我曾在 Synopsys Inc. 担任软件架构师,应用算法和系统设计来解决半导体设计和制造中的仿真问题。












完整演讲 PPT 下载链接


https://archsummit.infoq.cn/2019/beijing/schedule


公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2020-02-05 19:34801

评论

发布
暂无评论
发现更多内容

隐私计算技术|私有信息检索(PIR)及其应用场景

隐语SecretFlow

大数据 AI 隐私计算 开源社区 私有信息检索

NFT铸造平台模式系统开发详情介绍[源码搭建]

V\TG【ch3nguang】

NFT 数字藏品开发

开箱即用!教你如何正确使用华为云CodeArts PerfTest!

华为云PaaS服务小智

云计算 软件开发 性能测试 华为云

超越界限:大模型应用领域扩展,探索文本分类、文本匹配、信息抽取和性格测试等多领域应用

汀丶人工智能

信息抽取 自然语言模型 大语言模型 ChatGLM-6B 文本匹配

干货分享|可证明安全的隐私计算

隐语SecretFlow

大数据 AI 安全 隐私保护 隐私计算

GPU荒漠,算力短缺背后的时间竞赛与解决方案|TE解读

TE智库

人工智能 AI gpu 算力

站在源码的角度看多人语音厅房间系统

山东布谷网络科技

直播源码

区块链上地址与银行账户有什么区别?

BSN研习社

大型集团企业数据治理方案,以“应用驱动”的数据治理策略 | 行业方案

袋鼠云数栈

大数据 数字化转型

华为云数智新消费创新峰会2023,我们在这里!

云智慧AIOps社区

人工智能 运维 大模型 GPT

多次复制和粘贴工具:Paste for Mac免激活下载

mac大玩家j

mac剪切板工具 剪切板工具 剪切工具

Excel变天!微软把Python「塞」进去了,直接可搞机器学习

Openlab_cosmoplat

人工智能

智慧仓储 | 你所忽略的系统安全性问题,可能很 “致命”……

网安云

系统安全 智慧仓储 中小企业

揭秘YouTube 的环境模式发光效果

汽车之家客户端前端团队

CSS youtube

如何维护大型 Next.js 应用程序

汽车之家客户端前端团队

next

万字详解云计算中的云网络技术

华为云开发者联盟

云计算 后端 华为云 华为云开发者联盟 企业号 8 月 PK 榜

人工智能与软件开发的未来

这我可不懂

人工智能 软件开发

波卡链质押挖矿模式系统技术开发合约源代码示例

V\TG【ch3nguang】

区块链技术应用开发 质押挖矿 奖励分红

如何优雅的给柯里化函数添加类型标注

汽车之家客户端前端团队

函数柯里化

合约交易所系统软件开发详情(源码搭建示例)

V\TG【ch3nguang】

交易所开发 交易所搭建

支付宝小程序云效能:四大基于小程序生态的解决方案

TRaaS

Kurator,你的分布式云原生解决方案

华为云开发者联盟

云原生 后端 华为云 华为云开发者联盟 企业号 8 月 PK 榜

OpenHarmony 分布式硬件关键技术

OpenHarmony开发者

OpenHarmony

SUI 将通过 SUI Foundation 资助 Footprint Analytics 解析其公链数据,为生态系统提供支持

Footprint Analytics

区块链 公链

AI/ML算法的公平性,偏差和对社会/经济的影响_ArchSummit_陈海春_InfoQ精选文章