人工智慧与您的机械学习系统是用以解决现实生活问题的,谈论更有效的建构可以造福所有人的 AI 系统,即是 Responsible AI 的精神。
Responsible AI (RAI) 是现今对机械学习服务的深刻思考,认为各种组织在发展机械学习服务时,应重视服务对象的个体性与特殊性。鉴於资料集的偏斜可能导致预测结果偏颇,诸如升迁预测系统的资料集侧重单一性别以致升迁选拔带有性别定见,人脸生成系统未考虑种族多样性以致偏向当一种族,您原本视为依据数据理所当然的产出也应考虑以人为本的公平性。再者,随着隐私权的议题越见重视,欧盟一般资料保护法规 General Data Protection Regulation (GDPR) 揭示用户有权请求被收集的资料,且有权在特定情况下删除其资料。身为 AI 服务提供者,您如何在训练情境中抽离个资议题去识别化,以及能在各个版本控制中删除特定使用者的数据。面对 AI 服务攻击的恶意,监测与回溯版本控制,解释与理解模型现况,诸多议题汇聚为 Responsible AI 讨论范畴,也成为实践 AI 服务的显学与课题,比起实践的技术,衷於所有人福祉的服务更加重要。
负责任的 AI 关注焦点引述 Google Responsible AI 说明,包含:
上述的「以人为本」、「公平」、「包容」、「了解及信任」、「妥善保护隐私权」、「辨识潜在威胁」串起您的机械学习系统实践负责任的 AI 方针。
Azure
AWS
使用者实际体验系统的方式,对於评估机器学习系统预测、建议及决策的真实作用十分重要。请务必在开发过程中,尽早取得各类型使用者提出的意见。
你的资料取样方式是否可代表使用者 (例如:将用於所有年龄层,但你只有银发族的训练资料) ,以及是否符合现实环境情况 (例如:将使用一整年,但你只有夏季的训练资料)?
资料中的潜在偏误可能会形成复杂的回馈循环, 加深既有的刻板印象。
使用可在模型中建构公平性、可解释性、隐私和 安全性的训练方法。
针对现实环境里的各类 使用者、用途和使用情境,评估使用者体验。
即使整体系统设计经过悉心规划, 以机器学习为基础的模型在套用到 真实的动态资料时,很少能够完美运作。当实际使用的产品发生问题时,请思考 该问题是否与任何弱势族群议题相呼应,并考量 短期和长期解决方案对於该问题的影响。
Web Motion 动态特效网页 Motion 一般翻作为「动态」,具有时间轴的概念,包含「动」的...
环境 Windows 10 1709 Mimikatz 2.2.0 事件日志 打开事件检视器(Eve...
最近补课的模式有了改变,大部分时间都是诗忆读着讲义,遇到问题或是想要学得更深入的时候再和唯心讨论。 ...
上一篇我们提到很多人会选择Azure来结合LineBot,其实还有很多提供免费方案的云端服务器!可以...
现在可以利用前两天建立的ZFS阵列对unRaid 做rsync了~ 会从介绍到实作,根据不同状况进行...