精靈神諭 1.7.10

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 2|回復: 0

如何避免人工智能的偏见?

[複製鏈接]

1

主題

1

帖子

5

積分

新手上路

Rank: 1

積分
5
romanaratryseo@ 發表於 2024-1-15 13:44:31 | 顯示全部樓層 |閱讀模式

为了不带偏见地开发人工智能,通常做出的第一个决定是避免敏感变量。然而,这些可能与其他使用的并间接再现相同偏差的相关。因此,出现了不同的公平指标来了解一个群体是否可能受到歧视。 解释健康算法为了理解它们,举了一个模型的例子,该模型决定给予谁信任,并且可能存在性别偏见,可以通过以下方式衡量: 独立标准,检查以性别变量为条件的模型预测没有非常不同的值。它们并非绝对正确,因为它们没有考虑某些信息。 分离标准,使模型预测的比例相似,不仅以该人是男性还是女性为条件,还以是否还清了信用为条件。 充足性标准,使得男性和女性偿还信贷的比例相似。 我们如何使用这些指标?我们可以在模型开发过程中的不同点应用公平性指标:在分析输入数据时,纠正可能的不平衡;在模型训练期间,或者如果模型已经部署,则可以使用公平技术来纠正偏差。

可解释的人工智能 近年来,无论是在技术层面还是在用例层面,人工智能的 越南数据 可解释性也引起了越来越多的兴趣。即使在法规范围内,也评论说,RGPD 有文章明确表示,当人工智能系统做出敏感决策时,最好给出解释。 在可解释的人工智能之前,已经有人谈论可解释和透明的模型,但据专家称,这还不足以让用户理解他们的决策。“例如,如果我们想为预测提供解释,我们必须将可解释模型中的信息转换为符合特定用户的期望和知识的解释。工智能中可解释性技术的类型 人工智能中的可解释性技术旨在确保不必为了理解模型的工作原理而牺牲模型的性能。这是帮助我们在事后解释您的决定的技术子集。 可解释的算法首先,这些技术根据它们与模型的关系进行分类,可以是: 特定于模型或特定类型的算法,它根据其开发中的特定数据生成解释。 不可知论,推断任何模型决策的原因。他们不关注技术细节,而是关注它为特定输入提供的输出。 事实上,它们还可以根据它们向我们提供的输出或信息进行分类: 全局解释技术,它为我们提供了模型的一般解释。 在特定预测或数据点层面的个人解释技术。



该输出还以不同的方式呈现信息:有关相关变量的解释、变量如何对特定预测值做出贡献、基于规则的解释、视觉解释(分类法)等。 负责任的人工智能的未来 负责任的人工智能必须继续发展。最重要的是,它适用于所有类型的模型,甚至是那些可能出现的模型,并且这些模型为我们提供了越来越好的解释。这些是当前的一些研究方向: 新指标。例如,它们帮助我们比较哪种可解释性技术最适合每种情况,或者了解解释与用户的先验知识的一致性。 深度学习的可解释性。如何对最新模型应用可解释性技术。最后,例如,使用循环神经网络需要解释它们的预测,但使用为其他类型模型设计的可解释性技术并不容易。 技术和指标的结合。如何将我们所看到的一切结合起来:解释与模型中漏洞的检测,以帮助我们了解训练或输入数据中存在哪些限制,并在将模型部署到生产中之前改进模型并检测漏洞。

回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|精靈神諭 1.7.10

GMT+8, 2024-5-15 01:30 , Processed in 0.037405 second(s), 18 queries .

抗攻擊 by GameHost X3.4

© 2001-2017 Comsenz Inc.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |