首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏磐创AI技术团队的专栏

    交互的 Attention 可视化工具!我的Transformer可解释性有救了?

    乔治亚理工最近提出了DODRIO,一种交互的Attention可视化工具,从句法和寓意层面总结了不同注意力头的信息。Transformer的可解释性终于有救啦? 一些结论 本文的可视化方法再一次验证了一些之前BERT可解释性文章的结论。例如:BERT的中间层更关注句法信息,以及BERT最后1-2层是分类的关键等。

    8.2K40发布于 2021-05-11
  • 来自专栏web秀

    Vue源码中9借鉴的基础方法

    val.toString === _toString) JSON.stringify(val, null, 2) : String(val) } 9

    61420发布于 2020-02-28
  • 来自专栏开源单点登录集成

    9 个 yyds 的 Java 项目,应对各种私活!

    如无法访问,检查下是否开启了防火墙 systemctl status firewalld,如状态显示为绿色 Active: active (running) 临时关闭防火墙 systemctl stop 扩展自定义认证方式;基于改进的字典匹配树拥有的高性能;良好的扩展接口、样例和文档,帮助急速理解、扩展与使用 Sureness 的低配置;易扩展,不耦合其他框架,希望能对系统多场景快速安全的保护。 9. MaxKeyMaxKey 单点登录认证系统是业界领先的企业级 IAM 身份管理和认证框架,产品化程度很高,多家知名公司的选择! 将认证能力从 B/S 到移动应用全面覆盖;多种认证机制并存,各应用系统保留原有认证机制,同时集成认证中心的认证;应用具有高度独立性,不依赖认证中心,又可用使用认证中心的认证,实现单点登录;基于 Java

    1.7K117编辑于 2023-02-16
  • 来自专栏蜗牛互联网

    9 个 yyds 的 Java 项目,应对各种私活!

    如无法访问,检查下是否开启了防火墙 systemctl status firewalld,如状态显示为绿色 Active: active (running) 临时关闭防火墙 systemctl stop 扩展自定义认证方式; 基于改进的字典匹配树拥有的高性能; 良好的扩展接口、样例和文档,帮助急速理解、扩展与使用 Sureness 的低配置; 易扩展,不耦合其他框架,希望能对系统多场景快速安全的保护。 9. MaxKey MaxKey 单点登录认证系统是业界领先的企业级 IAM 身份管理和认证框架,产品化程度很高,多家知名公司的选择! 将认证能力从 B/S 到移动应用全面覆盖; 多种认证机制并存,各应用系统保留原有认证机制,同时集成认证中心的认证;应用具有高度独立性,不依赖认证中心,又可用使用认证中心的认证,实现单点登录; 基于 Java

    96830编辑于 2022-05-26
  • 来自专栏学习

    机器学习——解释性AI与可解释性机器学习

    解释性AI与可解释性机器学习: 理解机器学习模型背后的逻辑 随着人工智能技术的广泛应用,机器学习模型越来越多地被用于决策过程。 本文将深入探讨解释性AI与可解释性机器学习的概念、方法和代码实现,帮助读者全面理解这一重要主题。 1. 为什么需要解释性AI? 解释性AI的分类 可解释性可以从多个维度来考虑: 可解释性 vs 可理解性:可解释性通常指通过后处理方法使复杂模型变得可解释,而可理解性更侧重于构建本身就易于解释的模型。 可解释性机器学习的方法 3.1 模型本身具有可解释性 一些简单的模型具有天然的可解释性,例如: 线性回归:通过模型系数可以直接理解特征对预测的影响。 构建具有可解释性的模型 并不是所有机器学习任务都需要深度模型,对于一些需要高可解释性的任务,我们可以选择一些本身就具有良好可解释性的模型。

    1.1K10编辑于 2024-10-19
  • 来自专栏CSDNToQQCode

    解释性AI(XAI)

    解释性AI(XAI)是什么 解释性AI,也称为XAI(Extended AI),是一种综合了多种AI技术的智能系统或工具,旨在帮助人们理解和解释数据、信息和知识,以辅助决策制定。 可解释性模型:XAI系统可以使用可解释性模型来解释机器学习模型的工作原理和决策过程,帮助用户理解模型的预测结果。 在安全领域,可解释性AI可以帮助识别和解释潜在的安全威胁,从而提高安全性。 四、可解释性AI的评估与度量 评估和度量AI的可解释性是一个重要的问题。 五、可解释性AI的未来发展 可解释性AI有很大的发展潜力,未来的发展趋势包括算法改进、数据标准化和自动化解释方法等。随着技术的发展,我们可能会看到更多的自动化工具和平台用于评估和改进AI的可解释性。 六、可解释性AI的实践经验与案例分析 在实际应用可解释性AI的过程中,一些实践经验包括使用可视化技术来展示AI决策过程、使用人类判断法来评估AI的可解释性以及使用决策树分析法来理解模型决策等。

    1.1K10编辑于 2024-02-01
  • 来自专栏AI

    模型可解释性

    模型可解释性:LIME与SHAP等可解释工具随着深度学习和复杂机器学习模型的普及,模型的可解释性(Model Interpretability)成为了一个日益重要的议题。 模型可解释性的背景模型可解释性主要是指能够清晰地理解和解释机器学习模型的预测依据。传统的机器学习模型,如线性回归、决策树等,相对易于理解,用户可以直观地看到模型是如何做出预测的。 因此,模型可解释性成为了研究人员和实践者必须解决的核心问题。2. 模型可解释性的实际意义模型可解释性不仅仅是一个学术问题,它在实际应用中具有重要意义:增加模型的信任度:特别是在高风险行业,如医疗、金融等,理解模型的预测依据对于增强用户和监管机构的信任至关重要。 ,详细介绍了如何通过不同的方法提高机器学习模型的可解释性

    1.2K10编辑于 2025-02-02
  • 来自专栏闲余说

    架构设计 9-扩展架构之分层架构

    首先整体介绍扩展架构的基本思想——“拆”,以及如何拆;随后介绍了面向流程的拆分,即分层架构。 基本思想 所有的扩展性架构设计,背后的基本思想都可以总结为一个字:拆!

    92810编辑于 2022-08-19
  • 来自专栏reizhi

    微软:IE9实现Web页面所有内容硬件加速

    如今,各大浏览器都开始使用硬件来加速图形性能,IE9 Beta也即将发布,微软在此时对比了完全硬件加速和部分硬件加速之间的区别,向众人揭示了IE9的优越性。 在7月发布的平台预览第三版中,IE9引入了硬件加速HTML5 canvas。 IE9硬件加速 浏览器可以使用硬件来加速一个HTML页面所有步骤中的一些或是全部,下图中就描述了IE9中的HTML页面渲染主要步骤: IE9页面渲染共分为三大阶段: 内容渲染:IE9在第一个阶段使用Direct2D 和DirectWrite子系统内容渲染的硬件加速; 页面生成:IE9在这个阶段使用Direct3D加速页面绘制,在渲染图片密集型任务时为IE提供优异的性能; 桌面生成:在浏览器完成内容渲染并生成页面后, 完整硬件加速VS.部分硬件加速 在IE9中,开发人员能够使用完整的硬件加速。

    1.1K20编辑于 2022-09-26
  • 来自专栏音视频技术

    姜健:VP9适性视频编码(SVC)新特性

    与VP8相比,VP9进行了大量的设计改进以尽可能的获得更高的视频编码质量。Google软件工程师 姜健详细介绍了VP9适性视频编码(SVC)中多种新功能的实现与相应API。 二、VP9 SVC v.s. VP8 Simulcast 这一部分给大家看一下VP9 SVC与VP8的质量对比,上图中蓝色代表的是VP9,红色代表的是VP8,因为VP9比VP8有30%~40%压缩效率上的提高,出现上图的结果也不奇怪的 ,相同的码率VP9有更高的PSNR,可以节省更多的码率。 此外,VP9 SVC质量相比VP8来说还是非常好的,并且我们也在不停提高编码速度,这样一来,无论是使用笔记本电脑或台式机,VP9 SVC也完全可以满足实时性要求。

    1.8K30发布于 2021-09-01
  • 来自专栏计算机视觉工坊

    人脸识别的可解释性

    作者丨孙裕道 编辑丨极市平台 导读 人脸识别的可解释性是深度学习领域中的一个很大挑战,当前的方法通常缺乏网络比较和量化可解释结果的真相。 自然深度学习中的很重要领域人脸识别的可解释性也是一个很大的挑战,当前在这方面探索的方法有网络注意力、网络解剖或综合语言解释,然而,缺乏网络比较和量化可解释结果的真相,尤其是在人脸识别中近亲或近亲之间的差异很微妙 论文贡献 该论文的贡献可以归结为如下三点,分别如下所示 XFR baseline:作者基于五种网络注意力算法为XFR(人脸识别的可解释性)提供了baseline,并在三个用于人脸识别的公开深度卷积网络上进行了评估 模型介绍 人脸识别的可解释性(XFR) 该论文的创新点可能是从Facenet中得到一定的灵感。XFR的目的是解释人脸图像之间的匹配的内在关系。

    2.9K20发布于 2020-11-11
  • 来自专栏林德熙的博客

    dotnet 9 WPF 支持 Style 的 Setter 填充内容时忽略 Value 标签

    本文记录 WPF 在 dotnet 9 的一项 XAML 编写语法改进点,此改进点用于解决编写 Style 的 Setter 进行给 Value 赋值时,不能将 Value 当成默认内容,需要多写 Value 通过此改进点减少两行 XAML 代码 在原先的 WPF 版本里面,对 Style 的 Setter 填充复杂的对象内容时,大概的示例代码如下 <Style TargetType="Button">

    74710编辑于 2024-05-09
  • 来自专栏编程随想曲

    代码重构之引入解释性变量

    意图 临时变量可以帮助你将表达式分解为比较容易管理的形式 在较长的算法中,可以运用临时变量来解释每一步运算的意义 示例 /** * 引入解释性变量之前 * Created by luo on 2017 something } } private boolean wasInitialized() { return false; } } /** * 引入解释性变量之后

    39420编辑于 2022-04-21
  • 来自专栏曲奇的博客

    机器学习模型的可解释性

    解释性的范围 全局可解释 这个层级的可解释性指的是,模型如何基于整个特征空间和模型结构、参数等作出决策的。什么特征是重要的,特征交互会发生什么。 模型的全局可解释性可以帮助理解,针对不同特征,目标变量的分布是什么。 局部可解释 局部可解释性更加关注单条样本或一组样本。这种情况下我们可以将模型看做是一个黑盒,不再考虑模型的复杂情况。 因此局部可解释性可能相比全局可解释,更加准确点。 1.3 可解释的模型 最简单的机器学习可解释性就是直接使用可解释模型,比如逻辑回归、线性模型、决策树。 然后使用新的解析的特征和prediction作为label来训练新的简单模型(例如LR),然后使用简单模型的权重作为这些特征的重要性作为输出。 就是选择一个样本以及样本附近的点,然后训练一个简单模型来拟合,虽然简单模型不能在完整数据集上有效,但至少在这个点附近都是有效的,这个简单模型的特征是人类解析的,而训练出的权重也可以表示特征重要性。

    2.4K20编辑于 2021-12-14
  • 来自专栏CSDN小华

    机器学习模型的可解释性

    机器学习模型的可解释性 机器学习模型的可解释性是指人类能够理解并理解决策原因的程度,这在业务应用中尤为重要。高可解释性的模型不仅有助于开发人员在建模阶段理解模型,还能在必要时进行优化调整。 可解释性的重要性体现在多个方面: 辅助决策:可解释性使人们更容易理解为什么模型做出了某些决定或预测,从而提高对模型的信任度和接受度。 最新的机器学习模型可解释性技术和方法有哪些?         最新的机器学习模型可解释性技术和方法主要包括以下几种: 局部可解释性工具:这类工具旨在解释模型在特定输入上的行为。 解释性工具的应用:利用各种解释性工具和技术,如局部可解释模型不可解释性(LIME)、集成梯度(IG)等,帮助理解模型的预测过程和结果。 近年来,学术界已经开发出许多可解释性工具和方法,如局部可解释性、规则可解释性和概念可解释性等。未来,这些工具和方法将不断完善,并在实际应用中得到更广泛的应用。         

    82610编辑于 2024-10-16
  • 来自专栏腾讯云TI平台

    【技术分享】机器学习模型可解释性

    对于模型按预期工作的关键利益相关者而言,这应该是证明且易于理解的。这确保了模型的透明度。 features=['age', 'education_num'], feature_names=['age', 'education_num'], target='income_level' ) 9. 如图9所示,通过在曲线变量的唯一值上复制个体观察并对每个重复进行评分,获得一个观察的ICE曲线。 下图中的PD图结果基本上是平坦的,给人的印象是X1与模型的预测之间没有关系。 在他的论文中,他还讨论了PD图的局限性,并提供了有关如何为大数据生成缩放图的建议。 然后使用新的解析的特征和prediction作为label来训练新的简单模型(例如LR),然后使用简单模型的权重作为这些特征的重要性作为输出。

    4.3K54编辑于 2021-12-22
  • 来自专栏大数据文摘

    6个机器学习可解释性框架!

    解释性旨在帮助人们理解: 如何学习的? 学到了什么? 针对一个特定输入为什么会做出如此决策? 决策是否可靠? with condaconda install -c conda-forge shapbr 使用Shap库构建瀑布图 使用Shap库构建Beeswarm图 使用Shap库构建部分依赖图 LIME 在可解释性领域 与外形/石灰解释性有关。它可以使用SHAP/Lime作为后端,也就是说它只提供了更好看的图表。 InterpretML展示了两种类型的可解释性:glassbox模型——为可解释性设计的机器学习模型(如:线性模型、规则列表、广义可加模型)和黑箱可解释性技术——用于解释现有系统(如:部分依赖,LIME 使用统一的API并封装多种方法,拥有内置的、扩展的可视化平台,该包使研究人员能够轻松地比较可解释性算法。

    2.6K40编辑于 2022-10-10
  • 来自专栏机器之心

    用GPT生成《超级马里奥》游戏关卡,近9成关卡

    研究者发现,所有 MarioGPT 生成的关卡中,88.33% 可以由 agent 完成,因此可以判定为是通关的。 表 4 分别显示了通关和不可通关关卡中,建议的路径和实际 A* agent 选择的路径之间的平均绝对误差(MAE)。

    89940编辑于 2023-02-23
  • 来自专栏六点半就起来干博客!

    机器学习——解释性AI(Explainable AI)

    机器学习——解释性AI(Explainable AI) 解释性AI(Explainable AI)——让机器学习模型更加透明与可信 随着人工智能(AI)和机器学习(ML)在多个领域的广泛应用,理解模型的决策过程变得尤为重要 什么是解释性AI? 解释性AI指的是一系列方法和技术,旨在帮助人们理解AI模型的输出如何生成。通过引入解释性层,AI系统不仅能提供预测结果,还能解释这些预测背后的逻辑。 解释性AI的优势 透明度:XAI通过提供详细的解释,确保用户能理解模型的决策过程。 公平性:解释性AI有助于识别和纠正模型中的潜在偏差,确保AI决策的公平性【44†source】。 解释性AI(Explainable AI)——揭开机器学习模型的“黑盒” 在当今人工智能和机器学习技术广泛应用的背景下,解释性AI(Explainable AI, XAI) 变得尤为重要。 法律合规性:在某些行业中,法律规定要求AI系统具备可解释性,XAI有助于满足这一需求【76】。 结论 解释性AI为AI系统的透明性和公平性提供了强有力的支持。

    89510编辑于 2024-10-16
  • 来自专栏Datawhale专栏

    图神经网络的解释性综述!

    Abstract 近年来,深度学习模型的可解释性研究在图像和文本领域取得了显著进展。然而,在图数据领域,既没有针对GNN可解释性的统一处理方法,也不存在标准的 benchmark 数据集和评估准则。 然而,这些研究只关注图像和文本领域的解释方法,忽略了深度图模型的可解释性。 GNN 的可解释性 与图像和文本领域相比,对图模型解释性的研究较少,然而这是理解深度图神经网络的关键。 软掩码被随机初始化,并被视为训练变量。然后通过元素点乘将掩码与原始图结合。最大化原始图的预测和新获得的图的预测之间的互信息来优化掩码。 它与 Tree-Cycle 数据集相同,只是Tree-Grids数据集采用了9节点网格 motifs 而不是周期 motifs。 BA-2Motifs:它是一个具有2种不同图标签的图形分类数据集。 作者将介绍最近提出的几种针对解释性问题的评估度量方法。

    1.6K40发布于 2021-05-07
领券