{dede:global.cfg_webname/}
  • English
  • 官方微信
  • 首页
  • 栏目名称
    • 测试
  • 第二个
  • 首页
  • 学院概况
    • 学院简介
    • 历史沿革
    • 机构设置
    • 现任领导
    • 历任领导
    • 联系我们
  • 师资队伍
    • 全职教工
    • 讲座 兼职教授
    • 重要人才计划
    • 退休人员名单
  • 人才培养
    • 本科生培养
    • 硕士生培养
    • 博士生培养
  • 科学研究
    • 学术交流
    • 重点学科
    • 科研机构
    • 科研团队
    • 科研成果
    • 讨论班
  • 党团建设
    • 党建动态
    • 工会活动
    • 团学工作
  • 理论学习
    • 主题教育
  • 合作交流
    • 国际合作
    • 校际合作
    • 校企合作
  • 招生就业
    • 招生信息
    • 就业信息
    • 招生宣传
  • 校友之家
    • 校友组织
    • 校友基金
    • 校友活动
    • 百年院庆
    • 校友动态
    • 知名校友
  • 院务信箱

学术交流

  • 学术交流
  • 重点学科
  • 科研机构
  • 科研团队
  • 科研成果
  • 讨论班

学术交流

认 知 启 发 的 可 解 释 学 习 探 索

日期:2022-11-08  作者:  点击:[]

报 告 题 目:认知启发的可解释学习探索

主 讲 人:景 丽 萍

单 位:北京交通大学

时 间:11月7日8:30

腾 讯 ID: 124-401-205

摘 要:

机器学习应用于众多关键领域中辅助人类做出决策,但大多数模型都是黑盒,导致我们常常知其然而不知其所以然,这促使研究者开始关注可解释机器学习提供人可理解的学习模型,更好的辅助智能决策。本报告针对机器学习模型解释性较差的问题,受心理学与认知科学启发,探索可解释学习机理,从模型影响力分析和特征解耦入手,研制面向不同应用场景的可解释学习理论框架与算法。相关方法旨在定位输入信息对深度特征学习的贡献,依据原始信息直观表达能力为深度模型提供解释信息;分解隐特征的语义表达,并与已有知识体系建立双向对接,提升模型的可解释性。相关工作在视觉目标识别和智能推荐领域均取得了较好的应用效果。

简 介:

景丽萍,北京交通大学教授、博士生导师,现任计算机与信息技术学院副院长。担任中国人工智能学会机器学习专委会常委、中国计算机学会人工智能与模式识别专委会秘书、北京市海淀区第十七届人大代表。先后入选国家级青年人才计划、北京市课程思政教学名师、北京交通大学卓越百人,获评北京交通大学“巾帼十杰”、“优秀教师”等。主持多项国家级和省部级科研项目,包括国家自然基金优青项目、科技部新一代人工智能重大专项、国防科技创新重点项目、教育部人工智能算法战略研究项目、北京市自然基金重点研究专题等。近年来在国内外重要学术期刊和会议上发表多篇高质量论文(包括CCF-A类顶级国际学术会议NeurIPS、AAAI、ACL、ICCV、ICLR、WWW、CVPR,顶级学术期刊IEEE TPAMI、JMLR、IJCV等),相关研究成果已成功应用于智能交通、智能芯片、智能教育、智能国防等领域。




上一条:从 稀 疏 编 码 和 信 息 瓶 颈 到 深 度 学 习 下一条:如 何 备 一 节 课

【关闭】

友情链接

  • 学校教务处
  • 学校党委办公室
  • 学校校长办公室
  • 清华大学数学系
  • 浙江大学数学科学院
  • 上海大学数学系
版权信息