{dede:global.cfg_webname/}
  • English
  • 官方微信
  • 首页
  • 栏目名称
    • 测试
  • 第二个
  • 首页
  • 学院概况
    • 学院简介
    • 历史沿革
    • 机构设置
    • 现任领导
    • 历任领导
    • 联系我们
  • 师资队伍
    • 全职教工
    • 讲座 兼职教授
    • 重要人才计划
    • 退休人员名单
  • 人才培养
    • 本科生培养
    • 硕士生培养
    • 博士生培养
  • 科学研究
    • 学术交流
    • 重点学科
    • 科研机构
    • 科研团队
    • 科研成果
    • 讨论班
  • 党团建设
    • 党建动态
    • 工会活动
    • 团学工作
  • 理论学习
    • 主题教育
  • 合作交流
    • 国际合作
    • 校际合作
    • 校企合作
  • 招生就业
    • 招生信息
    • 就业信息
    • 招生宣传
  • 校友之家
    • 校友组织
    • 校友基金
    • 校友活动
    • 百年院庆
    • 校友动态
    • 知名校友
  • 院务信箱

学术交流

  • 学术交流
  • 重点学科
  • 科研机构
  • 科研团队
  • 科研成果
  • 讨论班

学术交流

Revisiting Sparse Convolutional Model for Visual Recognition

日期:2022-11-11  作者:  点击:[]

报 告 题 目:Revisiting Sparse Convolutional Model for Visual Recognition

主 讲 人:戴 锡 笠

单 位:香港科技大学

时 间:11月13日10:00

腾 讯 ID: 685-423-697

摘 要:

Despite strong empirical performance for image classification, deep neural networks are often regarded as ``black boxes'' and they are difficult to interpret. On the other hand, sparse convolutional models, which assume that a signal can be expressed by a linear combination of a few elements from a convolutional dictionary, are powerful tools for analyzing natural images with good theoretical interpretability and biological plausibility. However, such principled models have not demonstrated competitive performance when compared with empirically designed deep networks. This paper revisits the sparse convolutional modeling for image classification and bridges the gap between good empirical performance (of deep learning) and good interpretability (of sparse convolutional models). Our method uses differentiable optimization layers that are defined from convolutional sparse coding as drop-in replacements of standard convolutional layers in conventional deep neural networks. We show that such models have equally strong empirical performance on CIFAR-10, CIFAR-100, and ImageNet datasets when compared to conventional neural networks. By leveraging stable recovery property of sparse modeling, we further show that such models can be much more robust to input corruptions as well as adversarial perturbations in testing through a simple proper trade-off between sparse regularization and data reconstruction terms.

简 介:

戴锡笠,香港科技大学(广州)博士,加州大学伯克利分校访问学者(合作导师:马毅教授)。主要研究方向为压缩感知和闭环转录方法在计算机视觉方面的应用,研究成果发表于NeuroIPS、ICLR、TNNLS、AAAI和NeuroComputing等期刊和会议。










上一条:四面体网格二次元有限体积法的构造和分析 下一条:2022年河南大学微分方程与生物数学学术研讨会日程安排

【关闭】

友情链接

  • 学校教务处
  • 学校党委办公室
  • 学校校长办公室
  • 清华大学数学系
  • 浙江大学数学科学院
  • 上海大学数学系
版权信息