Network Deconvolution
Deepx/Matsuolab
冨⼭ 翔司
2
• 画像の隣接するピクセルの情報が相関を持っている場合、それらは物体認識などのタスクをする上で
冗⻑な情報であり、CNNの訓練を難しくしている。
• 本論⽂では、CNNの各層の初めにこれらの相関を除去する操作(=network deconvolution)を⼊れる
ことで、特徴表現のスパース化を実現した。
• これによって、CNNの学習速度及び精度が向上することを確認した。
TL;DR
3
• 筆者
– Chengxi Ye∗ , Matthew Evanusa, Hua He, Anton Mitrokhin, Tom Goldstein, James A. Yorke† , Cornelia
Fermüller, Yiannis Aloimonos
• 研究機関
– Department of Computer Science, University of Maryland, College Park
• 学会
– ICLR 2020
• 6, 8, 8
書誌情報
CNNの各特徴量のpixelwise及びchannel wiseの両⽅の相関を無くすこと。
4
• 仮説:隣接するピクセル、また、チャンネル間の相関があることで、学習が難しくなる
– 相関がある情報=冗⻑な情報
• カメラに映る写真も、何かのフィルタがかかった結果だとすると、deconvできるはずでは?
解きたい課題
Convolution: 𝑏 = 𝑘 ∗ 𝑥 = 𝐾𝑥 Deconvolution: 𝑥 = 𝐾!" 𝑏
5
• ⽩⾊化
– データの要素間を相関をなくし、学習の効率化を狙う
• 正規化
– データの偏りをなくし、学習の効率化を狙う
• 特に、batch normalizationは、レイヤーの前に特徴量に処理を加える、と⾔う観点で似たことをやっている。
関連研究
共分散⾏列が単位⾏列であれば、勾配法は最も効率よく最適解にたどり着く。
6
数学的な動機付け
im2colによって、畳み込みを⾏列計算として、𝑐𝑜𝑣"#.%で無相関の空間にXを⾶ばす
7
⼿法
• Note
– 𝑋 ' 𝑐𝑜𝑣!".$ = Zと⾒ると、𝑍% 𝑍 = 𝑐𝑜𝑣!".$ ' 𝑐𝑜𝑣 ' 𝑐𝑜𝑣!".$ = 𝐼で、確かに共分散⾏列が単位⾏列になっている。
– 図は1チャネルの例だが、複数チャネルの場合、その分Xの列が増える
8
• CGや数値計算の分野で、研究の歴史があるそうです。
• 細かい説明は割愛します(というか理解してないです🙇)
– 気になる⼈は元論⽂をチェック!
𝑐𝑜𝑣!".$の求め⽅
9
アルゴリズム
10
• Fashion-MNISTをつかって、4つの条件で実験
– いずれもSGDやBatch Normalization(BN)に⽐べて、収束が早く精度も良い
結果
CIFAR10, 100, ImageNetで精度向上(どれくらい凄いんですかね?)
11
結果
ZCAっぽい
12
Deconvolutionされた⼊⼒画像
13
• 霊⻑類の視覚野の多くの受容野は、中⼼-周囲型の⾏動を⽰す。霊⻑類の視覚野の中には、オンセン
ター細胞と呼ばれる受容野があり、中⼼部に刺激が与えられ、かつ、その周囲の円の中で刺激が不⾜
しているときに最⼤に反応する。
• 図2に⽰すように、我々のデコンボリューションカーネルは、⾃然界に存在するような中⼼周囲型フィ
ルタに強く似ている。
(translated by DeepL)
⽣物の視覚野との関係
14
• ⼿法がシンプル。
• im2col賢い。
• いまいち、⽩⾊化(PCA、ZCA)との違いの整理がついていない
– モチベーションは同じだが、固有値分解とかしてる部分を𝑐𝑜𝑣!".$を数値計算でダイレクトに解きにいってる、と⾔
う差?
感想

More Related Content

PDF
Skip Connection まとめ(Neural Network)
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
PDF
第四回 全日本CV勉強会スライド(MOTS: Multi-Object Tracking and Segmentation)
PDF
第11回 全日本コンピュータビジョン勉強会(前編)_TableFormer_carnavi.pdf
PDF
多様な強化学習の概念と課題認識
PPTX
Tensor コアを使った PyTorch の高速化
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
PDF
三次元点群を取り扱うニューラルネットワークのサーベイ
Skip Connection まとめ(Neural Network)
[DL輪読会]GQNと関連研究,世界モデルとの関係について
第四回 全日本CV勉強会スライド(MOTS: Multi-Object Tracking and Segmentation)
第11回 全日本コンピュータビジョン勉強会(前編)_TableFormer_carnavi.pdf
多様な強化学習の概念と課題認識
Tensor コアを使った PyTorch の高速化
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
三次元点群を取り扱うニューラルネットワークのサーベイ

What's hot (20)

PPTX
Triplet Loss 徹底解説
PDF
オブジェクト指向プログラミングのためのモデリング入門
PDF
PCAの最終形態GPLVMの解説
PPTX
[DL輪読会]When Does Label Smoothing Help?
PDF
PRML学習者から入る深層生成モデル入門
PPTX
[DL輪読会]“SimPLe”,“Improved Dynamics Model”,“PlaNet” 近年のVAEベース系列モデルの進展とそのモデルベース...
PDF
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
PPTX
カルマンフィルタ入門
PDF
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
PDF
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
PDF
「深層学習」第6章 畳込みニューラルネット
PDF
距離と分類の話
PPTX
Visual Studio CodeでRを使う
PDF
【DL輪読会】Learning Physics Constrained Dynamics Using Autoencoders
PDF
クラシックな機械学習入門:付録:よく使う線形代数の公式
PPTX
Semi supervised, weakly-supervised, unsupervised, and active learning
PDF
02 第3.1節-第3.5節 ROS2の基本機能(1/2) ROS2勉強合宿 @別府温泉
PDF
ベータ分布の謎に迫る
PPTX
Rustで3D graphics programming
PDF
20210711 deepI2P
Triplet Loss 徹底解説
オブジェクト指向プログラミングのためのモデリング入門
PCAの最終形態GPLVMの解説
[DL輪読会]When Does Label Smoothing Help?
PRML学習者から入る深層生成モデル入門
[DL輪読会]“SimPLe”,“Improved Dynamics Model”,“PlaNet” 近年のVAEベース系列モデルの進展とそのモデルベース...
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
カルマンフィルタ入門
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
「深層学習」第6章 畳込みニューラルネット
距離と分類の話
Visual Studio CodeでRを使う
【DL輪読会】Learning Physics Constrained Dynamics Using Autoencoders
クラシックな機械学習入門:付録:よく使う線形代数の公式
Semi supervised, weakly-supervised, unsupervised, and active learning
02 第3.1節-第3.5節 ROS2の基本機能(1/2) ROS2勉強合宿 @別府温泉
ベータ分布の謎に迫る
Rustで3D graphics programming
20210711 deepI2P
Ad

Similar to [DL輪読会]Network Deconvolution (7)

PDF
Deep Collective Classification in Heterogeneous Information Networks
PPTX
Graph conv
PDF
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
PDF
Deep Learning Chapter12
PPTX
20170618論文読み会 伊藤
PPTX
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PDF
SAS Viyaのディープラーニングを用いた物体検出
Deep Collective Classification in Heterogeneous Information Networks
Graph conv
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
Deep Learning Chapter12
20170618論文読み会 伊藤
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
SAS Viyaのディープラーニングを用いた物体検出
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
PPTX
【DL輪読会】事前学習用データセットについて
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
PPTX
【DL輪読会】マルチモーダル LLM
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
PPTX
【DL輪読会】Hopfield network 関連研究について
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
PPTX
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...

Recently uploaded (7)

PDF
翔泳社 「C++ ゼロからはじめるプログラミング」対応 C++学習教材(三谷純)
PPTX
生成AIとモデルベース開発:実はとても相性が良いことを説明します。まあそうだろうなと思われる方はご覧ください。
PDF
20250826_Devinで切り拓く沖縄ITの未来_AI駆動開発勉強会 沖縄支部 第2回
PDF
ココロ分解帳|感情をやさしく分解し自分と他者を理解するためのモバイルノートアプリ
PDF
AIシステムのセキュリティ:脅威となりつつあるAIの現状と課題 [English] Security of AI Systems: The Current...
PDF
Working as an OSS Developer at Ruby Association Activity Report 2025
翔泳社 「C++ ゼロからはじめるプログラミング」対応 C++学習教材(三谷純)
生成AIとモデルベース開発:実はとても相性が良いことを説明します。まあそうだろうなと思われる方はご覧ください。
20250826_Devinで切り拓く沖縄ITの未来_AI駆動開発勉強会 沖縄支部 第2回
ココロ分解帳|感情をやさしく分解し自分と他者を理解するためのモバイルノートアプリ
AIシステムのセキュリティ:脅威となりつつあるAIの現状と課題 [English] Security of AI Systems: The Current...
Working as an OSS Developer at Ruby Association Activity Report 2025

[DL輪読会]Network Deconvolution