Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Deep Learning JP
PPTX, PDF
566 views
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
2023/7/28 Deep Learning JP http://deeplearning.jp/seminar-2/
Technology
◦
Related topics:
Deep Learning
•
Read more
1
Save
Share
Embed
Embed presentation
Download
Download to read offline
1
/ 14
2
/ 14
3
/ 14
4
/ 14
5
/ 14
6
/ 14
7
/ 14
8
/ 14
9
/ 14
10
/ 14
11
/ 14
12
/ 14
13
/ 14
14
/ 14
More Related Content
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
PPTX
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
by
Deep Learning JP
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
PPTX
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
PDF
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
by
Deep Learning JP
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
PPTX
モデルアーキテクチャ観点からの高速化2019
by
Yusuke Uchida
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
by
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
by
Shota Imai
[DL輪読会]Neural Radiance Flow for 4D View Synthesis and Video Processing (NeRF...
by
Deep Learning JP
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
モデルアーキテクチャ観点からの高速化2019
by
Yusuke Uchida
What's hot
PDF
ゼロから始める転移学習
by
Yahoo!デベロッパーネットワーク
PDF
【メタサーベイ】Video Transformer
by
cvpaper. challenge
PDF
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
by
Deep Learning JP
PDF
深層生成モデルと世界モデル(2020/11/20版)
by
Masahiro Suzuki
PPTX
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
by
Deep Learning JP
PDF
[DL輪読会]近年のエネルギーベースモデルの進展
by
Deep Learning JP
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
PDF
【DL輪読会】Novel View Synthesis with Diffusion Models
by
Deep Learning JP
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
PDF
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
by
Deep Learning JP
PPTX
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
by
Deep Learning JP
PDF
Layer Normalization@NIPS+読み会・関西
by
Keigo Nishida
PPTX
StyleGAN解説 CVPR2019読み会@DeNA
by
Kento Doi
PPTX
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
by
SSII
PDF
【DL輪読会】Mastering Diverse Domains through World Models
by
Deep Learning JP
PDF
Point net
by
Fujimoto Keisuke
PDF
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
by
Deep Learning JP
PDF
SSII2019企画: 点群深層学習の研究動向
by
SSII
PDF
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
by
Deep Learning JP
PDF
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
ゼロから始める転移学習
by
Yahoo!デベロッパーネットワーク
【メタサーベイ】Video Transformer
by
cvpaper. challenge
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
by
Deep Learning JP
深層生成モデルと世界モデル(2020/11/20版)
by
Masahiro Suzuki
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
by
Deep Learning JP
[DL輪読会]近年のエネルギーベースモデルの進展
by
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
【DL輪読会】Novel View Synthesis with Diffusion Models
by
Deep Learning JP
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
by
Deep Learning JP
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
by
Deep Learning JP
Layer Normalization@NIPS+読み会・関西
by
Keigo Nishida
StyleGAN解説 CVPR2019読み会@DeNA
by
Kento Doi
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
by
SSII
【DL輪読会】Mastering Diverse Domains through World Models
by
Deep Learning JP
Point net
by
Fujimoto Keisuke
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
by
Deep Learning JP
SSII2019企画: 点群深層学習の研究動向
by
SSII
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
by
Deep Learning JP
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
Similar to 【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
PDF
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
PPTX
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
by
Deep Learning JP
PDF
機械学習の理論と実践
by
Preferred Networks
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
PDF
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
PPTX
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
by
Deep Learning JP
PDF
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
PDF
機械学習 入門
by
Hayato Maki
PPTX
Multi-agent Inverse reinforcement learning: 相互作用する行動主体の報酬推定
by
Keiichi Namikoshi
PDF
機械学習とコンピュータビジョン入門
by
Kinki University
PPTX
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
by
Deep Learning JP
PDF
予測型戦略を知るための機械学習チュートリアル
by
Yuya Unno
PDF
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
by
Preferred Networks
PPTX
Statistical machine learning forecasting methods concerns and ways forward
by
harmonylab
PPTX
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
by
Shunsuke Nakamura
PPTX
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
by
Shunsuke Nakamura
PPTX
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
by
MIKIOKUBO3
PDF
bigdata2012ml okanohara
by
Preferred Networks
PDF
220707_ishizone_class_imbalance_SSL.pdf
by
ssuser70401c
PDF
第1回メドレー読書会
by
Shengbo Xu
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
by
Deep Learning JP
機械学習の理論と実践
by
Preferred Networks
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
【DL輪読会】Data-Efficient Reinforcement Learning with Self-Predictive Representat...
by
Deep Learning JP
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
機械学習 入門
by
Hayato Maki
Multi-agent Inverse reinforcement learning: 相互作用する行動主体の報酬推定
by
Keiichi Namikoshi
機械学習とコンピュータビジョン入門
by
Kinki University
[DL輪読会]High-Fidelity Image Generation with Fewer Labels
by
Deep Learning JP
予測型戦略を知るための機械学習チュートリアル
by
Yuya Unno
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
by
Preferred Networks
Statistical machine learning forecasting methods concerns and ways forward
by
harmonylab
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
by
Shunsuke Nakamura
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
by
Shunsuke Nakamura
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
by
MIKIOKUBO3
bigdata2012ml okanohara
by
Preferred Networks
220707_ishizone_class_imbalance_SSL.pdf
by
ssuser70401c
第1回メドレー読書会
by
Shengbo Xu
More from Deep Learning JP
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
PPTX
【DL輪読会】マルチモーダル 基盤モデル
by
Deep Learning JP
PPTX
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
PPTX
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
by
Deep Learning JP
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
PDF
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
by
Deep Learning JP
PPTX
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
PPTX
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
by
Deep Learning JP
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
PPTX
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
【DL輪読会】マルチモーダル 基盤モデル
by
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
by
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
by
Deep Learning JP
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
by
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
Recently uploaded
PDF
論文紹介:Simultaneous Detection and Interaction Reasoning for Object-Centric Acti...
by
Toru Tamaki
PDF
論文紹介:"MM-Tracker: Motion Mamba for UAV-platform Multiple Object Tracking", "M...
by
Toru Tamaki
PDF
歴史好きのスクラム話 JBUG名古屋#5 AI時代のデータドリブンなプロジェクト管理
by
Tatsuya Naiki
PDF
How We Operated Ticket-Driven Development in JIRA.pdf
by
akipii ogaoga
PDF
LoRaWAN小売業DXソリューション ~天候データと人流カウンターを利用して売り上げアップに貢献!
by
CRI Japan, Inc.
PDF
論文紹介:"Reflexion: language agents with verbal reinforcement learning", "MA-LMM...
by
Toru Tamaki
PDF
手軽に広範囲でプライバシーを守りながら人数カウントできる ~ LoRaWAN AI人流カウンター PF52 日本語カタログ
by
CRI Japan, Inc.
論文紹介:Simultaneous Detection and Interaction Reasoning for Object-Centric Acti...
by
Toru Tamaki
論文紹介:"MM-Tracker: Motion Mamba for UAV-platform Multiple Object Tracking", "M...
by
Toru Tamaki
歴史好きのスクラム話 JBUG名古屋#5 AI時代のデータドリブンなプロジェクト管理
by
Tatsuya Naiki
How We Operated Ticket-Driven Development in JIRA.pdf
by
akipii ogaoga
LoRaWAN小売業DXソリューション ~天候データと人流カウンターを利用して売り上げアップに貢献!
by
CRI Japan, Inc.
論文紹介:"Reflexion: language agents with verbal reinforcement learning", "MA-LMM...
by
Toru Tamaki
手軽に広範囲でプライバシーを守りながら人数カウントできる ~ LoRaWAN AI人流カウンター PF52 日本語カタログ
by
CRI Japan, Inc.
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
1.
1 Atsuya Kitada, Matsuo
Lab, M2 SimPer: Simple self-supervised learning of periodic targets ( ICLR 2023 )
2.
2 書誌情報 SimPer: Simple self-supervised
learning of periodic targets • ICLR 2023 Notable-top-5% • 著者:Yuzhe Yang*1, Xin Liu*2, Jiang Wu * 3, Silviu Borac * 3, Dina Katabi * 1, Ming-Zher Poh * 3, Daniel McDuff * 2,3 (*1 MIT CSAIL, *2 University of Washington, *3 Google)
3.
3 概要 背景 • 周期性を持つデータは機械学習の応用先として重要だが、ラベリングが困難である • データの周期性を考慮した自己教師あり学習が提案されていない 提案手法 •
インスタンスの違いで正例/負例を定義していた従来の対照学習と異なり、周期性の 違いで正例/負例を定義 • InfoNCE損失から、周期的な類似性を測る損失関数へと拡張。 有効性 • 様々な周期性予測タスクで従来のSSLを上回る精度。 • データ効率性が高い。 • 未知データに対する汎化性能が高い。
4.
4 背景 周期性を持つデータ・タスクは機械学習の応用先として重要だが、ラベリングが困難である 応用先の例 • ヘルスケア領域 • 心拍数、呼吸、血圧 •
リモートセンシング • 降水パターン、地表の温度変化 • 行動分析 • 人物動作の周期・回数 周期性を持ったデータのラベリングは一般に困難 • 医療用センサー • プライバシーに配慮した生体計測
5.
5 背景 従来の自己教師あり学習手法は周期的な帰納バイアスを組み込んでいない • Contrastive Lossに基づく一連の研究が自己教師あり学習で成功を収めている。 •
同一のサンプルの異なるビュー(正例)に対しては似た埋め込みに、異なるサンプル (負例)に対しては異なる埋め込みになるよう学習する。 • ビデオ理解やアクション分類などの時系列データ領域への拡張がなされている。 • Video representation learning by recognizing temporal transformations. • Spatiotemporal Contrastive Video Representation Learning • しかし、現在の自己教師あり学習は周期性に関する帰納バイアスが見落とされている。
6.
6 提案手法 SimPer:周期性に応じて正例/負例を定義 • 同じ入力インスタンスに対して①周期性不変の拡張と②周期性変動の拡張をかけ、正例/負例を作成。 • ①
Periodicity-Variant Augmentations: 周波数領域を変換し負例を作成。元データの周波数は不明 だが、擬似的な周波数ラベルが作成可能(周波数の近さをサンプル間で測定可能)。 • ② Periodicity-Invariant Augmentations: 周波数が不変となるような変換をかけ、正例を作成。
7.
7 提案手法 SimPer:シンプルなアルゴリズム
8.
8 提案手法 SimPer:周期的な特徴類似性を測定する損失関数を導入 • 周期的な特徴類似性を測定するために、離散的なインスタンス判別(単一目標分類)のInfoNCE損失から、 すべての拡張ペアに対する加重損失(回帰)への簡単な一般化 • M:
Periodicity-Variant Augmentationsの数。 • s : Speed (Frequency) • Sim : periodic feature similarity • z, z^: エンコード後の特徴量
9.
9 実験 実験設定 データセット • RotatingDigits • 数字の回転周期の予測 •
SCAMPS • 心拍数の予測 • UBFC • 心拍数の予測 • PURE • 心拍数の予測 • Countix • 動作の回数のカウント • Land Surface Temperature (LST) • 将来の地表温度予測
10.
10 実験 実験設定 モデルアーキテクチャ • データセットごとに先行研究に倣ったアーキテクチャを設定 • RotatingDigits,
SCAMPS:3D-CNN • UBFC, PURE:TS-CAN • Countix, LST:ResNet-3D-18 ベースラインSSL手法 • SimCLR, MoCo v2, BYOL, CVRL 評価方法 • Linear Probing:学習された特徴量の上で線形分類や線形回帰の層を訓練することで、どの程度分離可能 な表現になっているか評価。 評価指標 • Mean Average Error (MAE):予測値と実際の値との差(誤差)の絶対値の平均 • Mean Average Percentage Error (MAPE):予測値と実際の値との差(誤差)の絶対値の比率の平均
11.
11 実験 多数の周期性予測タスクにおいて提案手法が勝る結果に • 特徴量に直接フーリエ変換をかけて周波数を評価する方法・線形回帰の層を挟む方法の2種類で評価。 • 様々なタスクから成る異なるデータ全体に渡って、提案手法は最高精度を達成するより良い表現を学習。
12.
12 実験 提案手法はデータ効率が良い • データセットサイズを100%〜5%に減らしながら、 Rotating
Digitsで学習された表現を、各手法ごとに比較。 • 特に利用可能なデータ量が少ない時、提案手法は教師ありで獲得される表現を凌駕。 ※ UMAPによる可視化
13.
13 実験 Zero-shotでの汎化性能分析 • 一部周波数帯を欠損させた訓練データセットを作り、内挿 /
外挿それぞれで汎化性能を分析。 • SimPerは学習時に無いデータに汎化できるような頑健な表現を学習可能。
14.
14 結論(再掲) 背景 • 周期性を持つデータは機械学習の応用先として重要だが、ラベリングが困難である • データの周期性を考慮した自己教師あり学習が提案されていない 提案手法 •
インスタンスの違いで正例/負例を定義していた従来の対照学習と異なり、周期性の 違いで正例/負例を区別 • InfoNCE損失から、周期的な類似性を測る損失関数へと拡張。 有効性 • 多様な周期性予測タスクで従来のSSLを上回る精度。 • データ効率性が高い。 • 未知データに対する汎化性能が高い。
Editor's Notes
#7
データの負の視点は、周波数領域での変換を通じて構築されます。 入力シーケンスxに対して、周波数変化の補強τ ∈ Tを定義します。ここで、TはNyquistサンプリング定理の下で可能な任意の速度でxを変化させる変換のセットを表します。 図2に示すように、SimPerはxをM回補強し、一連の速度(周波数)変化したサンプル {τ1(x), τ2(x), ..., τM(x)}を得ます。これらの相対速度はs1 < s2 < ... < sM、si ∝ freq(τi(x))を満たします。 このような補強は、シフトした周波数を持つ基礎となる周期的なターゲットを効果的に変更し、異なる負の視点を作り出します。 よって、元の目標周波数は不明であるが、我々はラベルなしのxに対して擬似的な速度(周波数)ラベルを効果的に考案します。 実際には、速度変化の範囲を[smin , smax]の範囲内に制限し、時間次元での拡張シーケンスが一定の長さ以上になるように確認します。 周期性不変の補強σ ∈ Sをさらに定義します。ここで、Sは元の入力のアイデンティティを変えない変換の集合を示します。 集合が有限であるとき、つまり、S = {σ1,...,σk}であるとき、我々はfreq(σi(x)) = freq(σj(x)),∀i,j ∈ [k]を持ちます。 このような補強は、周期性の観点からデータの不変性を学習するために使用でき、異なる正の視点を作り出します。 実際には、空間的な(例:クロップ&リサイズ)および時間的な(例:リバース、ディレイ)補強を利用して、同一のインスタンスの異なる視点を作り出します(図2参照)。
#8
データの負の視点は、周波数領域での変換を通じて構築されます。 入力シーケンスxに対して、周波数変化の補強τ ∈ Tを定義します。ここで、TはNyquistサンプリング定理の下で可能な任意の速度でxを変化させる変換のセットを表します。 図2に示すように、SimPerはxをM回補強し、一連の速度(周波数)変化したサンプル {τ1(x), τ2(x), ..., τM(x)}を得ます。これらの相対速度はs1 < s2 < ... < sM、si ∝ freq(τi(x))を満たします。 このような補強は、シフトした周波数を持つ基礎となる周期的なターゲットを効果的に変更し、異なる負の視点を作り出します。 よって、元の目標周波数は不明であるが、我々はラベルなしのxに対して擬似的な速度(周波数)ラベルを効果的に考案します。 実際には、速度変化の範囲を[smin , smax]の範囲内に制限し、時間次元での拡張シーケンスが一定の長さ以上になるように確認します。 周期性不変の補強σ ∈ Sをさらに定義します。ここで、Sは元の入力のアイデンティティを変えない変換の集合を示します。 集合が有限であるとき、つまり、S = {σ1,...,σk}であるとき、我々はfreq(σi(x)) = freq(σj(x)),∀i,j ∈ [k]を持ちます。 このような補強は、周期性の観点からデータの不変性を学習するために使用でき、異なる正の視点を作り出します。 実際には、空間的な(例:クロップ&リサイズ)および時間的な(例:リバース、ディレイ)補強を利用して、同一のインスタンスの異なる視点を作り出します(図2参照)。
#9
LSimPerは、離散的なインスタンス判別(単一目標分類)のInfoNCE損失から、すべての拡張ペアに対する加重損失(ソフト回帰バリアント)への簡単な一般化です。ここで、ソフトターゲットexp(wi,j )/Σk exp(wi,k )は、各ペアのラベル(速度)類似性wi,jによって駆動されます。 ラベルが離散的になると(すなわち、wi,j ∈ {0, 1})、LSimPerは元のInfoNCE損失に退化します。 付録D.4.4で示していますが、このような一般化された損失を通じた連続性モデリングは、単純にInfoNCEを適用するよりも優れたダウンストリームパフォーマンスを達成するのに役立ちます。
Download