Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
SA
Uploaded by
Shin Asakawa
288 views
Rnncamp01
Slides for RNNcamp#1
Science
◦
Related topics:
Neural Networks
•
Read more
1
Save
Share
Embed
Embed presentation
Download
Download to read offline
1
/ 68
2
/ 68
3
/ 68
4
/ 68
5
/ 68
6
/ 68
7
/ 68
8
/ 68
9
/ 68
10
/ 68
11
/ 68
12
/ 68
13
/ 68
14
/ 68
15
/ 68
16
/ 68
17
/ 68
18
/ 68
19
/ 68
20
/ 68
21
/ 68
22
/ 68
23
/ 68
24
/ 68
25
/ 68
26
/ 68
27
/ 68
28
/ 68
29
/ 68
30
/ 68
31
/ 68
32
/ 68
33
/ 68
34
/ 68
35
/ 68
36
/ 68
37
/ 68
38
/ 68
39
/ 68
40
/ 68
41
/ 68
42
/ 68
43
/ 68
44
/ 68
45
/ 68
46
/ 68
47
/ 68
48
/ 68
49
/ 68
50
/ 68
51
/ 68
52
/ 68
53
/ 68
54
/ 68
55
/ 68
56
/ 68
57
/ 68
58
/ 68
59
/ 68
60
/ 68
61
/ 68
62
/ 68
63
/ 68
64
/ 68
65
/ 68
66
/ 68
67
/ 68
68
/ 68
More Related Content
PDF
RpgツクールVX ace勉強会「はじめての操作編」 20151003
by
りんね ぐりっど
PPTX
Jupyter Notebookを納品した話
by
Hiroki Yamamoto
PDF
「RSpec初心者に送るRSpec最強チュートリアル」発表資料 #sg_study
by
Junichi Ito
PPTX
猫とまいんどすとーむのつぶやき Slide share
by
furugen098
PDF
地獄Spec
by
Tsunenori Oohara
PPTX
OSS事例から学んだ プロジェクトを進める技術
by
Daisuke Kondo
PDF
Project Sumatra - JavaOne2012報告会 #j1rep
by
Yuji Kubota
PPTX
Apresentação sb club 01 09
by
Fabio Rodrigues
RpgツクールVX ace勉強会「はじめての操作編」 20151003
by
りんね ぐりっど
Jupyter Notebookを納品した話
by
Hiroki Yamamoto
「RSpec初心者に送るRSpec最強チュートリアル」発表資料 #sg_study
by
Junichi Ito
猫とまいんどすとーむのつぶやき Slide share
by
furugen098
地獄Spec
by
Tsunenori Oohara
OSS事例から学んだ プロジェクトを進める技術
by
Daisuke Kondo
Project Sumatra - JavaOne2012報告会 #j1rep
by
Yuji Kubota
Apresentação sb club 01 09
by
Fabio Rodrigues
Viewers also liked
PDF
20150930
by
nlab_utokyo
PPTX
Голодомор на Україні: очима свідків, мовою документів
by
zolka2016
PDF
hardy
by
Innocentius Subahardi
PDF
2016word embbed
by
Shin Asakawa
PPTX
Unit 4 design and layout of lms
by
lealynnr
DOCX
subir presentaciones de power point a un blog
by
Marcio Perez
PDF
Marketingplan explanation - POLÔNIA
by
Grupo “Gold Team” (Equipe de Ouro)
PPTX
Guía de lecturas 2016
by
Elena López Nores
20150930
by
nlab_utokyo
Голодомор на Україні: очима свідків, мовою документів
by
zolka2016
hardy
by
Innocentius Subahardi
2016word embbed
by
Shin Asakawa
Unit 4 design and layout of lms
by
lealynnr
subir presentaciones de power point a un blog
by
Marcio Perez
Marketingplan explanation - POLÔNIA
by
Grupo “Gold Team” (Equipe de Ouro)
Guía de lecturas 2016
by
Elena López Nores
Similar to Rnncamp01
PPTX
「機械学習とは?」から始める Deep learning実践入門
by
Hideto Masuoka
PPTX
Tf勉強会(5)
by
tak9029
PDF
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
by
NVIDIA Japan
PPTX
深層学習とTensorFlow入門
by
tak9029
PDF
ニューラルネットワークを用いた自然言語処理
by
Sho Takase
PDF
Recurrent Neural Networks
by
Seiya Tokui
PPTX
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
by
Sony Network Communications Inc.
PDF
Learning to forget continual prediction with lstm
by
Fujimoto Keisuke
PDF
TensorFlow math ja 05 word2vec
by
Shin Asakawa
PDF
Rnn+lstmを理解する
by
Arata Honda
PPTX
[DL輪読会]Neural Ordinary Differential Equations
by
Deep Learning JP
PDF
dl-with-python01_handout
by
Shin Asakawa
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PPTX
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
by
Naonori Nagano
PPTX
RNNで頑張ろう
by
理玖 川崎
PPTX
最近の自然言語処理
by
naoto moriyama
PDF
Chap.7 pp.553~556
by
hiroya ikeda
DOCX
レポート深層学習Day3
by
ssuser9d95b3
PPTX
ラビットチャレンジレポート 深層学習Day3
by
ssuserf4860b
PDF
深層学習レポートDay3(小川成)
by
ssuser441cb9
「機械学習とは?」から始める Deep learning実践入門
by
Hideto Masuoka
Tf勉強会(5)
by
tak9029
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
by
NVIDIA Japan
深層学習とTensorFlow入門
by
tak9029
ニューラルネットワークを用いた自然言語処理
by
Sho Takase
Recurrent Neural Networks
by
Seiya Tokui
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
by
Sony Network Communications Inc.
Learning to forget continual prediction with lstm
by
Fujimoto Keisuke
TensorFlow math ja 05 word2vec
by
Shin Asakawa
Rnn+lstmを理解する
by
Arata Honda
[DL輪読会]Neural Ordinary Differential Equations
by
Deep Learning JP
dl-with-python01_handout
by
Shin Asakawa
Deep Learningの基礎と応用
by
Seiya Tokui
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
by
Naonori Nagano
RNNで頑張ろう
by
理玖 川崎
最近の自然言語処理
by
naoto moriyama
Chap.7 pp.553~556
by
hiroya ikeda
レポート深層学習Day3
by
ssuser9d95b3
ラビットチャレンジレポート 深層学習Day3
by
ssuserf4860b
深層学習レポートDay3(小川成)
by
ssuser441cb9
More from Shin Asakawa
PDF
深層学習(ディープラーニング)入門勉強会資料(浅川)
by
Shin Asakawa
PDF
Rnncamp01
by
Shin Asakawa
PDF
Rnncamp2handout
by
Shin Asakawa
PDF
2016 dg2
by
Shin Asakawa
PDF
2016tf study5
by
Shin Asakawa
PDF
2016tensorflow ja001
by
Shin Asakawa
PDF
2016人工知能と経済の未来合評会資料
by
Shin Asakawa
PDF
2016word embbed supp
by
Shin Asakawa
PDF
第4回MachineLearningのための数学塾資料(浅川)
by
Shin Asakawa
PDF
回帰
by
Shin Asakawa
PDF
primers neural networks
by
Shin Asakawa
PDF
Linera lgebra
by
Shin Asakawa
深層学習(ディープラーニング)入門勉強会資料(浅川)
by
Shin Asakawa
Rnncamp01
by
Shin Asakawa
Rnncamp2handout
by
Shin Asakawa
2016 dg2
by
Shin Asakawa
2016tf study5
by
Shin Asakawa
2016tensorflow ja001
by
Shin Asakawa
2016人工知能と経済の未来合評会資料
by
Shin Asakawa
2016word embbed supp
by
Shin Asakawa
第4回MachineLearningのための数学塾資料(浅川)
by
Shin Asakawa
回帰
by
Shin Asakawa
primers neural networks
by
Shin Asakawa
Linera lgebra
by
Shin Asakawa
Rnncamp01
1.
RNN camp #1 浅川伸一
Shin Asakawa <
[email protected]
>
2.
注意事項 ● 本日のトークでは途中でペアワーク,グループワークを行ない ます。隣の席に座っている方と簡単な自己紹介をしてお互い に面通ししてください。 ● GitHub
からダウンロードをお願いしますhttps://github. com/ShinAsakawa/rnncamp.git ● Python, C++ コンパイラはインストールされていますか? ○ pip install --upgrade autograd ○ pip install --upgrade termcolor
3.
謝辞 ● KUNO 佐藤傑様 ●
C8 lab 新村拓也様 ● Google 佐藤一憲様
4.
本日の予定 19:00 - 19:10
自己紹介,進め方についての注意事項 19:10 - 19:50 リカレントニューラルネットワークの概要 19:50 - 20:00 休憩 20:00 - 20:40 バックプロパゲーションスルータイム 20:40 - 21:00 実習と質疑応答
5.
メニュー 1. 自己紹介 2. RNN
camp 計画(案) 3. RNN camp #1 3.1. リカレントニューラルネットワークとは何か 3.2. リカレントニューラルネットワークの最近の成果 3.3. 古典的リカレントニューラルネットワーク 3.4. ミコロフ革命 3.5. バックプロパゲーションスルータイム
6.
1. 自己紹介
7.
自己紹介 浅川伸一 博士(文学) 東京女子大学情報処理センター勤務。早稲田大学在学時はピアジェの発生 論敵認識論に心酔する。卒業後エルマンネットの考案者ジェフ・エルマンに師事,薫陶を 受ける。以来人間の高次認知機能をシミュレートすることを通して知的であるとはどうい うことかを考えていると思っていた。著書に「ディープラーニング,ビッグデータ,機械学 習あるいはその心理学」(2015)
新曜社。「ニューラルネットワークの数理的基礎」「脳損 傷とニューラルネットワークモデル,神経心理学への適用例」いずれも守一雄他編「コネ クショニストモデルと心理学」(2001) 北大路書房など
8.
Python で体験する深層学習,コロ ナ社, (7月26日発売).https://www. amazon.co.jp/dp/4339028517/
9.
RNN camp の目的 深層学習の一つリカレントニューラルネットワークの 紹介,情報共有 可能性と限界を知りつつ応用問題を考える機会を持 ちたい
10.
RNN camp の諸元 ●
プロジェクトページhttp://www.cis.twcu.ac. jp/~asakawa/rnncamp/ ● ソースコードhttps://www.github. com/shinasakawa/rnncamp ● ハッシュタグ #rnncamp
11.
2. RNN camp
計画(案)
12.
RNN camp 今後の計画 ●
第1回 SRN, BPTT, 確率的勾配降下法(今回) ● 第2回 LSTM, GRU, BiRNN, 最適化,正規化,勾配消失/爆 発問題(8月または9月) ● 第3回 NIC, text2image, 注意の導入,1ショット/0ショット学 習,画像チューリングチャレンジ(9月または10月) ● 第4回 QA システム, 画像QA システム, ニューラルチューリン グマシン, ニューラルGPU, メモリーネットワーク(10月または 11月)
13.
告知(別プロジェクト) ● TensorFlowと機械学習に必要な数学を基礎から学ぶ会 ● 開催時期 ○
2016年8月下旬開始予定。隔週または3週毎のウィークディ19時から21時くら い ● 開催場所 未定(おそらく都内) ● 対象者 機械学習に強い興味を抱く初心者 ● 参加費 無料 ● Google+ のコミュニティ Math primer for TensorFlow ja で案内、告知、募集 (「Tensorflow と機械学習を理解するための涙なしの数学入門」は却下された)ま たは
[email protected]
へ申し込み希望メールを送る
14.
3.1 リカレントニューラルネットワークとは何 か
15.
3.1.1. 知性とは 知性 ≒
学習能力,知性 ≒ 予測能力,知性 ≒ 状況判断力 ● 画像分類:教師あり学習,損失関数の最小化 max p(ラベル|画 像) ← 深層フィードフォワード型ニューラルネット ● 系列情報処理(言語情報処理): 系列予測 max p(xt | xt-1 , xt-2 , ...) ←リカレントニューラルネットワーク 今まで観察してきた事実(履歴)から次に起こる事象を予測 ● 強化学習 :報酬予測を学習信号とする
16.
3.1.2. リカレントニューラルネットワークの仲間 ● アトラクターネットワーク ●
ホップフィールドネットワーク ● エコーステートネットワーク ● ボルツマンマシン(制限付きではない方) ● ...
17.
3.1.3 ヒントン先生曰くhttps://www.youtube.com/watch?v=VhmE_UXDOGs ● 任意の文章を思考ベクトルへ変換,文書とは思考ベクトルの 系列 ●
深層リカレントニューラルネットワークによる思考ベクトル系列 の学習 推論,理解へ到達する可能性 ● 人間のレベルの理解に到達するためには数億,数兆のニュー ロンが必要 古典的統計学:雑音除去 ----> AI:分布の学習
18.
3.1.4. リカレントニューラルネットワークの特徴 1) 過去の状態を保持する中間層 2)
非線形性 3) 深層化(多層化) しかし... 1980年代からの論文を紐解くと,黒魔法の数々 勾配チェック,勾配クリップ,勾配正規化,忘却バイアス,様々な 初期化/正規化/正則化
19.
3.1.5. 近年の進歩 1. 黒魔法が整備 2.
演算速度が向上した 3. 記憶容量が増大した 4. 内部状態(短期記憶)を(長期的に)保持する素子(長期の短 期記憶 Long Short-Term Memory: LSTM), GRU 5. 従来手法を凌駕 NLP, MT, V-QA, NIC,... 6. LSTMを基本素子としてネットワーク構造の作り込み :NTM,Neural GPU, Memory Network などの発展
20.
3.1.6. 系列情報を扱う手法の比較 ● 内部状態無しモデル ○
自己回帰モデル AR ≒ NetTalk, ベンジオ(2003) ● 内部状態有りモデル: ○ 隠れマルコフモデル HMM ○ 線形力学系モデル Linear dynamical systems ■ データ同化,カルマンフィルター
21.
中間層 入力 出力 階層型 中間層 入力 出力 再帰型 再帰結合
22.
中間層 入力 出力 階層型 中間層 入力 出力 再帰型 中間層 入力 出力 再帰結合
23.
中間層 入力 出力 階層型 中間層 入力 出力 再帰型 中間層 入力 出力 再帰結合 中間層 入力 出力 再帰結合 時間発展。時間方向 →に見れば多層ニューラルねっt
24.
3.2 最近の成果
25.
リカレントニューラルネットワークの成果(SOTAを含む) 1. 手書き文字認識(Graves et
al., 2009) 2. 音声認識(Graves & Jaitly, 2014; Graves, Mohamed, & Hinton, 2013) 3. 手書き文字生成(Graves, 2013) 4. 系列学習(Sutskever, Vinyals, & Le, 2014) 5. 機械翻訳(Bahdanau, Cho, & Bengio, 2015; Luong, Sutskever, Le, Vinyals, & Zaremba, 2015) 6. 画像脚注付け(Kiros, Salakhutdinov, & Zemel, 2014; Vinyals, Toshev, Bengio, & Erhan, 2015) 7. 構文解析(Vinyals et al., 2015) 8. プログラムコード生成(Zaremba & Sutskever, 2015)
26.
Actor is Schmithuber
who proposed LSTM https://www. youtube.com/watch?v=-OodHtJ1saY
27.
3.3 古典的リカレントニューラルネットワーク
28.
マイケル・ジョーダン発案のジョーダンネット(1986) 運動制御
29.
だが彼ではない! マイケル・エアー・ジョーダン
30.
マイケル・アーヴィン・ジョーダン 現ジャーナルオブマシンラーニング現編集長 現人神。ミスター機械学習。混合エキスパートモデル,トピックモデル(中華料理 屋過程,中華料理フランチャイズ過程,...)
31.
エルマンネット(1990, 1993)
32.
師匠ジェフ・エルマンと
33.
1. カルパセィさんの min-char-rnn.py 2.
拙作 elman.py 暴力的に画面にグラフを描画します 3. 1 は文字レベルのエルマンネット,2は単語レベルのエルマンネットです。 4. 一般に日本語の言語モデルでは分かち書きの前処理が必要 5. だが文字レベルのリカレントニューラルネットワークで従来手法を上回る性 能のモデルが報告されている(Chung et al.2016) 軽く実習
34.
elman.py によるペアワーク コマンドライン引数 --activate_f 活性化関数
[tanh|logistic|relu|elu] --grad_clip 勾配クリップ --hidden 中間層のニューロン数 --lr 学習係数 --max_iter 最大繰返し数 --sample_n 予測する単語数 --seed 乱数の種 --seq_length 系列長--snapshot_t スナップショットの間隔 --train 訓練データファイル名
35.
elman.py によるペアワーク ペアを組んだ相手と同じ条件で 活性化関数
logistic と tanh とを 比較する 他の条件を変更して学習結果を確認する 損失関数が小さくなった方が勝ち LeCun のレシピ論文以来 logistic 関数の替わりに tanh を 用いるのがスタンダードであった(2012年までは)
36.
今や 整流線形ユニットReLU,指数線形ユニットelu Clevert, Unterthiner
& Sepp Hochreiter(2016) ReLU は Krizensky(2012) で有名
37.
3.4 ミコロフ革命
38.
Tomas Mikolov @NIPS2015 RAM ワークショッ プにて RAM
:reasoning, attention, and memory
39.
3.4.1 長距離依存
40.
リカレントニューラルネットワークの様々な入出力形態 バニラ 画像キャプション 機械翻訳 ビデオキャプション
41.
リカレントニューラネット再掲載
42.
ボーデンの図
43.
3.4.1 ミコロフ革命 ニューラルネットワーク言語モデル 訓練アルゴリズム リカレントニューラルネットワーク エントロピー最大化言語モデル
44.
3.4.2 ミコロフ革命 統計的言語モデル 単語系列に確率を与える 良い言語モデルは有意味文に高い確率を与え,曖 昧な文には低い確率を与える 言語モデルは人工知能の問題
45.
3.4.3 ミコロフ革命チューリングテスト ューリングテストは原理的に言語モデルの問題とみ なすことが可能 会話の履歴が与えられた時,良い言語モデルは正し い応答に高い確率を与える 例: P(月曜|今日は何曜日ですか?)=?
46.
3.4.4 ミコロフ革命チューリングテスト ューリングテストは原理的に言語モデルの問題とみ なすことが可能 会話の履歴が与えられた時,良い言語モデルは正し い応答に高い確率を与える 例: P(月曜|今日は何曜日ですか?)=?
47.
3.4.5 ミコロフ革命 N-グラム言語モデル 文脈h
の中で単語w が何回出現したかをカウント。 観測した全ての文脈h で正規化
48.
3.4.6 ミコロフ革命 N-グラム言語モデル 類似した言語履歴h
について, N-gram 言語モデル は言語履歴h が完全一致することを要請 実用的には,N-gram 言語モデルはN 語の単語系 列パターンを表象するモデル N-gram 言語モデルではN の次数増大に従って,パ ラメータは指数関数的に増大する
49.
3.4.7 ミコロフ革命 N-グラム言語モデル 類似した言語履歴h
について, N-gram 言語モデルは言語履歴h が完全一致することを 要請。 実用的には,N-gram 言語モデルはN 語の単語系列パターンを表象するモデル N-gram 言語モデルでは N の次数増大に従って,パラメータは指数関数的に増大す る。 パラメータ推定に必要な言語情報のコーパスサイズは,次数増大に伴って,急激に増大 する
50.
3.4.8 ミコロフ革命 RNN
言語モデル スパースな言語履歴h は低次元空間へと射影される。類似した言 語履歴は群化する 類似の言語履歴を共有することで,ニューラルネットワーク言語モ デルは頑健(訓練データから推定すべきパラメータが少ない)
51.
3.4.9 ミコロフ革命 RNN
言語モデル スパースな言語履歴h は低次元空間へと射影される。類似した言 語履歴は群化する 類似の言語履歴を共有することで,ニューラルネットワーク言語モ デルは頑健(訓練データから推定すべきパラメータが少ない)
52.
3.4.10 ミコロフ革命 参照言語モデル
53.
3.4.12 ミコロフ革命 RNNLM
54.
3.4.11 ミコロフ革命 RNNLM
55.
3.4.12 ミコロフ革命 RNNLM
56.
3.4.13 ミコロフ革命 RNNLM
57.
3.4.14 ミコロフ革命 RNNLM f
(x) はロジスティック関数,g (x) はソフトマックス関数。最近のほとんど のニューラルネットワークと同じく出力層にはソフトマックス関数を用 いる。出力を確率分布とみなすように,全ニューロンの出力確率を合わ せると1となるように
58.
3.4.15 ミコロフ革命 RNNLMの学習 時刻t
における入力層から中間層への結合係数行列U は,ベクトル s (t) の更新を以下のようにする。 時刻t における入力層ベクトルw(t) は,一つのニューロンを除き全て 0 である。上式の ように結合係数を更新するニューロンは入力単語に対応する一つのニューロンのそれを 除いて全て0 なので,計算は高速化できる。
59.
3.4.16 ミコロフ革命 BPTT
60.
3.4.17 ミコロフ革命 BPTT(2) リカレントニューラルネットワーク を時間展開して,多層フィードフォ ワードニューラルネットワークとみ なす。3
ステップ分を表示してあ る
61.
3.4.17 ミコロフ革命 BPTT(3) バックプロパゲーションスルータイムでは,前の時刻の中間 層の状態を保持しておく必要がある。 各タイムステップで,繰り返しで微分して勾配ベクトルの計算 が行われる。各タイムステップの時々刻々の刻みを経るごと に急速に勾配が小さくなる勾配消失問題
62.
3.4.17 ミコロフ革命 BPTT(4) 活性化関数がロジスティック関数
f (x) =(1 + exp (-x))^-1 で あれば、その微分は f′ (x) = x (1 - x) であった。ハイパータン ジェント ϕ (x) =(exp(x) - exp(-x)/(exp(x) + exp(-x))であれば ϕ′ (x) = (1-x^2)であるから、いずれの活性化関数を用いる場 合でもニューロンxの値域(取 りうる値)が 0<= x <= 1 である限り、ロジスティック関数であ れハイパータンジェント関数であれ、元の値より 0 に近い値と なる。これと反対の現象勾配爆発問題が起きる可能性があ る。
63.
3.4.18 ミコロフ革命 BPTT(5) 再帰結合係数行列
W の更新には次の式を用いる 行列W の更新は誤差が逆伝播するたびに更新されるのでは なく、一度だけ更新する。
64.
3.4.19 ミコロフ革命 BPTT(6) 赤い矢印は誤差勾配がリカレント ニューラルネットワークの時間展開を 遡っていく様子を示している。
65.
Code: ● Recurrent Neural
Network Language Model http://www.fit.vutbr.cz/~imikolov/rnnlm/ ● Word2vec: https://github.com/dav/word2vec 実習ミコロフのコードを読んでみよう
66.
補足 お伝えし忘れました。ミコロフの rnnlm をちゃんと評価するためには Srilm-toolkit
が必要になります。GitHub のREADME.MD には書いておきましたが口 頭でお伝えするのを忘れました。以下にURLを示します。http://www.speech.sri. com/projects/srilm/download.html 利用するには,ID を登録する必要があります。
67.
補足2モデルアンサンブル 1. 質問のあったモデルのアンサンブルについて 2. 同じモデルを,異なる初期化,交差検証データセット,ハイパーパラメータで実行す る方が性能が出ます。 3.
検証データセットを変えるとモデルの評価が変わるので他のパラメータが同じでも 異なるモデルができあがります。 4. 異なるハイパーパラメータで学習したモデルをアンサンブルするか,ハイパーパラ メータの平均値を用いて新たなモデルを訓練するかなど方法が提案されています。 http://cs231n.github.io/neural-networks-3/#ensemble
68.
おわりに 参加してくださった皆様,ありがとうございました。 このプロジェクト RNN camp
のプロジェクトページを立ち上げました。 ご意見をお寄せください メールアドレス:
[email protected]
プロジェクトホームページ:http://www.cis.twcu.ac.jp/~asakawa/rnncamp
Download