Upload
Download free for 30 days
Login
Submit search
Graph nuralnetwork@2021
0 likes
133 views
embedded samurai
Explain Graph Neural Network
Data & Analytics
Read more
1 of 18
Download now
Download to read offline
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
More Related Content
PPTX
Graph LSTM解説
yukihiro domae
PDF
PRML_from5.1to5.3.1
禎晃 山崎
PPTX
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
PDF
PRML§12-連続潜在変数
Keisuke OTAKI
PPTX
ひまわり本7章
CHY72
PDF
Deeplearning4.4 takmin
Takuya Minagawa
PDF
確率的主成分分析
Mika Yoshimura
PDF
PRML復々習レーン#15 前回までのあらすじ
sleepy_yoshi
Graph LSTM解説
yukihiro domae
PRML_from5.1to5.3.1
禎晃 山崎
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
PRML§12-連続潜在変数
Keisuke OTAKI
ひまわり本7章
CHY72
Deeplearning4.4 takmin
Takuya Minagawa
確率的主成分分析
Mika Yoshimura
PRML復々習レーン#15 前回までのあらすじ
sleepy_yoshi
What's hot
(7)
PDF
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
PDF
領域分割法
ADVENTURE Project
PDF
はじめてのパターン認識 第6章 後半
Prunus 1350
PDF
prml_titech_9.0-9.2
Taikai Takeda
PPTX
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
PDF
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PDF
PRML復々習レーン#14 ver.2
Takuya Fukagai
ICML2013読み会: Distributed training of Large-scale Logistic models
sleepy_yoshi
領域分割法
ADVENTURE Project
はじめてのパターン認識 第6章 後半
Prunus 1350
prml_titech_9.0-9.2
Taikai Takeda
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
PRML復々習レーン#7 前回までのあらすじ
sleepy_yoshi
PRML復々習レーン#14 ver.2
Takuya Fukagai
Ad
Graph nuralnetwork@2021
1.
Personal Presentation by
Shusaku SONE 1 2021/2/10 Graph Neural Network Shusaku SONE
2.
Personal Presentation by
Shusaku SONE 2 2021/2/10 GNN 基本 AGGREGATE 集約 近傍ノードの特徴をMAX,SUM,MEAN などしてひとつにする CONCAT(combine) 結合 自分自身の特徴と近傍ノード特徴を結合する READOUT 読み出し グラフを構成する全てのノード特徴をSUM, MEANするかしてグラフの特徴を表現する
3.
Personal Presentation by
Shusaku SONE 3 2021/2/10 層の定義 注目ノード 0層 (k=0) 注目ノードを含む近傍を 1層 (k=1) 注目ノードを含む近傍を畳み込みこんだ特徴量を中心とする近傍を 2層 (k=2)
4.
Personal Presentation by
Shusaku SONE 4 2021/2/10 MUTAG Dataset データセット MUTAG(Mutagenic compound DataSet) グラフ : 188種類の変異原性芳香族および異種芳香族ニトロ化合物が含まれている。 グラフ1つは平均17.9個のノードからなる. ノード : 7つの異なる離散ラベルが付いている. エッジ : 4つの異なる離散ラベルが付いている. グラフの種類: 変異原物質か否かの2値 1: 変異原物質 0: 変異原物質でない ノード特徴: 0 C [1,0,0,0,0,0,0] 1 N [0,1,0,0,0,0,0] 2 O [0,0,1,0,0,0,0] 3 F [0,0,0,1,0,0,0] 4 I [0,0,0,0,1,0,0] 5 Cl [0,0,0,0,0,1,0] 6 Br [0,0,0,0,0,0,1] 2-Nitrophenanthrene 2-ニトロフェナントレン 2,5-Difluoronitrobenzene 2,5-ジフルオロニトロベン ゼン エッジ特徴 0 aromatic 1 single 2 double 3 triple
5.
Personal Presentation by
Shusaku SONE 5 2021/2/10 GCN (AGGREGATION + CONCAT) 注目するノード vを含む近傍のノードの特徴を足し合わせてその平均の特徴をもとめる。 => 自分を含む近傍ノードは隣接行列表現で表現して,それと全ノードとの積和を もとめれば、各々のノードのSUMがでる。それを注目ノードに隣接しているノードの数で割るのがMEAN 2 [1., 0., 0., 0., 0., 0., 0.] 11 [1., 0., 0., 0., 0., 0., 0.] 3 [1., 0., 0., 0., 0., 0., 0.] ReLUをとり,それを注目ノードv を中心とした近傍を含む特徴にする。 これが1hop先(k=1)のvでの特徴 となる。 (1) (1) 1 LayerのNN の計算 つまり重みW との演算を行う。⇒ Perception (2) (2) (3) (3) 1 3 2 11 k=0 k=1 1 [0., 0., 1., 0., 0., 0., 0.] 注目ノード v=2 SUM [3., 0., 1., 0., 0., 0., 0.] MEAN [0.75, 0., 0.25, 0., 0., 0., 0.] Graph Convolutional Networks (GCN) (Kipf & Welling, 2017) hv[4,7]W[7,24] ⇒ [4,24]
6.
Personal Presentation by
Shusaku SONE 6 2021/2/10 (1) GraphSAGE 注目するノード vを除く近傍のノードのMAXを特徴とする。 2 [1., 0., 0., 0., 0., 0., 0.] 11 [1., 0., 0., 0., 0., 0., 0.] 3 [1., 0., 0., 0., 0., 0., 0.] (1) (2) (4) (3) 1 3 2 11 k=0 k=1 1 [0., 0., 1., 0., 0., 0., 0.] 注目ノード v=2 MAX [1., 0., 1., 0., 0., 0., 0.] av[4,7] CONCAT(hv[4,7],av[4,7])⇒[4,14] CONCAT[4,14] w[14,24] ⇒ [4,24] 注目するノードvと近傍ノードMAXの特徴をCONCATする。 1 LayerのNN の計算 つまり重みW との演算を行う。⇒ Perception ReLUをとり,それを注目ノードv を中心とした近傍を含む特徴にする。 これが1hop先(k=1)のvでの特徴 となる。 Inductive Representation Learning on Large Graphs (GraphSAGE) (William,Ying & Jure, 2018)
7.
Personal Presentation by
Shusaku SONE 7 2021/2/10 (1) GIN 注目するノード vを含む近傍のノードのSUMを特徴とする。 2 [1., 0., 0., 0., 0., 0., 0.] 11 [1., 0., 0., 0., 0., 0., 0.] 3 [1., 0., 0., 0., 0., 0., 0.] (1) (2) 1 3 2 11 k=0 k=1 1 [0., 0., 1., 0., 0., 0., 0.] 注目ノード v=2 SUM [3., 0., 1., 0., 0., 0., 0.] 2 Layer以上のNN の計算 つまりMLP演算を行う。⇒ 特徴を別次元に飛ばすことになるので特徴の単射性が確保できる それを注目ノードv を中心とした近傍を含む特徴にする。 これが1hop先(k=1)のvでの特徴 となる。 HOW POWERFUL ARE GRAPH NEURAL NETWORKS? (GIN) (Keyulu Xu, Weihua Hu, Jure Leskovec, Stefanie Jegelka, 2019)
8.
Personal Presentation by
Shusaku SONE 8 2021/2/10 GCN, GraphSAGE, GIN GCN GraphSAGE GIN
9.
Personal Presentation by
Shusaku SONE 9 2021/2/10 AGGREGATION (1) SUM以外のAggregationを行うと単射性(injective)が崩れる。 MAX/MEANの場合 識別できないグラフ構造が発生する。 接続ノードの個数の情報が落ちる。 意図的に接続ノードの個数の情報を落としたい場合はMAXが良い。 [1., 0., 1., 0., 0., 0., 0.] [1., 0., 1., 0., 0., 0., 0.] [1., 0., 1., 0., 0., 0., 0.] Max [1., 0., 1., 0., 0., 0., 0.] Mean [1., 0., 1., 0., 0., 0., 0.] Sum [2., 0., 2., 0., 0., 0., 0.] [1, 1, 0., 0., 0., 0., 0.] [1., 0., 1., 0., 0., 0., 0.] [1., 0., 1., 0., 0., 0., 0.] Max [1., 0., 1., 0., 0., 0., 0.] Mean [1., 0., 1., 0., 0., 0., 0.] Sum [3., 0., 3., 0., 0., 0., 0.] [1, 1, 0., 0., 0., 0., 0.] [1, 1, 0., 0., 0., 0., 0.] [1, 1, 1, 0., 0., 0., 0.] [1, 1, 1 , 0., 0., 0., 0.] Max [1., 1., 1., 0., 0., 0., 0.] Mean [1., 1., 0.5., 0., 0., 0., 0.] Sum [2., 2., 1., 0., 0., 0., 0.] Max [1., 1., 1., 0., 0., 0., 0.] Mean [1.5, 1.5, 0.5., 0., 0., 0., 0.] Sum [3., 3., 1., 0., 0., 0., 0.] [1, 1, 1 , 0., 0., 0., 0.] [1, 1, 1 , 0., 0., 0., 0.] [1, 1, 1 , 0., 0., 0., 0.] [1. 1, 0., 0., 0., 0., 0.] [1. 1, 0., 0., 0., 0., 0.] [1. 1, 0., 0., 0., 0., 0.] Max [1., 1., 1., 0., 0., 0., 0.] Mean [1., 1., 0.5., 0., 0., 0., 0.] Sum [2., 2., 1., 0., 0., 0., 0.] Max [1., 1., 1., 0., 0., 0., 0.] Mean [1, 1, 0.5, 0., 0., 0., 0.] Sum [4., 4., 2., 0., 0., 0., 0.] 単射(injective) wikipedia
10.
Personal Presentation by
Shusaku SONE 10 2021/2/10 AGGREGATION (2) Neighbor Max Mean 1 layer 1 layer MAX-1-Layer (Graph SAGE) MEAN-1-Layer (GCN) Sum 1 layer SUM-1-Layer Multi layer SUM-MLP (GIN) neighbor_pooling_type MLP層数 eps GCN mean 1FALSE GraphSAGE max 1FALSE GIN-e sum 2TRUE GIN-0 sum 2FALSE 1 layer perceptionは, 単射性が崩れる の場合,同一座標へ写像してしまう 単射性を確保するためのMLPの層数と 次のkで表現される層数(hop数)は異なることに注意。
11.
Personal Presentation by
Shusaku SONE 11 2021/2/10 Graph representation
12.
Personal Presentation by
Shusaku SONE 12 2021/2/10 GINでのGraph表現 グラフレベル表現
13.
Personal Presentation by
Shusaku SONE 13 2021/2/10 InfoGraphでのGraph表現 ノードv のk番目の層における特徴ベクトル グラフレベル表現 uとvの間のエッジの特徴ベクトル K層のグラフニューラルネットワークのパラメータの集合 ノード i を中心としたパッチ表現の要約 Fan-Yun Sun,Jordan Hoffman,Vikas Verma,Jian Tang, INFOGRAPH: UNSUPERVISED AND SEMI-SUPERVISED GRAPH-LEVEL REPRESENTATION LEARNING VIA MUTUAL INFORMATION MAXIMIZATION,2020 ・ノード表現 (例 l_enc [7,3] (ノード 7 , 特徴量ベクトル 3) ・グラフ表現 (例 g_enc [2,3] (グラフ 2 , 特徴量ベクトル 3) 式 (2) 式 (3)
14.
Personal Presentation by
Shusaku SONE 14 2021/2/10 Dataset
15.
Personal Presentation by
Shusaku SONE 15 2021/2/10 MUTAG Dataset データセット MUTAG(Mutagenic compound DataSet) グラフ : 188種類の変異原性芳香族および異種芳香族ニトロ化合物が含まれている。 グラフ1つは平均17.9個のノードからなる. ノード : 7つの異なる離散ラベルが付いている. エッジ : 4つの異なる離散ラベルが付いている. グラフの種類: 変異原物質か否かの2値 1: 変異原物質 0: 変異原物質でない ノード特徴: 0 C [1,0,0,0,0,0,0] 1 N [0,1,0,0,0,0,0] 2 O [0,0,1,0,0,0,0] 3 F [0,0,0,1,0,0,0] 4 I [0,0,0,0,1,0,0] 5 Cl [0,0,0,0,0,1,0] 6 Br [0,0,0,0,0,0,1] 2-Nitrophenanthrene 2-ニトロフェナントレン 2,5-Difluoronitrobenzene 2,5-ジフルオロニトロベン ゼン エッジ特徴 0 aromatic 1 single 2 double 3 triple
16.
Personal Presentation by
Shusaku SONE 16 2021/2/10 変異原性物質 (変異原性化合物 mutagenic compound) DNAに変化をひき起こす作用をもつ物質であり, 強い変異原性は発ガン性と密接な関係があることが知られて いる。 変異原性を調べることは遺伝毒性、発がん性の可能性がある物質を見つけ出すのにも役立つと考えられ、変 異原性試験は発がん性物質のスクリーニング試験(候補の絞り込み)としての意味も持つ。 〇 芳香族化合物(ほうこうぞくかごうぶつ、aromatic compounds) ベンゼンを代表とする環状不飽和有機化合物の一群。 炭化水素のみで構成されたものを芳香族炭化水素 (aromatic hydrocarbon), 環構造に炭素以外の元素を含むものを複素芳香族化合物 (heteroaromatic compound) と呼ぶ。 〇 NOx(ノックス) 窒素酸化物の総称。主に土壌中の微生物によって生成されるが、エンジン中の燃料など高温・高圧下 で物質が燃焼する際にも生じる。 〇 ニトロ多環芳香族化合物 有機化合物の燃焼過程で生成する物質の一種。 多環芳香族化合物(炭素が六角形に結合したベンゼン環が複数連なった化合物) がNOxと反応することによって生じ,強力な変異原性をもつものが多い。
17.
Personal Presentation by
Shusaku SONE 17 2021/2/10 定量的構造活性相関 QSAR 化学物質の構造と生物学的(薬学的あるいは毒性学的)な活性との間になりたつ量的関係のこと。 これにより構造的に類似した化合物の「薬効」について予測することを目的とする。 QSAR(=Quantitative Structure-Activity(またはAffinity) Relationshipの略) と呼ばれることもある。 D Villemin, D Cheqaoui, JM Cense, Neural networks studies: quantitative structure-activity relationship of mutagenic aromatic nitro compunds, J Chim Phys (1993) . MUTAGデータセットは,188種類の化合物の変異原性活性(Observed mutagenic activity) を求め,正値を1, 負値を-1としたデータセットである。 グラフ分類では,1を1,-1を0 にした2種分類問題として扱う論文が多い. No. 化合物名 InfoGraphなど Orig Observed mutagenic activity 1 2-Nitrophenanthrene 2-ニトロフェナントレン 1 1 2.11 2 8-Nitroquinoline 8-ニトロキノリン 0 -1 -1.24 3 5-Nitroquinoline 5-ニトロキノリン 0 -1 -0.96 4 1-Nitrofluoranthene 1-ニトロフルオランテン 1 1 2.74 5 2,5-Difluoronitrobenzene 2,5-ジフルオロニトロベンゼン 0 -1 -0.79
18.
Personal Presentation by
Shusaku SONE 18 2021/2/10 Ames試験 化学物質の変異原性を微生物のサルモネラ菌を使って調べる試験。 この試験では通常TA100株とTA98株の2菌株を用いる。 TA100株はDNAの塩基置換型変異 TA98株はDNAのフレームシフト変異 をそれぞれ検出できるように工夫されている。 被験物質がそれらの突然変異を誘発するか否かについて、同時にしかも短期間で調べることが出来る。 〇代謝活性化 化学物質によっては、生体内で種々の酵素によって代謝を受けて活性化された後、 変異原性を示すものが多く知られている。 Ames試験でもラットの肝臓の抽出物を加えて(ここには種々の代謝酵素が含まれている) 試験管内で代謝を行い代謝物の影響を考慮した試験を代謝活性化法(S9mix(+)と略記)と言う。 代謝活性化を行わない試験を直接法といい(-S9と略記) 通常はこれら2つの処理を同時に行いこれらの結果を総合して変異原性の有無についての判定を下す。 http://www.analyzejnet.com/anzensei/ames-nonglp.htm
Download