[Advanced ML & DL Week1] Semi-supervised Classification with Graph Convolutional Networks
그래프에 convolution filter를 적용하여, 노드 하나와 인접 노드와의 관계를 계산하고 싶음.
the convolution of two functions in real space is the same as the product of their respective Fourier transforms in Fourier space
그래프에서 convolution은 푸리에 point-wise multiplication과 같다!
supervised 로 모델 훈련시키고 inference는 unlabeled data
L0 : labeled 에 대한 supervised loss
X : matrix of node feature vectors Xi .
∆ = D − A
가정 : 연결된 노드들은 같은 label일 가능성이 높다.
그러나 연결된게 similarity 이상의 정보를 담을 수 있음
graph signal을 frequency로 분해하는 과정
signal : 노드의 feature
frequency: feature들 간의 차이
spectral convolution을 signal x와 filter gθ 의 합성곱으로 정의
U : the matrix of eigenvectors of the norma lized graph Laplacian
x의 앞부분은 Laplacian matrix의 eigen decomposition과 같다.
노드가 누구와 연결되어 있는지
연결되어 있으면 1, 연결안되어 있으면 0
해당 노드가 몇 개의 노드랑 연결되어 있는지
대각 행렬
결론 : Laplacian 을 feature vector 에 곱하는 것이 푸리에 변환의 역할을 한다.
여기까지의 문제점
localized filter 로 만들기 위해 polynomial parametrization(다항식으로 근사) 을 시행
k= 한 노드의 이웃의 범위로 지정
이것도 아직 계산량이 많아서 근사식을 활용! (chebyshev polynomial)
GCN은 k=1로 변환하여 해당과정을 layer로 표현
A: adjacency matrix
X: data
W(0) : input ----> hidden 의 weight matrix
W(1) : hidden ----> output 의 weight matrix
yL : labeled data 에서만 표현
노드: 논문
edge: 인용
노드 feature: bag of words
[Advanced ML & DL Week2] Probabilistic Latent Semantic Analysis (0) | 2022.09.21 |
---|---|
[Advanced ML & DL Week2] Faster R-CNN (1) | 2022.09.20 |
[Advanced ML & DL Week1] World Models (1) | 2022.09.15 |
[Advanced ML & DL Week1] Simple and Scalable Predictive Uncertainty Estimation Using Deep Ensembles (1) | 2022.09.15 |
[Advanced ML & DL Week1] Indexing By Latent Semantic Analysis (0) | 2022.09.15 |
댓글 영역