작성자: 15기 이승은
1. CNN
two great ideas of CNN - shared weights (filter size), translation invariance (이미지 위치 정보 사라짐)
2. Basics of GCN
G=(A,X), where A∈R^(N×N) represents an Adjacency matrix (node의 연결을 나타내는 인접 행렬 and X∈R^(N×d) represents a node feature matrix Here, N: 그래프에 포함된 node의 수, and d: node feature vector의 차원 (node feature의 수)
→ 그래프를 정의하기 위해서는 인접행렬 (노드 간 연결 관계에 관련된 행렬) 및 노드의 feature vector 값이 필요하다
graph convolution (ψ)
H = ψ(A,X) = σ(AXW)
H∈R^(N×m), latent node feature matrix
→ 이러한 방식으로 graph convolution ψ(A,X)=σ(AXW)를 통해 그래프에 존재하는 모든 node에 대한 m차원 latent feature matrix를 생
3. BUT 인접행렬의 한계
→ 두 가지 문제점을 해결하기 위해
(1) A에 self-loop를 추가
(Self-loop가 추가된 인접 행렬 A’ = A + I; Here, I stands for an identity matrix)
(2) A를 정규화
4. 정리
* GCN은 E (edge feature matrix)를 무시함 → GAT도 E 무시, MPNN은 E 고려
5. code implementation
ref.
https://littlefoxdiary.tistory.com/m/17,
https://untitledtblog.tistory.com/152,
https://stellargraph.readthedocs.io/en/stable/demos/node-classification/gcn-node-classificatitn.html,
Semi-Supervised Classification with Graph Convolutional Networks [ICLR 2017]
댓글 영역