본문 바로가기
theory 📓/딥러닝

Graph Node / GNN / GCN

by 고돌한 데이터 사이언스 2024. 11. 8.
반응형

Graph Node

그래프의 노드를 벡터로 매핑하여 유사한 노드가 유사한 표현을 갖도록 하는 것을 목표로 합니다. 이 문맥에서 "그래프의 유사한 노드들이 서로 가깝게 임베딩된다"가 올바른 선택입니다. 유사한 노드를 가깝게 임베딩하는 것은 그래프 구조 내의 관계를 효과적으로 반영하기 때문입니다.

 

  1. "In the ____ setting, one can generate embeddings for nodes that are unseen in training, since output of training in this setting is an encoder (a function that generates embeddings)."에서 설명하는 것은 **"transductive"**"inductive" 설정 중 inductive 설정입니다. Inductive 설정에서는 훈련 중에 보지 못한 노드도 임베딩할 수 있습니다.
  2. "However, in the ____ setting, one cannot generate embeddings for nodes that are not seen during training, since output of training in this setting is node embeddings."transductive 설정을 의미합니다. Transductive 설정에서는 훈련 중에 보지 못한 노드를 임베딩할 수 없습니다.

그래프 데이터에서의 작업 수준은 크게 두 가지로 나눌 수 있습니다.

  1. 노드 수준 작업 (Node-level tasks): 개별 노드에 초점을 맞추어 수행하는 작업입니다. 여기에는 다음과 같은 작업이 포함됩니다.
  2. 엣지 수준 작업 (Edge-level tasks): 노드 간의 관계 또는 연결을 예측하는 작업입니다.

GNN

이 문제는 단일 GNN(Graph Neural Network) 레이어의 주요 단계에 대한 설명 중 올바른 문항을 선택하는 것입니다. 각 문항을 분석해 보겠습니다. (정답 1,3,4,5)

 

In aggregation, a target node aggregates the messages from its neighbors

설명: GNN에서는 일반적으로 각 노드가 주변 이웃 노드들로부터 정보를 수집(aggregation)하여 자신의 표현에 반영합니다. 이 문장은 맞는 설명입니다.

정답: 선택

A single layer of most GNNs consists of three steps: message, aggregate, and combine.

설명: 일반적인 GNN 레이어는 메시지 전달과 집계(aggregation) 과정을 포함하지만, 'combine' 단계가 반드시 명시적으로 들어가지는 않습니다. 따라서 이 설명은 GNN 레이어에 대한 정확한 설명이라고 하기 어렵습니다.

정답: 선택하지 않음

In messaging, each node computes a message.

설명: GNN메시지 전달 단계에서는 각 노드가 자신의 상태를 바탕으로 이웃 노드에게 보낼 메시지를 계산합니다. 이 문장은 올바른 설명입니다.

정답: 선택

These three steps are followed by a linear activation function such as ReLU.

설명: GNN 레이어에서 집계된 정보를 비선형 활성화 함수 (: ReLU)를 통해 변환하는 것이 일반적입니다. 이 문장은 맞는 설명입니다.

정답: 선택

In combination, the target node combines the aggregation above and the message of the target node itself.

설명: 많은 GNN 구조에서는 이웃의 메시지와 자신이 가진 정보(자기 연결)를 결합하여 노드의 표현을 업데이트합니다. 이 문장도 올바른 설명입니다.

정답: 선택

 

GCN

GCN(Graph Convolutional Network)에서 **비대칭 정규화(asymmetric normalization)** **대칭 정규화(symmetric normalization)**의 차이점과 비대칭 정규화의 동작 방식을 묻고 있습니다.

문제의 내용 분석

  • 비대칭 정규화(asymmetric normalization): GCN에서 각 노드의 연결 강도를 노드의 차수(degree)에 따라 비대칭적으로 조정합니다. 비대칭 정규화에서는 연결된 노드의 차수에 따라 가중치가 달라지며, 차수가 낮은 노드의 메시지가 더 크게 반영될 수 있습니다.
  • 대칭 정규화(symmetric normalization): GCN에서 노드 간 연결의 영향을 균등하게 조정하여 모든 노드의 메시지가 비슷한 비율로 반영되도록 합니다.

문제의 진술 검토

문제에서 설명하는 바에 따르면, 비대칭 정규화에서는 타겟 노드가 차수가 높은 내부 이웃(insider neighbor)보다 차수가 낮은 외부 이웃(outsider neighbor)로부터 더 많은 메시지를 수신한다고 되어 있습니다.

이 진술은 올바릅니다. 비대칭 정규화에서는 차수가 낮은 노드의 중요성이 상대적으로 높아질 수 있으며, 이는 더 동적인 정보 전달을 가능하게 합니다.

정답

따라서, 이 문장은 True가 정답입니다.

 

비대칭 정규화(asymmetric normalization) GCN에서 각 노드의 연결 강도를 차수(degree)에 따라 비대칭적으로 조정, 차수가 낮은 노드의 메시지가 더 크게 반영될 수 있음

 

대칭 정규화(symmetric normalization) : GCN에서 각 노드 간 연결의 영향을 균등하게 조정하여 모든 노드 메시지가 비슷한 비율로 반영됨

반응형

'theory 📓 > 딥러닝' 카테고리의 다른 글

rdb, nosql, gdb  (0) 2024.11.11
추천시스템 / 커리큘럼 러닝  (1) 2024.11.08
Self Attention / Transformer / Decoding  (2) 2024.11.08
CNN Applications  (0) 2024.11.06
CNN  (0) 2024.11.06

댓글