이 영역을 누르면 첫 페이지로 이동
Yphy 블로그의 첫 페이지로 이동

Yphy

페이지 맨 위로 올라가기

Yphy

머신러닝 개발 블로그

분류 전체보기

  • Yphy
Potential outcome framework

Potential outcome framework

2023.05.06
Endogeneity in causal inference 인과추론이 어려운 이유는 Endogeneity(내생성) 때문이다. 모델링하고자 하는 종속 변수와 독립 변수간의 상호 의존성이 존재해서 서로 영향을 끼치는 경우 endogenous하다고 한다 Everything is Endogenous 스티븐 잡스가 연설했던 connecting the dots처럼 모든 것들은 연결되어 있고 영향을 준다. 따라서 대부분의 인과추론 방법론들은 causal effect를 계산하기 위해 Endogenity problem을 해결하려고 한다. 단순하게 treatment group과 control group을 나눠서 그 차이로 인과를 설명할 수 있을까? 대부분의 연구에서 selection process는 생략되기 마련이다. 가령..
06. Structural properties of Network

06. Structural properties of Network

2022.06.04
강의의 앞 부분에서 average node degree (degree distribution), average clustering , average path length 등의 네트워크의 global perperties 에 대해 배웠고, 이어서 node centrality , pagerank 등의 vertex 에 대한 local properties 또한 공부하였다. 6강에서는 Pairwise properties 에 대해 다룬다. - node equivalence - node similarity - correlation between pairs of vertices (node values) * Structural equivalence 두 노드의 in-out neighbors가 모두 같다면 즉 ,정확히 같은 ..
05. Node centrality rating on Networks

05. Node centrality rating on Networks

2022.06.01
그래프에서 어떤 노드가 가장 중요한 노드인지 에 대한 지표를 node centrality 라고 할 수 있다. 하지만 단순히 degree가 가장 높은 노드가 중요할 수도 있고, 노드를 거쳐서 최단거리가 되는 노드가 중요할 수도 있어 결국 어떤 속성의 네트워크인지와 어떤 것을 중점으로 볼 지에 따라 다르다. 대표적인 node centrality 에 대해서 알아보자. *closeness centrality how close an actor to all the other actors in network 특정 노드에서 다른 모든 노드에 도달하는데 얼마나 많은 단계를 거치는지를 나타내는 지표, closeness가 높다는 것은 네트워크의 중심성이 낮다. 노드의 접근성에 따라서 중요도 부과. * Betweeness c..
[CS224W] 7. Graph Neural Networks 2: Design Space

[CS224W] 7. Graph Neural Networks 2: Design Space

2022.02.26
GNN 에서 computation graph, 신경망의 구조를 결정하는 것은 node's neighborhood 이다. 그림은 GraphSAGE 논문에서 가져온것으로 depth k 에 따라의 message passing임. 왼쪽의 그래프가 input graph 라고 해보자. A가 구하려는 타겟 노드라면 A는 그와 연결된 주변 이웃 노드의 임베딩을 aggregate 하여 결정되는데, 주변 이웃들도 그들의 이웃, A로부터 1-hop 이상인 노드로 부터 영향을 받는다. 결국 모든 노드들이 레이어마다 각자의 representation 을 가지고 있고 레이어가 깊어지면서 update된다는 컨셉이다. k=0 일 때는 node feature 를 사용한다. 결국 GCN,GraphSAGE,GAT 건 간에 Layer 1에..
Graph Convolutional Network (GCN)

Graph Convolutional Network (GCN)

2022.02.22
오늘은 ICLR 2017 에서 나온 논문인 semi-supervised classification with graph convolutional networks 를 읽고 GCN 에 대해서 리뷰하려고 합니다. 그래프를 공부하면서 읽는 첫 논문이라 개인적으로 어려웠습니다. Abstract 를 읽어보면 논문에서 소개하는 convolutional 모델은 spectral graph convolution의 localized first-order approximation이라고 합니다. 그래프를 통해서 label information이 smoothed 가 된다고 하고 이는 정규화된 Laplacian 행렬을 이용하기 때문에 가능하다고 하는데 전혀 이해가 안갔습니다. 라벨이 있는 노드에 대한 loss와 라벨이 없는 노드에 ..
[CS224W] 5. Label Propagation for Node Classification

[CS224W] 5. Label Propagation for Node Classification

2022.02.08
몇 개의 노드에 대한 라벨을 가진 네트워크가 있을 때, 정보가 없는 노드들을 어떻게 처리할 것인가? 위 그래프처럼 초록과 빨강이란 node label 이 그래프의 일부 노드에만 주어져 있을 때 오른쪽처럼 어떤식으로 node classification을 할 수 있을까? 일부 정보만 주어져 있기 때문에 semi-supervised node classification 문제라고 볼 수 있다. Message passing message passing이란 것을 이용해 문제를 해결하고자 하는데 노드들의 correlation을 이용하자는 게 아이디어이다. 간단히 말해 변수간의 상관관계처럼 노드 간의 similarity가 있다면 correlated라고 것이고 이는 곧 노드 간의 connection을 보자는 것이다. 앞서..
[CS224W] 3. Node embedding

[CS224W] 3. Node embedding

2022.02.02
1. Node embedding 기존의 머신러닝 모델에서 그래프를 이용하는 방법은 다음과 같다. input으로 그래프가 주어졌을 때, feature engineering을 통해 structured features를 만들어 ml 알고리즘으로 이를 학습한다. 하지만 Graph Representation learning 은 피쳐 엔지니어링을 자동화하기때문에 특정 task 마다 반복되는 작업을 할 필요가 없다. graph 를 잘 표현하는 것은 결국 그래프의 feature를 representation 하는 것이다. 노드 임베딩이란 그래프의 node u를 d차원의 실수 벡터로 표현하는 것이다. 노드를 벡터로 표현할 수 있게 되면, 노드 간의 similarity를 구할 수 있으며 네트워크(graph) 간의 유사성도 ..
Hybrid- Swin-Transformers 리뷰

Hybrid- Swin-Transformers 리뷰

2021.12.24
Efficient large-scale image retrieval with deep feature orthogonality and Hybrid- Swin-Transformers 안녕하세요 이번 논문은 Nvidia 의 Christof Henkel가 2021 Google Landmark recognition과 retrieval challenge 에서 우승하고 해당 대회에서 사용한 모델에 대해 쓴 논문입니다. 사실 코드가 아직 공개되지 않아서 방법론을 정확히 이해하진 못했으나 논문이 짧고 저자가 Kaggle 랭킹 1위이신 분이기도 해서 리뷰해봤습니다. 1. Introduction [Abstract] A model with deep orthogonal fusion of local and global featu..
Intriguing properties of vision transformer 리뷰

Intriguing properties of vision transformer 리뷰

2021.12.24
Intriguing properties of vit 개인적으로 Vision Transformer(VIT) 모델에 대해 관심이 많았고, intriguing~ 논문은 항상 흥미롭기 때문에 참을 수 없습니다. 논문의 abstract에 따르면 vision transformer가 occlusion, spatial permutation, domain shifts 같은 원본이미지에 대한 nuisances에 강건하다는 특징을 밝혀냈다고 합니다. Local texture에 biased한 CNN과는 달리 VIT는 shape biased representation을 한다는게 핵심인 것 같습니다. 1. Introduction CNN이 인풋 이미지의 엣지나, 윤곽선 정보를 통한 local interaction을 학습하는 반면에..
Asymmetric Loss For Multi-Label Classification 리뷰

Asymmetric Loss For Multi-Label Classification 리뷰

2021.12.20
Asymmetric Loss For Multi-Label Classification 안녕하세요 오늘 리뷰 할 논문은 Asymmetric Loss For Multi-Label Classification로 줄여서 ASL Loss라고 합니다. 6개월 전쯤에 패션 스타일 데이터의 multi label 문제를 풀다가 paperwithcode 에서 당시 2위로 높은 순위를 기록하고 있길래 적용을 했는데 좋은 효과를 보아서 소개하려고 합니다. 저도 그랬지만 주위에서 Data imbalance 문제를 겪는 문들을 많이 봤습니다. 보통은 upsampling을 쓰는 smote 기법이나 undersampling 등을 많이 사용하지만 크게 효과를 보지는 못하는 것 같습니다. 그중에서도 focal loss가 좀 더 좋다고 알려..
BERT4Rec review

BERT4Rec review

2021.12.19
BERT4Rec 1. Introduction Bert4rec이라고도 불리는 Sequential Recommendation with Bidirectional Encoder Representations from Transformer 에 대하여 간략하게 리뷰하려고 합니다. 대부분의 추천모델은 interaction histories에 기반한 Collaborative filtering 모델을 사용합니다. 그 중에서도 유저와 아이템의 latent vector 연산을 통해 선호를 예측하는 Matrix Factorization 을 활용하는 방법이 주로 쓰입니다. 다른 한 가지 방법은 아이템 기반의 neighborhood 방식입니다. 이는 사전에 계산된 아이템들간의 유사도를 활용해 user interaction 을 통해..
[3Blue1Brown] 신경망이란 무엇인가

[3Blue1Brown] 신경망이란 무엇인가

2021.12.18
3Blue1Brown 이라는 유튜브 채널에 업로드된 영상입니다. 오래전에 봤지만 갑자기 추천에 뜨길래 다시 봤더니 또 다른 느낌이어서 빠르게 요약을해봤습니다. 무언가를 설명할 때 영상처럼 이렇게 쉽고 interactive하게 설명할 수 있는게 대단한 것 같습니다. 영상을 보는 것이 제일 좋지만 그냥 갑자기 저도 설명해보고 싶어서 이미지 데이터라고 가정하고 적어보았습니다(반말) Neural Network 는 어떻게 이미지를 이해할 수 있을까 ? recognize or classification. 다음과 같은 28x28 해상도의 숫자 9의 필기체 이미지가 있다. 물론 잘 알겠지만 Mnist 데이터이다. black은 0, white는 1의 픽셀 값을 가지므로 숫자 9에 해당하는 영역들은 0에서 1사이의 gra..
  • 최신
    • 1
    • 2
    • 3
  • 다음

정보

Yphy 블로그의 첫 페이지로 이동

Yphy

  • Yphy의 첫 페이지로 이동

검색

메뉴

  • 홈
  • 태그
  • 방명록

카테고리

  • 분류 전체보기 (25)
    • causal inference (1)
    • Graph (6)
    • machine learning (15)
      • Article review (10)
    • 기타 (3)
      • Kaggle (1)

최근 글

인기 글

댓글

공지사항

  • 공지 - 소개

아카이브

태그

  • Object Detection
  • hybrid transformer
  • Petfinder
  • multi label classification
  • Causal Inference
  • Vision Transformer
  • node embedding
  • faster rcnn

나의 외부 링크

정보

yphy의 Yphy

Yphy

yphy

블로그 구독하기

  • 구독하기
  • RSS 피드

방문자

  • 전체 방문자
  • 오늘
  • 어제

티스토리

  • 티스토리 홈
  • 이 블로그 관리하기
  • 글쓰기
Powered by Tistory / Kakao. © yphy. Designed by Fraccino.

티스토리툴바