목록공부용 (17)
잡동사니 블로그

K-medoids의 목표는 각 데이터 포인트가 가장 가까운 대표점(medoids)에 할당되었을 때, 그 거리를 최소화하는 것이며, 일반적으로는 유클리드 거리(Euclidean distance)기반 그 합을 최소화 하는것이 목표.(Cosine similarity도 가능) K-means: 군집의 중심을 각 군집에 속한 데이터 포인트의 평균(mean)으로 정의함. 즉, 군집의 중심은 데이터 공간의 임의의 점이 됨.K-medoids: 군집의 중심을 데이터 포인트 중 하나로 선택 되기 때문에 그 중심은 반드시 실제로 존재하는 데이터이며, 이를 통해 K-medoids는 K-means보다 이상치(outlier)에 덜 민감해짐. import numpy as npimport matplotlib.pyplot as p..

Dice Coefficient는 Image Segmentation에서 사용되며, 예측된 Mask와 실제 Mask 사이의 겹치는 정도를 평가하는 지표. Dice Coefficient =2×|A∩B||A|+|B| Dice Coefficient =2×|A∩B||A|+|B|예를 들어, 실제 값은 100개의 1이 있고, 예측된 값은 50개의 1이 있으며, 이 중 30개가 겹친다면. Dice Coefficient =2×30100+50=0.4 Dice Coefficient =2×30100+50=0.4 정확히 일치하면 1이기 때문에 1에 가까울 수록 많이 겹친다는 의미이다. 즉 Dice Loss Function는 Dice Coefficient를 기반으로 하는 손실 함수이며 1−DiceCoefficient1−DiceCoefficient..

https://www.lgaimers.ai/ LG AI LG와 청년들이 함께 만드는 더 가치 있는 미래 www.lgaimers.ai 에서 진행하는 교육을 바탕으로 정리했습니다. Determinant(행렬식) & Eigenvalue(고윳값)에 대해서 Cholesky Decomposition(숄레스키 분해) Diagonalization (대각화), Singular value decomposition (특잇값 분해) 1. Matrix Decomposition #2*2 행렬 기준 import numpy as np def inverse_Matrix(A11,A12,A21,A22): A = np.array([[A11, A21], [A12, A22]]) if A[0][0]*A[1][1]-A[0][1]*A[1][0] !..

https://arxiv.org/abs/2012.06678 TabTransformer: Tabular Data Modeling Using Contextual Embeddings We propose TabTransformer, a novel deep tabular data modeling architecture for supervised and semi-supervised learning. The TabTransformer is built upon self-attention based Transformers. The Transformer layers transform the embeddings of categorical featu arxiv.org Abstract 지도 학습과 준지도 학습을 위한 새로운 t..