반응형

AI 86

[논문] GAN 리뷰 : Generative Adversarial Nets

Generative Adversarial Nets 논문 링크 : https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf Abstract 우리는 적대적인(adversarial) 과정을 통해 생성모델을 평가하는 새 프레임워크를 제안한다. 생성 모델 G : 데이터의 분포를 학습하는 모델감별 모델 D : 생성모델 G로부터가 아닌, 훈련 데이터로 부터 나왔을 확률을 추정하는 감별 모델G 모델 훈련 과정은 D가 실수할 확률을 최대화 하는 것이다.이 프레임워크는 minimax 2인 게임이다.임의의 함수 G와 D의 공간에서, G는 훈련 데이터의 분포를 복구하고, D는 항상 1/2이 되는 고유한 솔루션이 존재한다.즉, G는 훈련 데이터의 분포를 학습하여, 임..

AI/논문 2019.02.22

[논문] ADGAN 리뷰 : ANOMALY DETECTION WITH GENERATIVE ADVERSARIAL NETWORKS

ANOMALY DETECTION WITH GENERATIVE ADVERSARIAL NETWORK(ADGAN)ICLR 2018 논문 링크 : https://openreview.net/forum?id=S1EfylZ0Z Abstract low-dimensional problems에서는 좋은 anomaly detection 방법들이 존재하지만, 이미지와 같은 high-dimensional problem에는 효과적인 방법이 없다.본 논문에서 GAN을 이용한 anomaly detection에 대한 새로운 접근을 제안한다.우리의 방법은 고려중인 sample을 감안할 때, generator의 latent space안에서 good representation을 검색하는 것에 기반한다.만약, representation이 발..

AI/논문 2018.12.04

[논문] SRGAN 리뷰 : Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network

Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network(SRGAN)arXiv : 25 May 2017 논문 링크 : https://arxiv.org/pdf/1609.04802.pdf Abstract 더 빠르고 깊은 CNN을 사용한 single image super-resolution의 정확도와 속도에도 불구하고, 한 가지 중요한 문제가 남아있다. : large upscaling에서 미세한 texture details은 어떻게 복구할 것인가? * upscaling : ex) 4X upscaling -> 16X pixel최근 연구들은 meas squared reconstruction error(MSE)를 mini..

AI/논문 2018.11.05

KL divergence(Kullback–Leibler)

Kullback–Leibler divergence - 두 확률분포의 차이를 계산하는 데에 사용하는 함수- 두 확률변수에 대한 확률분포 {\displaystyle P,Q}가 있을 때, 두 분포의 KL divergence는 다음과 같이 정의 - KL divergence는 어떠한 확률분포 {\displaystyle P}가 있을 때, 그 분포를 근사적으로 표현하는 확률분포 {\displaystyle Q}를 {\displaystyle P} 대신 사용할 경우 엔트로피 변화를 의미즉, 의 분포를 사용하고 싶은데 모를 때, 분포로 추정하기 위해 사용 결국, ( 대신 를 사용할 때의 cross entropy)와 (원래의 분포가 가지는 entropy)의 차이는 다음과 같으며, 이는 과 동일{\displaystyle D_{..

AI/잡지식 2018.09.21

curse of dimensionality - 차원의 저주

차원의 저주 - 차원이 늘어남에 따라 필요한 데이터 양이 급격하게 증가즉, 같은 공간의 비율을 설명하기 위해 필요한 데이터 양이 급격히 증가 - 1차원에서 20%의 공간을 채우기 위해서는 변수 1개당 20%의 데이터만 있으면 된다. - 하지만, 2차원에서 20%의 공간을 채우기 위해서는 변수 1개당 약 45%의 데이터가 필요하다.∵ 0.45*0.45 ≒ 0.2 - 마찬가지로, 3차원 공간에서 20%의 공간을 채우기 위해서는 변수 1개당 약 58%의 데이터가 필요하다.∵ 0.58*0.58*0.58 ≒ 0.2 문제점 - 차원이 늘어나면 해당 공간을 설명하기에 데이터가 부족하므로 overfitting문제가 발생따라서 모델의 성능이 떨어진다.

AI/잡지식 2018.09.20

[논문] DEC 리뷰 : Unsupervised Deep Embedding for Clustering Analysis

Unsupervised Deep Embedding for Clustering Analysis(DEC) arXiv : 24 May 2016 논문 링크 : https://arxiv.org/pdf/1511.06335.pdf 깃 링크 : https://github.com/piiswrong/dec 1. Introduction - 데이터 분석과 visualization에서 핵심인 Clustering은 각기 다른 관점에서 unsupervised machine learning으로 널리 연구되어 왔다. * What defines a cluster? * What is the right distance metric? * How to efficiently group instances into cluster? * How to ..

AI/논문 2018.09.19
반응형