목록Deep Learning/Vision (3)
EHFKSWL
이활석님의 강의를 들으며 가장 신기했던 부분은 Manifold에 대한 개념이었다. 데이터, 특히 이미지를 바라보는 새로운 관점을 가질 수 있었다. 먼저 아래와 같은 28X28X1의 MNIST 이미지 데이터 셋이 있다고 하자. 이미지는 pixel단위의 점들이 모여서 시각적으로 어떤 형태를 보여지는 데이터라는 것은 잘 알고 있을 것이다. 이 흑백이나 칼라이미지에 따라서 gray scale이나, RGB로 나누어 보기도 하지만 공통적으로 width X height X depth의 형태를 가진다. 그리고 28X28X1의 image라는 것은 사실 28X28X1의 개의 값을 가지는 하나의 데이터라고 볼 수 있다. 즉 하나의 데이터를 784차원 공간의 한 점으로 생각해 볼 수 있다. 그럼 28X28X1의 크기를 가지는..
지난 Autoencoder 글에 이어 VAE에 대한 설명글을 작성해보고자 한다. Autoencoder는 VAE를 이해하기 위한 포석 같은 것이었다. 이 VAE에는 재밌지만 어려운 개념들이 많이 나와서 VAE를 공부하면서 많은 것들을 배울 수 있었다. VAE를 구현하기 위해 공부해야 했던 많은 개념들도 포함해서 같이 작성하겠다. 주요 참고 논문 Tutorial on Variational Autoencoders The Autoencoding Variational Autoencoder github 주소 https://github.com/DaeseungLee/VAE-Tensorflow2.0 1. Introduction Autoencoder에서는 Latent vector z가 원본 데이터를 최대한 잘 복원하도록 ..
Intro 이활석님의 오토인코더의 모든것 강의를 듣고 AE, VAE를 구현하였다. 강의에는 VAE 뿐만아니라, Loss function을 바라보는 두 가지 관점( Backpropagation, Maximum likelihood)에 대한 설명이나, Autoencoder에 대한 설명도 있는데 내용이 매우 좋다. 그래서 강의를 듣고 더 공부한 것들을 남겨보고자 한다. 이 주제에 대해서는 AE와 VAE 두가지 챕터로 나누어 설명할 것이다. Autoencoder는 많은 도메인에서 사용 중인 것 같은데 image processing(vision)에 좀더 집중하여 살펴보고자 한다. 보통 딥러닝 기초 강의를 들으면 Unsupervised(답이 없는 문제) 보다는 Supervised(답이 있는 문제) 예제를 먼저 접하게..