1) 강의 복습 내용
0. Deep Learning 개요
0. Deep Learning 개요
1) Deep Learning 의 중요한 요소 1. data 2. model 3. loss 4. algorithm(optimizer) 2) Deep Learning 의 굵직한 사건들 Alexnet - 2012 DQN - 2013 Adam - Optimizer - 2014 Generative Adversal Network - 2015 Residual Networks - 2015 깊게 층을 쌓
ltsgod.tistory.com
Optimizer
0) Gradient Descent(경사 하강법) Gradient Descent(경사 하강법)은 머신 러닝에서 모델을 학습시키는 최적화 알고리즘 중 하나입니다. Gradient Descent는 함수의 기울기(gradient)를 이용하여 함수의 최솟값을
ltsgod.tistory.com
1. MLP
Neural Network & MLP(Multi Layer Perceptron)
1) Neural Network 행렬을 곱하는 변환을 하며 활성화함수를 씌워 비선형 변환을 하며 함수에 근사하는 모델 함수?? 이미지를 분류하고자 하면 그거 자체를 함수로 볼 수 있다. 가장 간단한 예 -> Linear
ltsgod.tistory.com
2. CNN
CNN (Alexnet, GooLeNet, VGG, ResNet, DenseNet)
기본적으로 3개의 채널의 convolution 연산을 하게 되면 28 * 28의 한개의 채널이 나오게 된다. 만약 여러개의 채널을 만들고 싶다면 여러개의 filter를 만들어서 convolution 연산을 하면 된다. Convoution에
ltsgod.tistory.com
CNN(Semantic Segmentation, Detection)
1) Semantic Segmentation 이미지의 모든 pixel이 어떤 label에 속하는지 다루는 것. 지금까지 배운 CNN의 구조는 input이 들어오면 convolution 연산을 하고 그 후 denselayer를 통과해서 결과를 보는 식이었다. 그
ltsgod.tistory.com
3. RNN
RNN(Recurrent Neural Networks)
0) Sequential Model Sequential data를 다루는데 어려운 점 -> 길이가 언제 끝날지 모른다. 즉 입력의 차원을 미리 알 수 없다. 따라서 앞서 보았던 fully connected layer나 convolution layer를 사용하지 못한다. 런 S
ltsgod.tistory.com
4. Transformer
Transformer
1) Transformer Sequential model이 다루기 힘든 문제들 중간에 시퀀스 데이터가 누락되거나, 순서가 바뀌거나 잘리는 문제들은 Sequential model로 다루기가 쉽지 않다. Transformer 는 Sequential model처럼 재귀적
ltsgod.tistory.com
5. generative model
Generative Model (Autoregressive model)
0) 개요 generative model 에게 학습한다는 것은 어떤 의미인가??? 강아지사진이 여러개 주어졌을 때 우리는 확률분포 p(x) 에 대해 학습하고 싶은 것이다. 1. generation - 확률분포 p(x) 에서 sample로 만들어
ltsgod.tistory.com
Generative Model 2(VAE, GAN, Diffusion)
0) Maximum Likelihood Learning 원래 배웠던 Maximum likelihood estimation 랑 같은 개념이다. 강아지 이미지들이 주어지고 강아지를 생성하는 확률분포가 존한다고 가정할 때 우리는 그 모델과 거리를 최소화
ltsgod.tistory.com
2) 과제 수행 과정 / 결과물 정리
심화 과제를 이번주에 하지 못했다. 다음주에 짬나면 해야될 것같다. 과제에 대한 정리도 깔끔하게 하지 못했다. 이번주에 잠을 줄여가며 해야겠다....
3) 피어세션 정리
여러가지 딥러닝 모델들을 배웠다. 생소한 여러가지 모델이 나오다보니 역시나 양도 많고 힘들었다. 그래도 모르는 거 있으면 서로 상의하고 알려주면서 이해시켜주셔서 더 수월하게 공부를 진행했던것 같다.
4) 학습 회고
이번주 금요일은 개인사정상 피어세션을 함께 하지 못했고 공부도 많이 하지 못했다. 하루만 못해도 양이 어마어마하게 밀린다는 것을 느꼈고 다음 부터는 빠지지 말고 참여해야겠다. data viz , 과제정리를 하지 못했기 때문에 다음주에 상당히 바쁠 것으로 예상된다.
'활동 > 네이버 부스트캠프 AI Tech' 카테고리의 다른 글
Week 5 회고 (1) | 2023.04.09 |
---|---|
Week4 회고 (0) | 2023.03.31 |
Week2 회고 (0) | 2023.03.18 |
Week1 회고 (0) | 2023.03.13 |
네이버 부스트캠프 AI Tech 5기 후기 (0) | 2023.02.26 |