KUBIG 2022-2 활동 블로그

고정 헤더 영역

글 제목

메뉴 레이어

KUBIG 2022-2 활동 블로그

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 목록
  • 분류 전체보기 (133)
    • 소개 (4)
    • 방학 세션 (14)
      • 방학 스터디 (5)
      • KUBIG CONTEST (9)
    • 심화 스터디 (113)
      • Advanced ML & DL paper revi.. (34)
      • Dive into Deep Learning (11)
      • 논문 리뷰 (19)
      • CV 논문 리뷰 (19)
      • 시계열 (12)
      • Graph Study (7)
      • 태블로 (10)
    • 장기 프로젝트 (0)
      • 추천 시스템 1팀 (0)
      • 추천 시스템 2팀 (0)
      • 텍스트 (0)
      • CV 1팀 (0)
      • CV 2팀 (0)
      • CV 3팀 (0)
      • 분류 예측 1팀 (0)
      • 분류 예측 2팀 (0)
    • 알쓸쿠잡 (1)

검색 레이어

KUBIG 2022-2 활동 블로그

검색 영역

컨텐츠 검색

심화 스터디/Dive into Deep Learning

  • Dive Into Deep Learning/RNN 소개 + 구현

    2022.11.27 by ㅣ찬스ㅣ

  • [Dive into Deep Learning / CNN] CNN 구현해보기

    2022.11.21 by 나는 은쪽이

  • [Dive into Deep Learning / CNN] Convolution Layer

    2022.11.18 by 원준천

  • [Dive into Deep Learning/3주차] Optimization Algorithm

    2022.11.16 by j.hyeon

  • [Dive into Deep Learning / CNN] AlexNet

    2022.11.16 by j.hyeon

  • [Dive into Deep Learning / CNN] Fully connected layer / pooling layer

    2022.11.13 by yoowoohyuk

  • [Dive into Deep Learning / 3주차] Python Class

    2022.09.30 by Imjjun

  • [Dive into Deep Learning / 2주차] Backward Function Problem

    2022.09.25 by 나는 은쪽이

Dive Into Deep Learning/RNN 소개 + 구현

작성자: 16기 이수찬 참고자료: https://m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=winddori2002&logNo=221992543837 https://d2l.ai/chapter_recurrent-neural-networks/index.html https://www.youtube.com/watch?v=6niqTuYFZLQ&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk&index=10 1. RNN (Recurrent Neural Network) 정의 정의: 입력과 출력을 시퀀스 단위로 처리하는 Sequence Model 로 Neural Network를 반복한다는 의미의 이름을 가지고 있다. Input과 Ou..

심화 스터디/Dive into Deep Learning 2022. 11. 27. 22:57

[Dive into Deep Learning / CNN] CNN 구현해보기

작성자 : 16기 하예은 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. - https://tutorials.pytorch.kr/beginner/basics/data_tutorial.html - https://justkode.kr/deep-learning/pytorch-cnn 1) CIFAR Dataset을 활용하여 실제 CNN을 간단하게 학습시키기 CNN 구현에 필요한 라이브러리를 import 해줍니다. 먼저, batch size를 8로 지정해줍니다. 보통 batch size는 computational capacity를 고려하여 지정합니다. 그리고 CIFAR Dataset에서 train set과 test set을 불러옵니다. root : 데이터가 저장되는 경로 train : True이면 train ..

심화 스터디/Dive into Deep Learning 2022. 11. 21. 01:50

[Dive into Deep Learning / CNN] Convolution Layer

작성자 : 16기 천원준 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. - https://www.youtube.com/watch?v=bNb2fEVKeEo&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv&index=5 - https://velog.io/@fbdp1202/CS231n-%EC%A0%95%EB%A6%AC-5.-Convolutional-Neural-Networks - https://d2l.ai/chapter_convolutional-neural-networks/index.htmlhttps://wikidocs.net/28#_9 1. Convolution layer Convolution은 합성곱을 의미한다. CNN에서는 Filter라고 부르는 weight를 이미지에 곱해준..

심화 스터디/Dive into Deep Learning 2022. 11. 18. 15:25

[Dive into Deep Learning/3주차] Optimization Algorithm

작성자 : 16기 윤지현 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. https://sdsclub.com/stochastic-gradient-descent-vs-gradient-descent-a-head-to-head-comparison/ 1. Gradient Descent (=Batch-all training data set-Gradient Descent) loss function을 최소화하는 지점(미분 값, 즉 기울기가 0인 지점)을 찾는 것을 목적으로 한다. 단순히 방정식을 계산하는 것처럼 미분 값이 0인 지점을 구하는 것과는 무엇이 다른가 하는 의문에서 시작 실제로 다루는 loss function은 닫힌 형태가 아니거나 복잡한 형태를 가져 계산에 어려움 존재 《 원리 》 loss funct..

심화 스터디/Dive into Deep Learning 2022. 11. 16. 23:27

[Dive into Deep Learning / CNN] AlexNet

작성자 : 16기 윤지현 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. https://www.datamaker.io/posts/34/ https://bskyvision.com/421 AlexNet 소개 논문 ImageNet Classification with Deep Convolutional Neural Networks 저자 : Alex Krizhevsky, Ilya Sutskever, Geoffrey E.Hinton https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf 1. AlexNet 이란? AlexNet은 2012년 개최된 ILSVRC(ImageNet Large Scale Visual ..

심화 스터디/Dive into Deep Learning 2022. 11. 16. 23:25

[Dive into Deep Learning / CNN] Fully connected layer / pooling layer

작성자: 16기 유우혁 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. - https://www.youtube.com/watch?v=bNb2fEVKeEo&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv&index=5 - https://d2l.ai/chapter_convolutional-neural-networks/index.html - deep learning with pytorch 1. Fully connected layer란? 다차원으로 이루어진 layer를 1차원으로 펼치는 layer다. 이미지는 다차원 공간에 담겨서 픽셀값들이 전달되게 된다. CNN을 통해서 결과적으로 이미지들을 분류하는 작업을 진행하는데, 이때 이러한 다차원 값들을 1차원 벡터로 펼쳐줘야 한다. 그래서..

심화 스터디/Dive into Deep Learning 2022. 11. 13. 23:57

[Dive into Deep Learning / 3주차] Python Class

작성자 : 16기 임정준 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. - https://docs.python.org/3/tutorial/classes.html#id2 - https://wikidocs.net/28#_9 0. What is "Class(클래스)" in python? Definition: bundling data and functionality Allowing new instances of that type to be made Each class instane can have attiributes attached to it for maintaning its state Cookie Frame: Class Cookie: Object 1. Python Scope & Namespace Nam..

심화 스터디/Dive into Deep Learning 2022. 9. 30. 23:02

[Dive into Deep Learning / 2주차] Backward Function Problem

작성자 : 16기 하예은 본 포스팅은 다음 자료들을 참고하여 작성되었습니다. - https://hongl.tistory.com/158 - https://pytorch.org/docs/stable/generated/torch.Tensor.backward.html - https://blog.paperspace.com/pytorch-101-understanding-graphs-and-automatic-differentiation/ 1. 문제 상황 정의 gradient를 구하기 위해서는 tensor의 requires_grad인자에 True 값을 부여한 후, backward 함수를 사용해야 한다. 그러나 gradient가 계속 누적되는 현상이 발생한다. 따라서 문제 상황은 'PyTorch에서 backward 함수..

심화 스터디/Dive into Deep Learning 2022. 9. 25. 21:31

추가 정보

인기글

최신글

페이징

이전
1 2
다음
TISTORY
KUBIG 2022-2 활동 블로그 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바