딥러닝 세미나 일정(2018)
IVIS wiki
목차
- 1 머신러닝관련 참고할 사이트
- 2 12월 28일 목요일 세미나
- 3 1월 4일 목요일 세미나
- 4 1월 25일 목요일 세미나
- 5 2월 1일 목요일 세미나
- 6 2월 8일 목요일 세미나
- 7 2월 22일 목요일 세미나
- 8 3월 07일 수요일 세미나
- 9 3월 14일 수요일 세미나
- 10 3월 28일 수요일 세미나
- 11 4월 4일 수요일 세미나
- 12 4월 18일 수요일 세미나
- 13 4월 27일 금요일 세미나
- 14 5월 30일 수요일 세미나
- 15 6월 8일 금요일 세미나
- 16 6월 27일 수요일 세미나
- 17 7월 3일 화요일 세미나
- 18 7월 6일 금요일 세미나
- 19 7월 11일 수요일 세미나
머신러닝관련 참고할 사이트
- Andrew Ng's ML Class
- 김성훈교수 ML 강의
- 딥러닝을 활용한 수면단계 분석 논문
- 다룰 내용( 2018. 5. 30 )
- Dropout과 옵티마이저
- Ensemble
- RNN (Stacked RNN, Dynamic RNN )
- AWS에서 GPU와 함께 돌려보기
- Google Cloud ML
- Open AI GYM, PyTorch, ...
12월 28일 목요일 세미나
- 발표자 : 이영록
- 일정 : 12월 28일 목요일 오후 2시
- 내용 : 1장 - 헬로 파이썬 , 2장 - 퍼셉트론 (25p ~ 62p)
- 발표자료 : DeepLearningFromScratch(1-5장).pdf
1월 4일 목요일 세미나
- 발표자 : 김형욱
- 일정 : 1월 4일 목요일 오후 2시
- 내용 : 3장 - 신경망 (63p ~ 106p)
- 발표자료 : DeepLearningFromScratch(1-5장).pdf
1월 25일 목요일 세미나
- 발표자 : 이영록
- 일정 : 1월 25일 목요일 오후 2시
- 내용 : 4장 - 신경망 학습 (107p ~ 146p)
- 발표자료 : DeepLearningFromScratch(1-5장).pdf
2월 1일 목요일 세미나
- 발표자 : 김형욱
- 일정 : 2월 1일 목요일 오후 3시 30분
- 내용 : 5장 - 오차역전파법 (147p ~ 187p)
- 발표자료 : DeepLearningFromScratch(1-5장).pdf
2월 8일 목요일 세미나
- 발표자 : 이영록
- 일정 : 2월 8일 목요일 오후 2시 30분
- 내용 : 6장 - 학습 관련 기술들 (189p ~ 226p)
- 발표자료 : DeepLearningFromScratch(1-6장).pdf
2월 22일 목요일 세미나
- 발표자 : 김형욱
- 일정 : 2월 22일 목요일 오후 2시 30분
- 내용 : 7장 - 합성곱 신경망 (227p ~ 259p)
- 발표자료 : CNN.pdf
3월 07일 수요일 세미나
- 발표자 : 이영록
- 일정 : 3월 07일 수요일 오후 2시 30분
- 새로운 교재 제목 : 초보자도 쉽게 배우는 텐서플로로 구현하는 딥러닝과 강화학습
- 내용 : 2장 - 텐서플로 살펴보기 (53p ~ 108p)
- 발표자료 : Tensorflow_2장.pdf
3월 14일 수요일 세미나
- 발표자 : 김형욱
- 일정 : 3월 14일 수요일 오후 2시 30분
- 내용 : 3장 - 순방향 신경망에 텐서플로 사용하기 (109p ~ 154p)
- 발표자료 : 03.순방향 신경망에 텐서플로 사용하기.pdf
3월 28일 수요일 세미나
- 발표자 : 이영록
- 일정 : 3월 28일 수요일 오후 2시 00분
- 내용 : 4장 - 컨볼루션 신경망에 텐서플로 사용하기1 (155p ~ 175p)
- 발표자료
4월 4일 수요일 세미나
- 발표자 : 김형욱
- 일정 : 4월 4일 수요일 오후 2시 00분
- 내용 : 4장 - 컨볼루션 신경망에 텐서플로 사용하기2 (176p ~ 203p)
- 발표자료
- 테스트이미지
- 결과화면
4월 18일 수요일 세미나
- 발표자 : 이영록
- 일정 : 4월 18일 수요일 오후 2시 00분
- 내용 : 5장 - 텐서플로 오토인코더 최적화하기 (205p ~ 249p)
- 발표자료
- 발표자 : 김형욱
- 일정 : 4월 18일 수요일 오후 3시 00분
- 내용 : 심박동 학습 및 테스트(오디오 파일 학습)
- 발표자료
4월 27일 금요일 세미나
- 발표자 : 김형욱
- 일정 : 4월 27일 금요일 오전 11시 00분
- 내용 : 순환신경망 - RNN(Recurrent Neural Network)
- 발표자료
5월 30일 수요일 세미나
- 발표자 : 김형욱
- 일정 : 5월 30일 수요일 오후 3시 30분
- 내용 : TensorFlow Lite & GAN(Generative Adversarial Networks)
- 발표자료
6월 8일 금요일 세미나
- 발표자 : 이영록
- 일정 : 6월 8일 금요일 오전 11시 00분
- 내용 : Time Series - RNN
- 발표자료
6월 27일 수요일 세미나
- 발표자 : 김형욱
- 일정 : 6월 27일 수요일 오후 06시 30분
- 내용 : KRnet 내용에 관한 세미나 (기초 수학, CNN, RL, 자율주행자동차 등)
7월 3일 화요일 세미나
- 발표자 : 김형욱
- 일정 : 7월 3일 화요일 오후 6시 00분
- 내용
- Reinforcement Learning(RL) - (Q function)
- RL을 이용한 슈퍼마리오 실행해보기
- 발표자료
- supermario code
- 이미지
7월 6일 금요일 세미나
- 발표자 : 김형욱
- 일정 : 7월 6일 금요일 오후 7시 00분
- 내용 : Neural Network - Forward propagation
- 자료
neuralnet_mnist_batch
# coding: utf-8 import sys, os sys.path.append(os.pardir) # 부모 디렉터리의 파일을 가져올 수 있도록 import numpy as np import pickle from dataset.mnist import load_mnist def get_data(): (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False) return x_test, t_test def init_network(): with open("sample_weight.pkl", 'rb') as f: network = pickle.load(f) return network def sigmoid(x): return 1 / (1 + np.exp(-x)) def softmax(x): if x.ndim == 2: x = x.T x = x - np.max(x, axis=0) y = np.exp(x) / np.sum(np.exp(x), axis=0) return y.T x = x - np.max(x) # 오버플로 대책 return np.exp(x) / np.sum(np.exp(x)) def predict(network, x): w1, w2, w3 = network['W1'], network['W2'], network['W3'] b1, b2, b3 = network['b1'], network['b2'], network['b3'] a1 = np.dot(x, w1) + b1 z1 = sigmoid(a1) a2 = np.dot(z1, w2) + b2 z2 = sigmoid(a2) a3 = np.dot(z2, w3) + b3 y = softmax(a3) return y x, t = get_data() network = init_network() batch_size = 100 # 배치 크기 accuracy_cnt = 0 for i in range(0, len(x), batch_size): x_batch = x[i:i+batch_size] y_batch = predict(network, x_batch) p = np.argmax(y_batch, axis=1) accuracy_cnt += np.sum(p == t[i:i+batch_size]) print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
7월 11일 수요일 세미나
- 발표자 : 김형욱
- 일정 : 7월 11일 수요일 오후 7시 00분
- 내용 : 신경망 학습 - Loss Function
- 자료