딥러닝 세미나 일정(2018)

IVIS wiki

머신러닝관련 참고할 사이트

12월 28일 목요일 세미나

  • 발표자 : 이영록

1월 4일 목요일 세미나

1월 25일 목요일 세미나

2월 1일 목요일 세미나

2월 8일 목요일 세미나

2월 22일 목요일 세미나

  • 발표자 : 김형욱
    • 일정 : 2월 22일 목요일 오후 2시 30분
    • 내용 : 7장 - 합성곱 신경망 (227p ~ 259p)
    • 발표자료 : CNN.pdf

3월 07일 수요일 세미나

  • 발표자 : 이영록
    • 일정 : 3월 07일 수요일 오후 2시 30분
    • 새로운 교재 제목 : 초보자도 쉽게 배우는 텐서플로로 구현하는 딥러닝과 강화학습
    • 내용 : 2장 - 텐서플로 살펴보기 (53p ~ 108p)
    • 발표자료 : Tensorflow_2장.pdf

3월 14일 수요일 세미나

3월 28일 수요일 세미나

  • 발표자 : 이영록
    • 일정 : 3월 28일 수요일 오후 2시 00분
    • 내용 : 4장 - 컨볼루션 신경망에 텐서플로 사용하기1 (155p ~ 175p)
    • 발표자료

4월 4일 수요일 세미나

  • 발표자 : 김형욱
    • 일정 : 4월 4일 수요일 오후 2시 00분
    • 내용 : 4장 - 컨볼루션 신경망에 텐서플로 사용하기2 (176p ~ 203p)
    • 발표자료
  • 테스트이미지

개죽이.jpg

  • 결과화면

결과화면(감정인식).jpg

4월 18일 수요일 세미나

  • 발표자 : 김형욱

4월 27일 금요일 세미나

  • 발표자 : 김형욱
    • 일정 : 4월 27일 금요일 오전 11시 00분
    • 내용 : 순환신경망 - RNN(Recurrent Neural Network)
    • 발표자료

5월 30일 수요일 세미나

  • 발표자 : 김형욱
    • 일정 : 5월 30일 수요일 오후 3시 30분
    • 내용 : TensorFlow Lite & GAN(Generative Adversarial Networks)
    • 발표자료

6월 8일 금요일 세미나

  • 발표자 : 이영록
    • 일정 : 6월 8일 금요일 오전 11시 00분
    • 내용 : Time Series - RNN
    • 발표자료

6월 27일 수요일 세미나

  • 발표자 : 김형욱
    • 일정 : 6월 27일 수요일 오후 06시 30분
    • 내용 : KRnet 내용에 관한 세미나 (기초 수학, CNN, RL, 자율주행자동차 등)

7월 3일 화요일 세미나

  • 발표자 : 김형욱
    • 일정 : 7월 3일 화요일 오후 6시 00분
    • 내용
      • Reinforcement Learning(RL) - (Q function)
      • RL을 이용한 슈퍼마리오 실행해보기
    • 발표자료
  • supermario code
  • 이미지

Supermario img1.png Supermario img2.png

7월 6일 금요일 세미나

neuralnet_mnist_batch

# coding: utf-8
import sys, os
sys.path.append(os.pardir)  # 부모 디렉터리의 파일을 가져올 수 있도록 
import numpy as np
import pickle
from dataset.mnist import load_mnist


def get_data():
    (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
    return x_test, t_test


def init_network():
    with open("sample_weight.pkl", 'rb') as f:
        network = pickle.load(f)
    return network

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

def softmax(x):
    if x.ndim == 2:
        x = x.T
        x = x - np.max(x, axis=0)
        y = np.exp(x) / np.sum(np.exp(x), axis=0)
        return y.T

    x = x - np.max(x) # 오버플로 대책
    return np.exp(x) / np.sum(np.exp(x))


def predict(network, x):
    w1, w2, w3 = network['W1'], network['W2'], network['W3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']

    a1 = np.dot(x, w1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1, w2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2, w3) + b3
    y = softmax(a3)

    return y


x, t = get_data()
network = init_network()

batch_size = 100 # 배치 크기
accuracy_cnt = 0

for i in range(0, len(x), batch_size):
    x_batch = x[i:i+batch_size]
    y_batch = predict(network, x_batch)
    p = np.argmax(y_batch, axis=1)
    accuracy_cnt += np.sum(p == t[i:i+batch_size])

print("Accuracy:" + str(float(accuracy_cnt) / len(x)))

7월 11일 수요일 세미나

  • 발표자 : 김형욱
    • 일정 : 7월 11일 수요일 오후 7시 00분
    • 내용 : 신경망 학습 - Loss Function
    • 자료