Programming/Deep learning

1. 신경망 2. 활성화 함수 _Activation Function 입력 신호의 총합을 출력 신호로 변환하는 함수를 일반적으로 활성화 함수라 한다. 2_1. 계단 함수(Step function) 위의 식과 같은 활성화 함수는 임계값을 경계로 출력이 바뀌는데, 이런 함수를 계단 함수라 한다. 2_2. 시그모이드 함수 (sigmoid function) 신경망에서는 활성화 함수로 시그모이드 함수를 이용하여 신호를 변환하고, 그 변환된 신호를 다음 뉴런에 전달한다. h(x) = 1 / (1 + exp(-x)) 앞 선 퍼셉트론과 앞으로 볼 신경망의 주된 차이는 이 활성화 함수뿐이고 신경망에서는 활성화 함수로 비선형 함수를 사용해야 한다. 2_3. ReLU 함수 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0 ..
1. Perceptron Algorithm _퍼셉트론 알고리즘 ** 일단 퍼셉트론은 다수의 신호를 입력으로 받아 하나의 신호를 출력한다. 퍼셉트론의 예 그림의 원을 뉴런 혹은 노드라고 부른다. 각각 고유한 가중치가 곱해집니다.(w1x2, w2x2) 뉴런에서 보내온 신호의 총합이 정해진 한계를 넘어설 때만 1을 출력합니다. 이 한계를 임계값(theta)로 나타낸다. y = 0 (w1x1 + w2x2 theta) 퍼셉트론으로는 AND 게이트, NAND 게이트, OR 게이트 모두 만들 수 있다. 위의 식은 수정될 수있다. theta를 -b(bias, 편향)으로 치환하면 식은 수정된다. y = 0 (b + w1x1 + w2x2 0) 기존의 식에 편향을 더해준 값이 0을 넘으면 1, 넘지 못하면 0인 식으로 변화..
1. Hello Python! 2. Numpy 일단 우선적으로 Numpy의 배열 클래스인 numpy.array를 주의 깊게 학습한다. 넘파이 배열 생성하기 import numpy as np x = np.array([1.0, 2.0, 3.0]) print(x) >>> [1.0, 2.0, 3.0] type(x) >>> 넘파이 배열로 산술 연산을 수행하는 예이다. x = np.array([1.0, 2.0, 3.0]) y = np.array([2.0, 4.0, 6.0]) print(x + y) print(x - y) print(x * y) print(x / y) >>> array([3., 6., 9.]) >>> array([-1., -2., -3.]) >>> array([2., 8., 18]) >>> array..
오뚜깅
'Programming/Deep learning' 카테고리의 글 목록