DeepLearning

· IT/우분투
[CUDA & cuDNN 7.x 설치] sudo apt-get install cuda-10-0 sudo apt-get install libcudnn7-dev -> 버전 확인 $cat /usr/local/cuda/version.txt CUDA Version 10.0 130 $ cat /usr/include/cudnn.h | grep -E "CUDNN_MAJOR|CUDNN_MINOR|CUDNN_PATCHLEVEL"#define CUDNN_MAJOR 7#define CUDNN_MINOR 5#define CUDNN_PATCHLEVEL 1#define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL) $ sudo find / -na..
1. 신경망 2. 활성화 함수 _Activation Function 입력 신호의 총합을 출력 신호로 변환하는 함수를 일반적으로 활성화 함수라 한다. 2_1. 계단 함수(Step function) 위의 식과 같은 활성화 함수는 임계값을 경계로 출력이 바뀌는데, 이런 함수를 계단 함수라 한다. 2_2. 시그모이드 함수 (sigmoid function) 신경망에서는 활성화 함수로 시그모이드 함수를 이용하여 신호를 변환하고, 그 변환된 신호를 다음 뉴런에 전달한다. h(x) = 1 / (1 + exp(-x)) 앞 선 퍼셉트론과 앞으로 볼 신경망의 주된 차이는 이 활성화 함수뿐이고 신경망에서는 활성화 함수로 비선형 함수를 사용해야 한다. 2_3. ReLU 함수 입력이 0을 넘으면 그 입력을 그대로 출력하고, 0 ..
1. Perceptron Algorithm _퍼셉트론 알고리즘 ** 일단 퍼셉트론은 다수의 신호를 입력으로 받아 하나의 신호를 출력한다. 퍼셉트론의 예 그림의 원을 뉴런 혹은 노드라고 부른다. 각각 고유한 가중치가 곱해집니다.(w1x2, w2x2) 뉴런에서 보내온 신호의 총합이 정해진 한계를 넘어설 때만 1을 출력합니다. 이 한계를 임계값(theta)로 나타낸다. y = 0 (w1x1 + w2x2 theta) 퍼셉트론으로는 AND 게이트, NAND 게이트, OR 게이트 모두 만들 수 있다. 위의 식은 수정될 수있다. theta를 -b(bias, 편향)으로 치환하면 식은 수정된다. y = 0 (b + w1x1 + w2x2 0) 기존의 식에 편향을 더해준 값이 0을 넘으면 1, 넘지 못하면 0인 식으로 변화..
오뚜깅
'DeepLearning' 태그의 글 목록