일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 네트워크 관리사
- 파이썬
- 알고리즘
- Windows Server
- Python
- 자료구조
- Django
- 서브넷마스크
- network
- 네트워크
- dns
- 패스트캠퍼스
- deep learning
- IPV4
- 자격증
- 네트워크 자격증
- Algorithm
- 프로토콜
- 밑바닥부터 시작하는 딥러닝
- Machine learning
- 머신러닝
- FTP
- ICQA
- 실기
- Protocol
- 기본 정렬
- 네트워크 관리사 2급
- 코딩테스트
- Dynamic Programming
- 딥러닝
- Today
- Total
목록밑바닥부터 시작하는 딥러닝 (5)
쳉지로그
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/8yyqD/btq3Ihq1ofp/cDaK75ITkkKITkP99UrNy1/img.png)
7.1 전체 구조 합성곱 신경망(Convolutional neural network, CNN) 이미지 인식과 음성 인식 등 다양한 곳에서 사용 이미지 인식 분야에서 딥러닝을 활용한 기법은 거의 CNN을 기초로 함 새로 등장하는 계층: 합성곱 계층(convolutional layer), 풀링 계층(pooling layer) Affine 계층과 CNN 비교 Affine 계층: 인접하는 계층의 모든 뉴런과 결합: 완전연결(fully-connected) Affine-ReLU 연결 CNN: 합성곱 계층과 풀링 계층이 추가됨 Conv-ReLU-(Pooling) 흐름 출력에 가까운 층에서는 'Affine-ReLU' 구성 사용 가능 마지막 출력 계층에서는 'Affine-Softmax' 조합을 그대로 사용 7.2 합성곱..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/qWa3X/btq3bwoClvj/vJvsMtvAMg0IRoikNOYGy0/img.png)
4.3 수치 미분 4.3.1 미분 미분: 한순간의 변화량을 표시 (참고) 수치미분: 아주 작은 차분으로 미분하느 것 해석적 미분: 수식을 전개해 미분하는 것. 오차를 포함하지 않는 진정한 미분 값을 구해줌 함수를 미분하는 계산 구현 4.3.2 수치 미분의 예 4.3.3 편미분 편미분(Partial Derivative): 변수가 여럿인 함수에 대한 미분 변수가 여럿인 함수에 대한 미분 편미분 예시 편미분은 변수가 하나인 미분과 마찬가지로 특정 장소의 기울기를 구함 단, 여러 변수 중 목표 변수 하나에 초점을 맞추고 다른 변수는 값을 고정 4.4 기울기 기울기(gradient): 모든 변수의 편미분을 벡터로 정리한 것 기울기가 가리키는 쪽은 각 장소에서 함수의 출력 값을 가장 크게 줄이는 방향 기울기 구현 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/be0ISQ/btq2323OMgI/5K4yVrwFDeR36fg9mB1elK/img.png)
4.1 데이터에서 학습한다! 4.1.1 데이터 주도 학습 딥러닝을 **종단간 기계학습(end-to-end machine learning)**이라고도 함 4.1.2 훈련 데이터와 시험 데이터 훈련 데이터(training data) : 학습하면서 최적의 매개변수를 찾음 시험 데이터(test data) : 앞서 훈련한 모델의 실력을 평가 훈련 데이터와 시험 데이터를 나누는 이유 • 우리가 원하는 것은 범용적으로 사용할 수 있는 모델이기 때문 • 범용 능력을 제대로 평가하기 위해 훈련 데이터와 시험 데이터를 분리하는 것 오버피팅(overfitting) • 한 데이터셋에만 지나치게 최적화된 상태. • 오버피팅 피하기는 기계학습의 중요한 과제임 4.2 손실 함수 손실 함수(loss function) : 신경망 학습..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/FhCnH/btq2wLVymo9/T2CWq1bEAUkcg6eixT1sa1/img.png)
3.1 퍼셉트론에서 신경망으로 3.1.1 신경망의 예 신경망 : 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 구성 입력층, 출력층의 뉴런은 눈에 보이는 층 은닉층의 뉴런은 눈에 보이지 않는 층 층 번호는 0부터 시작 3.1.2 퍼셉트론 복습 퍼셉트론 : 다수의 신호를 입력으로 받아 하나의 신호를 출력하는 알고리즘 𝑏 : 편향을 나타내는 매개변수 (뉴런이 얼마나 쉽게 활성화되느냐를 제어) 𝑤1, 𝑤2 : 가중치를 나타내는 매개변수 (각 신호의 영향력을 제어) 편향을 명시한 퍼셉트론: 가중치가 𝑏이고, 입력이 1인 뉴런이 추가 3.1.3 활성화 함수의 등장 활성화 함수(activation function) : 입력 신호의 총합을 출력 신호로 변환하는 ..