전체 글

전체 글

    딥러닝 - VGGNet, GoogleNet

    VGGNet 깊이를 깊게할 수록 더 성능에 많은 영향을 끼치는 것을 증명 깊이를 더 깊게하기 위해 conv filter의 크기를 줄였다 (3x3 Convolution) 위 결과를 통해 깊이가 깊어질수록 성능이 좋아지며 LRN(Local Response Normalization)은 성능에 큰 영향을 주지 않았다는 사실을 알게되었습니다. LRN : 가장 강하게 활성화된 뉴런이 다른 특성 맵에 있는 같은 위치의 뉴런을 억제 1x1 Conv Layer : Non-Linearity 증가 하나의 Conv층을 지나면 ReLU함수를 적용시키므로 비선형성이 증가한다. 이는 성능 향상으로 이어진다. 간단하면서 강력한 딥러닝 구조 작은 필터 사이즈도 깊게 쌓으면 충분히 효율적인 특징 추출이 가능 GoogleNet ( Inc..

    딥러닝 - 합성곱 신경망 & AlexNet

    합성곱 신경망 ( Convolutional Neural Networks) 합성곱 층 (Convolutional layer)과 폴링 층(Pooling or Subsampling layer)으로 구성되어 있다. 합성곱 층 가중치가 존재 제로 패딩(Zero padding) : 현재 층의 높이와 너비를 이전 층과 맞추기 위해 가장자리에 0을 추가 스트라이드(Stride) : 합성곱 층에 필터를 적용 시 적용 거리 3 X 3 Filter, st,소ride = 1, 제로패딩 존재 filter 하나의 필터는 하나의 feature map 만든다. 다양한 필터가 존재 Ex) Blurring 필터, Sharpen 필터, Edge필터 등 이들은 훈련하는 동안 합성곱 층이 자동으로 해당 문제에 가장 유용한 필터를 찾는다. H..

    딥러닝 - 다중 퍼셉트론

    MLP(다중 퍼셉트론) 기존 1개일때는 구분하기 힘들지만, 2개 이상이면 3개의 영역으로 구분 가능 입력 층(통과) 1개 + 출력 층(마지막) 1개 + 은닉 층(TLU) 1개 이상 하위 층: 입력 층에 가까움, 상위 층: 출력 층에 가까움 편향 뉴련: 출력 층을 제외하고 전부 존재 feedforward neural network(FNN): 입력에서 출력으로 한 방향으로만 흐른다. DNN(Deep neural network) : 은닉 층을 여러 개 쌓아 올린 인공 신경망 Backpropagation(역전파) 다중 퍼셉트론을 훈련할 훈련 알고리즘, 데이비드 루멜하트, 제프리 힌턴, 로날드 윌리엄스가 공개 네트워크를 정방향, 역방향 1번씩 통과하여 모든 모델 파라미터의 오차를 줄이기 위한 가중치와 편향값의 변..