목록분류 전체보기 (82)
데이터로그😎
CNN (Convolutional Neural Network, 합성곱 신경망)은 합성곱 계층을 사용하여 데이터의 계층적인 표현을 자동으로 학습하도록 설계된 구조이다. 입력 데이터에 합성곱 작업을 적용하며, 필터 또는 커널을 사용하여 가장자리, 질감 또는 패턴과 같은 특징을 감지할 수 있다. 자, 여기서... "그래서... 합성곱이 뭔데..?" 라는 의문을 가질 수 있겠다. 이제부터 합성곱에 대해 알아볼까? 🔹Conv의 합성곱 연산 합성곱의 연산과정은 Input Feature map과 kernel을 곱하면서진행된다. 아래는 합성곱 연산 순서이다. ① 커널이 입력 특징 맵의 좌상단에 위치 위의 이미지를 참고하면, 3*3 커널이 입력 특징맵의 좌상단에 위치하게 된다. ② 각 원소별 곱셈 후 더하기 커널에 입력..
2023.12.02 - [딥러닝] - [CNN] FCL vs CNN [CNN] FCL vs CNN ✔️FCL (Full Connected Layer, 완전 연결층) 특성 공간에 있는 전역패턴을 학습 전 레이어에서 추출된 특징 맵(feature map)을 평탄화(flatten)한 후에 연산을 수행 입력된 이미지를 펴서 *벡터화(Vectorization) fine-1004.tistory.com FCL은 특성공간에 있는 전역 패턴을 학습한다. 모든 레이어에서 추출된 Feature map을 평탄화(Flatten)한 후, 연산을 수행한다. 여기서 Flatten이란, 입력된 모든 데이터를 1차원으로 펴서 Vectorization(벡터화)를 진행한다는 의미이다. 지금부터 FCL을 만드는 코드를 같이 살펴보겠다. 🔹데..
✔️FCL (Full Connected Layer, 완전 연결층) 특성 공간에 있는 전역패턴을 학습 전 레이어에서 추출된 특징 맵(feature map)을 평탄화(flatten)한 후에 연산을 수행 입력된 이미지를 펴서 *벡터화(Vectorization)를 수행한다. 이미지 데이터를 1차원으로 뭉개기때문에 ‘공간적 특성’을 잃어버린다는 단점이 있다. 즉, FCL은 공간적 특성을 무시한다는 것. 공간적 특성이 중요한 피사체는 판단하지 못한다는 단점이 있다. 벡터화는 다차원의 데이터를 1차원으로 변환하는 과정. 이러한 FCL의 대안 ⇒ Conv (패턴 분석) ✔️Conv (Convolution Layer, 합성곱 층) 지역 패턴을 학습 커널(kernel)이라는 작은 필터를 사용하여 입력 이미지를 슬라이딩(s..
이전 글 [DNN] 02. DNN 설계 단계 - ① 레이어 설계 ✔️설계 단계 DNN (Deep Neural Network)를 설계할 때는 크게 아래의 네가지 단계를 거친다. 레이어 설계 (입력층, 은닉층, 출력층) → 손실함수 선정 → 최적화 방식 선정 →훈련. ① 레이어 설계 입력 fine-1004.tistory.com ✔️손실함수 (Loss Function) 손실함수는 기계학습, 딥러닝에서 모델의 성능을 측정하는 데 사용되는 함수 모델의 "실제값(y) - 예측값(y^)" 을 나타내며, 손실함수의 값이 낮을 수록 모델의 성능이 좋다고 평가된다. 머신러닝의 학습 과정은 이 손실함수를 최소화하는 방향으로 진행된다. 손실함수는 해결하려는 문제에 따라 달라진다. (회귀, 분류, 클러스터링..) 종류: 평균 ..
✔️설계 단계 DNN (Deep Neural Network)를 설계할 때는 크게 아래의 네가지 단계를 거친다. 레이어 설계 (입력층, 은닉층, 출력층) → 손실함수 선정 → 최적화 방식 선정 →훈련. ① 레이어 설계 입력층: Feature 개수만큼 설계 은닉층: 필요에 맞게 출력층: 클래스의 개수에 맞게 설정 활성화 함수 로지스틱 (출력층 뉴런 1개일 때) 소프트 맥스 (출력층 뉴런이 2개 이상일 때) ② Loss 선정 (손실함수) CCE (Categorical Cross Entrophy) Categorial Cross Entropy target이 원핫인코딩이 되어있는 경우 [0,1,0,…] Sparse Categorical Cross Entropy target이 Label Encoding이 되어있는 경..
① DNN (Deep Neural Network) 심층 신경망 은닉 유닛이 모여서 하나의 층을 구성하고, 그 층들이 묶여 네트워크를 구성한다. MLP(Multi Layer Perceptron)이 DNN의 일종이다. ② 전파 순전파 (Forward Propagation) 입력층 → 출력층의 방향으로 연산을 진행하는 과정. 추론 과정. x값을 입력해 y값을 출력하는 과정을 Forward Propagation(순전파) 라고 함 입력값 x가 뉴런, layer를 타고 쭉 전파됨 역전파 (Backward Propagation) 출력층 → 입력층의 방향으로 오차의 미분을 전달함 ③ FCL (Fully Connected Layer) 전 결합층, 완전 연결층, 밀집층(Dense Layer)를 의미. 모든 층의 뉴런이 다..
단층 퍼셉트론의 한계였던 '비선형성'을 극복하기 위한 대안이 다층 퍼셉트론이다. 다층 퍼셉트론은 선형 관계만 표현할 수 있는 layer를 여러 개 구축함으로써 비선형적인 관계도 다룰 수 있다. 이에 관한 내용은 아래 글에서 확인 가능하다. a) 선형연산인 wx + b 를 수행한다. z를 a에 넣은 후, 0보다 큰지 작은지를 비교한다. a = activation(z) : 비선형성을 부여해주는 함수 활성화 함수의 종류 로지스틱 (시그모이드) 이진분류 활성화 함수 ReLU 이미지 처리의 은닉층 활성화 함수 하이퍼볼릭 탄젠트 텍스트 처리의 은닉층 활성화 함수 softmax 출력층(다중분류) 1. 로지스틱 함수 (시그모이드) Linear regression에 시그모이드 함수 적용하면 로지스틱 함수 최대값 1 최소..
퍼셉트론의 개념에 대한 글은 아래 링크에서 확인 가능합니다. [딥러닝] 01. 퍼셉트론의 개념 ❓딥러닝 딥러닝은 머신러닝의 한 분야입니다. 인간의 뇌 구조에서 영감을 받아 구축된 "인공 신경망"을 사용하여 복잡한 패턴 및 특징을 학습하고 이해하는 데 중점을 둔 기술입니다. ❓인공 fine-1004.tistory.com 단층 퍼셉트론이란 (SLP, Single Layer Perceptron) 단층 퍼셉트론은 "값을 보내고" "값을 받는" 두 단계로만 이루어져 있습니다. 즉, 입력층(input layer)와 출력층(output layer)로만 이루어져 있습니다. 단층 퍼셉트론에서 구현 가능한 게이트는 총 3가지입니다. 구현 가능한 게이트: AND, NAND, OR 구현 불가능한 게이트: XOR ① AND 입..