본문으로 건너뛰기

인공신경망

· 약 5분

인공신경망의 개념, 구성요소

인공신경망 개념

  • 인간의 뇌 신경 구조를 모방한 기계학습 모델로 뉴런 간 연결과 가중치를 통해 데이터를 학습하고 패턴을 인식

인공신경망 구성요소

구분설명비고
입력층학습을 위한 데이터 입력 계층입력 데이터, 특징
은닉층입출력층 사이에서 데이터 특징 추출특징 추축, 학습, 가중치
출력층최종 결과를 제공하는 층결과 예측, 분류
가중치뉴런 간 연결 강도를 나타내는 값연결 강도, 학습 조정
활성화함수뉴런의 출력값을 결정하는 함수비선형성, 출력 결정

피드포워드 뉴럴네트워크 개념, 절차

FNN 개념

  • 입력값이 출력까지 순방향으로 전달되는 구조를 가진 인공신경망

FNN 절차

절차세부절차설명
초기화모델 설계인공신경망 구조 설계
-가중치 초기화가중치 및 편향 초기화
순방향 전파데이터 전달입력층에서 출력층까지 데이터 순방향 전달
-예측값 계산입력X가중치+편향 값에 활성화함수 적용
출력출력값 계산분류 및 회귀 출력 값 계산
-검증모델 성능 평가

역전파 개념, 절차

역전파 개념

Backpropagation

  • 역방향으로 오차를 전파시켜 각 층의 가중치를 업데이트하고 최적의 학습 결과를 찾아가는 방법

역전파 절차

단계설명세부 내용
순전파입력 데이터를 통해 출력값 계산입력층 → 은닉층 → 출력층으로 데이터 전달
오차 계산출력값과 실제값 비교손실 함수를 사용해 오차 계산
가중치 업데이트역전파를 통해 가중치 조정경사하강법 등 최적화 알고리즘 사용

활성화함수 종류 및 역할

활성화함수 종류

구분그래프설명
SigmoidSigmoid이진 분류 문제에 적합
경사 기울기 소실 문제
ReLUReLU음수는 0, 양수는 그대로 출력
DNN 가능, 계산 효율성 높음
TanhTanhSigmoid보다 수렴속도 빠름
경사 기울기 소실 문제
Leaky ReLULeaky ReLUReLU 음수 기울기 문제 해결
x에 0.01 등 작은 값을 곱해줌
SwishSwishReLU보다 부드러운 활성화 함수
딥러닝 모델에서 성능 개선
음수에서 미세한 값 유지, 양수에서 x와 유사한 출력

활성화함수 역할

역할설명예시
비선형성 부여xor 등 복잡한 패턴을 학습할 수 있게 도움ReLU, Sigmoid
출력값 제한출력 값을 틍정 범위로 제한, 안정적 학습Sigmoid, Tanh
계산 효율성 향상불필요 계산을 줄이고 학습속도 개선ReLU 음수값 제거