인공지능의 주요 신경망 유형
카테고리
데이터 과학/AI
서브카테고리
인공지능
대상자
소프트웨어 개발자, 데이터 과학자, 머신러닝 초보자
핵심 요약
- FNN은 구조화된 데이터(예: 테이블)와 기본 예측에 적합하며, Fully Connected Layers를 사용
- CNN은 이미지 분류, 의료 영상 분석 등 Conv2D, MaxPooling 계층이 포함된 공간 데이터 처리에 최적화
- Transformer는 자연어 처리(BERT, GPT)와 글로벌 의존성 분석을 위해 Self-Attention Mechanism을 사용
섹션별 세부 요약
1. **Fully Connected Network (FNN)**
- 특징: 입력 → 출력 단일 방향 데이터 흐름, 완전 연결 계층
- 사용 사례: 테이블 데이터, 간단한 분류/회귀
- 제한: 시퀀스 또는 공간 데이터 처리에 약점
2. **Convolutional Neural Network (CNN)**
- 핵심 계층:
Conv2D
,MaxPooling
,Flatten
,Dense
- 장점: 공간 계층 구조 추출, 파라미터 효율성
- 제한: 시퀀스 데이터 처리에 적합하지 않음
3. **Recurrent Neural Network (RNN)**
- 특징: 시간 단계에 걸친 은닉 상태 유지
- 사용 사례: 시계열 예측, 음성 인식, 언어 모델링
- 제한: 장기 의존성 문제(Vanishing Gradients)
4. **Long Short-Term Memory (LSTM)**
- 구조: 입력/forget/출력 게이트를 통해 장기 의존성 유지
- 사용 사례: 텍스트 생성, 주식 가격 예측, 음악 작곡
- 장점: RNN보다 장기 시퀀스 처리 가능
- 제한: 복잡성과 학습 시간 증가
5. **Gated Recurrent Unit (GRU)**
- 특징: LSTM보다 적은 게이트(2개)로 구성
- 장점: 계산 비용 감소, LSTM과 유사한 성능
- 사용 사례: 빠른 시퀀스 처리
6. **Transformer**
- 핵심 메커니즘: Self-Attention Mechanism
- 사용 사례: 자연어 처리(BERT, GPT), 문서 분류, 번역
- 장점: 병렬 처리, 글로벌 의존성 분석
- 제한: 계산 비용 증가
7. **Autoencoder**
- 구조: 인코더 → 병목 → 디코더
- 사용 사례: 차원 축소, 이상 탐지, 이미지 노이즈 제거
- 제한: 예측 작업에 적합하지 않음
8. **Generative Adversarial Network (GAN)**
- 구조: 생성자(Generator)와 판별자(Discriminator)의 경쟁
- 사용 사례: 이미지 합성, 딥페이크, 데이터 증강
- 장점: 실제 같은 합성 데이터 생성
- 제한: 학습 불안정성
결론
- 기초 작업은 FNN부터 시작, 이미지 처리는 CNN, 시퀀스 데이터는 LSTM/GRU, NLP/시각 처리는 Transformer 활용
- 하이브리드 모델을 통해 복잡한 문제 해결 가능
- GAN은 합성 데이터 생성에 적합하지만, 안정적인 학습을 위해 추가 기술 필요