AI Store에서 AI코딩으로 만들어진 앱을 만나보세요!
지금 바로 방문하기

인공지능의 주요 신경망 유형

카테고리

데이터 과학/AI

서브카테고리

인공지능

대상자

소프트웨어 개발자, 데이터 과학자, 머신러닝 초보자

핵심 요약

  • FNN은 구조화된 데이터(예: 테이블)와 기본 예측에 적합하며, Fully Connected Layers를 사용
  • CNN은 이미지 분류, 의료 영상 분석 등 Conv2D, MaxPooling 계층이 포함된 공간 데이터 처리에 최적화
  • Transformer자연어 처리(BERT, GPT)와 글로벌 의존성 분석을 위해 Self-Attention Mechanism을 사용

섹션별 세부 요약

1. **Fully Connected Network (FNN)**

  • 특징: 입력 → 출력 단일 방향 데이터 흐름, 완전 연결 계층
  • 사용 사례: 테이블 데이터, 간단한 분류/회귀
  • 제한: 시퀀스 또는 공간 데이터 처리에 약점

2. **Convolutional Neural Network (CNN)**

  • 핵심 계층: Conv2D, MaxPooling, Flatten, Dense
  • 장점: 공간 계층 구조 추출, 파라미터 효율성
  • 제한: 시퀀스 데이터 처리에 적합하지 않음

3. **Recurrent Neural Network (RNN)**

  • 특징: 시간 단계에 걸친 은닉 상태 유지
  • 사용 사례: 시계열 예측, 음성 인식, 언어 모델링
  • 제한: 장기 의존성 문제(Vanishing Gradients)

4. **Long Short-Term Memory (LSTM)**

  • 구조: 입력/forget/출력 게이트를 통해 장기 의존성 유지
  • 사용 사례: 텍스트 생성, 주식 가격 예측, 음악 작곡
  • 장점: RNN보다 장기 시퀀스 처리 가능
  • 제한: 복잡성과 학습 시간 증가

5. **Gated Recurrent Unit (GRU)**

  • 특징: LSTM보다 적은 게이트(2개)로 구성
  • 장점: 계산 비용 감소, LSTM과 유사한 성능
  • 사용 사례: 빠른 시퀀스 처리

6. **Transformer**

  • 핵심 메커니즘: Self-Attention Mechanism
  • 사용 사례: 자연어 처리(BERT, GPT), 문서 분류, 번역
  • 장점: 병렬 처리, 글로벌 의존성 분석
  • 제한: 계산 비용 증가

7. **Autoencoder**

  • 구조: 인코더 → 병목 → 디코더
  • 사용 사례: 차원 축소, 이상 탐지, 이미지 노이즈 제거
  • 제한: 예측 작업에 적합하지 않음

8. **Generative Adversarial Network (GAN)**

  • 구조: 생성자(Generator)와 판별자(Discriminator)의 경쟁
  • 사용 사례: 이미지 합성, 딥페이크, 데이터 증강
  • 장점: 실제 같은 합성 데이터 생성
  • 제한: 학습 불안정성

결론

  • 기초 작업FNN부터 시작, 이미지 처리CNN, 시퀀스 데이터LSTM/GRU, NLP/시각 처리Transformer 활용
  • 하이브리드 모델을 통해 복잡한 문제 해결 가능
  • GAN은 합성 데이터 생성에 적합하지만, 안정적인 학습을 위해 추가 기술 필요