AI 인공지능
-
합성곱 계층 CNN의 합성곱 연산 기본 사항 입력데이터에 필터(커널)를 이동하면서 반복적으로 적용해 출력(특징맵) 생성 이동방향: 동일 차원에서는 낮은 인덱스에서 높은 인덱스 & 낮은 차원에서 높은 차원 (좌->우, 상->하) 필터는 입력데이터의 경계를 넘지 않음 (Only fully-overlapped) 스트라이드 합성곱은 차원별로 필터를 동일한 간격(Stride)으로 이동시키며 각각 실행 패딩 (Padding) 입력 이미지 둘레에 일정한 크기의 데이터를 덧붙이는 것 합성곱으로 인해 출력 크기가 작아지는 현상을 피하기 위한 방안 패딩과 스트라이드 고려 시의 출력 크기 패딩(P)은 출력을 증가, 스트라이드(S)는 출력 감소시키는 효과 합성곱 계층 합성곱 계층 구성 입력특징맵을 받아 내장 필터로 합성곱을 ..
합성곱 신경망의 이해(Part2)합성곱 계층 CNN의 합성곱 연산 기본 사항 입력데이터에 필터(커널)를 이동하면서 반복적으로 적용해 출력(특징맵) 생성 이동방향: 동일 차원에서는 낮은 인덱스에서 높은 인덱스 & 낮은 차원에서 높은 차원 (좌->우, 상->하) 필터는 입력데이터의 경계를 넘지 않음 (Only fully-overlapped) 스트라이드 합성곱은 차원별로 필터를 동일한 간격(Stride)으로 이동시키며 각각 실행 패딩 (Padding) 입력 이미지 둘레에 일정한 크기의 데이터를 덧붙이는 것 합성곱으로 인해 출력 크기가 작아지는 현상을 피하기 위한 방안 패딩과 스트라이드 고려 시의 출력 크기 패딩(P)은 출력을 증가, 스트라이드(S)는 출력 감소시키는 효과 합성곱 계층 합성곱 계층 구성 입력특징맵을 받아 내장 필터로 합성곱을 ..
2023.12.10 -
딥러닝과 CNN 이해 (Part1) 다층신경망(FNN)의 근본적인 문제점 계층의 개수가 커지면 신경망의 학습이 제대로 이뤄지지 않음. 원인은 기울기 소실(gradient vanishing) 또는 기울기 폭증(gradient explosion)현상 실제로는 기울기 폭증은 잘 안일어남. 기울기 소실이 주로 일어남. 딥러닝 등장 배경 2006년 힌튼(Hinton) 교수가 심층신경망(Deep Neural Netowork)의 학습 가능성 데모 (층이 많은 경우에도 기울기 소실 문제를 잘 하면 회피할 수 있다는 가능성을 보여줬다.) 딥러닝 개요 딥러닝이란? 다층 구조의 신경망 딥러닝의 장점 End to End 학습 Raw data를 입력으로 특징 자동추출 -> 전문가 개입 배제. 초기 딥러닝의 기반 모델 다양한 망..
딥러닝과 CNN 이해 (Part1)딥러닝과 CNN 이해 (Part1) 다층신경망(FNN)의 근본적인 문제점 계층의 개수가 커지면 신경망의 학습이 제대로 이뤄지지 않음. 원인은 기울기 소실(gradient vanishing) 또는 기울기 폭증(gradient explosion)현상 실제로는 기울기 폭증은 잘 안일어남. 기울기 소실이 주로 일어남. 딥러닝 등장 배경 2006년 힌튼(Hinton) 교수가 심층신경망(Deep Neural Netowork)의 학습 가능성 데모 (층이 많은 경우에도 기울기 소실 문제를 잘 하면 회피할 수 있다는 가능성을 보여줬다.) 딥러닝 개요 딥러닝이란? 다층 구조의 신경망 딥러닝의 장점 End to End 학습 Raw data를 입력으로 특징 자동추출 -> 전문가 개입 배제. 초기 딥러닝의 기반 모델 다양한 망..
2023.12.10 -
학습법 개관: 에러 정정 기법 손실함수 기울기 강하 기법 기울기 강하 기법의 신경망 학습 적용 개관 2. 단계층 신경망 학습: 델타 규칙 가중치에 대한 손실함수의 편미분 델타 규칙의 이해 3. 다계층 신경망 학습: 역전파 학습 알고리즘 역전파 학습 개념 합성함수의 미분 노드 에러 기울기 가중치 에러 기울기 오류 역전파 알고리즘 가중치 갱신 오류 역전파 알고리즘
[AI 입문] 신경망 학습학습법 개관: 에러 정정 기법 손실함수 기울기 강하 기법 기울기 강하 기법의 신경망 학습 적용 개관 2. 단계층 신경망 학습: 델타 규칙 가중치에 대한 손실함수의 편미분 델타 규칙의 이해 3. 다계층 신경망 학습: 역전파 학습 알고리즘 역전파 학습 개념 합성함수의 미분 노드 에러 기울기 가중치 에러 기울기 오류 역전파 알고리즘 가중치 갱신 오류 역전파 알고리즘
2023.10.23 -
1. FNN의 구조 이해 FNN 구조 개요 FNN 동작 개요 가중치 행렬 표기 방식 가중치 행렬 사례 2. FNN의 계층 뉴럴 계층(Neural Layer) 함수 계층 3. 순방향 처리 (추론) FNN 관련 명칭 및 표기 단일 데이터 처리 배치(batch) 처리 4. 다층 신경망 활용 회귀 이진 분류 다중 분류
[AI 입문] 다층신경망(FNN)의 이해1. FNN의 구조 이해 FNN 구조 개요 FNN 동작 개요 가중치 행렬 표기 방식 가중치 행렬 사례 2. FNN의 계층 뉴럴 계층(Neural Layer) 함수 계층 3. 순방향 처리 (추론) FNN 관련 명칭 및 표기 단일 데이터 처리 배치(batch) 처리 4. 다층 신경망 활용 회귀 이진 분류 다중 분류
2023.10.23 -
생물학적 신경망과 학습 신경망 모델링 뉴런의 연산 모델 (구간 단위) 선형 계열 활성화 함수 시그모이드 활성화 함수 뉴런 연산 예제 물리적 구성 단층 신경망: 퍼셉트론 퍼셉트론의 구조와 동작 선형분리성 퍼셉트론 수렴성
[AI 입문] 신경망 기초생물학적 신경망과 학습 신경망 모델링 뉴런의 연산 모델 (구간 단위) 선형 계열 활성화 함수 시그모이드 활성화 함수 뉴런 연산 예제 물리적 구성 단층 신경망: 퍼셉트론 퍼셉트론의 구조와 동작 선형분리성 퍼셉트론 수렴성
2023.10.23 -
1. 머신러닝의 개념 i. 전통적 프로그래밍의 한계 ii. 머신러닝의 기본 원리 2. 머신러닝의 기술적 체계 ML 체계: 1 머신러닝 태스크 ML 체계: 2 머신러닝 기법 머신러닝 학습기법은 학습 및 활용의 분리 여부에 따라 인스턴스 기반과 모델 기반으로 분류 가능 인스턴스 기반 기법: (대표적) KNN 모델 기반 기법: (대표적) 뉴럴 네트워크 ML 체계: 3 머신러닝 학습 방식 3. 머신러닝 기법의 구성 머신러닝 기법은 학습데이터, 모델, 학습 알고리즘의 3가지 요소로 구성 i. 학습 데이터 ii. 학습 모델 iii. 학습 알고리즘 4. 딥러닝 개요 딥러닝의 부상 이유 딥러닝 특징
[AI 입문] 머신러닝(Machine Learning)의 이해1. 머신러닝의 개념 i. 전통적 프로그래밍의 한계 ii. 머신러닝의 기본 원리 2. 머신러닝의 기술적 체계 ML 체계: 1 머신러닝 태스크 ML 체계: 2 머신러닝 기법 머신러닝 학습기법은 학습 및 활용의 분리 여부에 따라 인스턴스 기반과 모델 기반으로 분류 가능 인스턴스 기반 기법: (대표적) KNN 모델 기반 기법: (대표적) 뉴럴 네트워크 ML 체계: 3 머신러닝 학습 방식 3. 머신러닝 기법의 구성 머신러닝 기법은 학습데이터, 모델, 학습 알고리즘의 3가지 요소로 구성 i. 학습 데이터 ii. 학습 모델 iii. 학습 알고리즘 4. 딥러닝 개요 딥러닝의 부상 이유 딥러닝 특징
2023.10.23