서포트 벡터 머신(SVM)
본 포스팅은 MIT의 Patrick H. Winston 교수님의 강의를 정리한 것임을 밝힙니다.
1. n-차원 공간에서 벡터를 이용한 hyperplane의 표현
hyperplane이란 ‘a subspace of one dimension less than its ambient space’로 정의된다.1
즉 n차원의 공간에서의 hyperplane은 n-1차원의 subspace를 의미하는 것이며, 3차원의 경우 hyperplane은 2차원의 면이 되고, 2차원의 경우는 hyperplane은 1차원의 선이된다. 복잡한 문제에 대해 쉽게 접근하기 위해 3차원과 2차원의 hyperplane의 방정식에 대해 생각해보고 이...
Frequency Transformation
This post is a summary of Professor S. C. Duta Roy’s lecture at IIT (Indian Institute of Technology), which can be found at here.
Objectives
Understand the concept of Normalized Lowpass Filter.
Understand the transformation between filters.
Understand the geometrically symmetric property of Bandpass Filters or Bandstop Filters and the p...
frequency transformation
본 포스팅은 IIT의 S. C. Duta Roy 교수님의 강의를 정리한 것임을 먼저 밝힙니다.
목표
Normalized Lowpass Filter의 개념에 대해서 이해한다.
Filter간의 Transformation에 대하여 이해한다.
Bandpass Filter 또는 Bandstop Filter의 기하평균적 특징(Geometrically symmetric property)에 대해서 이해하고, 그것이 가져오는 문제와 해결책에 대해서 이해한다.
Filter Specification으로부터 Butterworth Filter, Chebyshev Fi...
Chebyshev Filter
This post is a summary of Professor S.C. Duta Roy’s lecture at IIT, which can be found at this link.
Objectives
Understand the characteristics of Chebyshev filters compared to Butterworth filter.
Understand the characteristics of Chebyshev polynomials.
Understand the determination methods for the implementation conditions of Chebyshev f...
체비세브 필터
본 포스팅은 IIT의 S. C. Duta Roy 교수님의 강의를 정리한 것임을 먼저 밝힙니다.
목표
Butterworth필터와 비교하여 Chebyshev 필터의 특징을 이해한다.
Chebyshev Polynomial의 특징을 이해한다.
Chebyshev 필터의 구현 조건인 $N$의 결정방법과 $\epsilon$의 결정 방법을 이해한다.
1. Chebyshev 필터의 특징
가. Introduction to Chebyshev Filter
Chebyshev 필터는 Butterworth 필터와 마찬가지로 일종의 All-Pole 필터로써 기본적으로 Lowpass Filter를 설계할 수 있도록 만들어...
Optimization Method with Momentum - ADAM
This post is a summary of Professor Andrew Ng’s lecture and discusses the use of the ADAM optimizer in deep learning training algorithms, instead of Gradient Descent, which is recommended in many tutorials using Python libraries.
We will explore why ADAM is recommended over Gradient Descent in most literature and what advantages it offers.
Pre...
Momentum을 이용한 최적화기법 - ADAM
※ 본 포스팅은 Andrew Ng 교수님의 강의를 정리한 것임을 밝힙니다.
Python 라이브러리를 이용한 딥러닝 학습 알고리즘에 관련된 tutorial들에서 거의 대부분 optimization을 수행할 때 Gradient Descent 대신에 ADAM Optimizer를 이용해 Optimziation을 하라고 한다.
과연 어떤 부분에서 ADAM이 Gradient Descent에 비해 좋길래 거의 대부분의 문헌에서 ADAM을 추천하고 있는지 그 배경에 대해 알아보도록 하자.
Prerequisites
본 포스팅에 대해 이해하기 위해선 아래의 내용에 대해 알고 오시는 것이 좋습니다.
경사하강법(Gradi...
Butterworth Filter
This post is a summary of Professor S. C. Duta Roy’s lecture at IIT, which can be found at https://www.youtube.com/watch?v=vpPbaw9k8PY&ab_channel=nptelhrd.
1. Analog Filter
a. General Analog Systems and Filters
Before discussing analog filters, it is important to understand how general analog systems are modeled. This is because the shape...
310 post articles, 39 pages.