Home

Divergence of Vector Field

“Divergence” and “Curl” are operators applied in vector fields. First of all, a vector field can be defined as a correspondence between points in Euclidean space and vectors. They are used to represent the magnitude and direction at each point of phenomena such as fluid flow and gravitational fields. (Wikipedia, Vector field) Divergence Diver...

Read more

벡터장의 발산(divergence)

Divergence와 Curl은 벡터장에서 적용되는 연산자인데 우선 벡터장(vector field)이란 유클리드 공간의 각 점에 벡터를 대응시킨 것이라고 할 수 있다. 유체의 흐름, 중력장 등 각 점에서의 크기와 방향을 나타내기 위해 사용한다. (위키피디아, 벡터장) Divergence (발산) Divergence는 벡터장 내에서 임의의 한 점 $(x,y)$의 매우 작은 공간 안에서 벡터장이 퍼져 나오는지 아니면 모여서 없어지는지의 정도를 측정하는 연산자이다. 부족하지만 내 생각으로는 해당 임의의 점 $(x,y)$에서 벡터장이 향하는 방향으로의 정규화시킨 변화량을 확인한 것이라고도 생각할 수 있을 것 같다....

Read more

Curl of Vector Field

Curl Curl is defined on Wikipedia as “one of the first-order derivative operators that maps a 3-dimensional vector field to another 3-dimensional vector field.” While this definition may be mathematically accurate, it is difficult for anyone encountering it for the first time to fully comprehend. In the author’s perspective, a more intuitive m...

Read more

벡터장의 회전(curl)

회전 (curl) 위키피디아에서 Curl은 ‘3차원 벡터장을 다른 3차원 벡터장으로 대응시키는 1차 미분 연산자의 하나이다.’라고만 정의되어 있는데 이런 수학적으로는 맞을지 몰라도 처음 보는 이로 하여금 도저히 납득할 수 없도록 만드는 정의로는 curl에 대한 어떤 것도 알기 힘들다. 필자가 생각하는 Curl의 수학적 정의는 다음과 같다. 물론 엄밀한 수학적 정의는 아닐 것이다. ‘Curl은 벡터장 내에서 임의의 한 점 의 매우 작은 공간이 주변의 벡터로 인해 발생하는 회전 정도를 측정하는 연산자이다.’ 또 다른 방식으로 생각해보면 ‘임의의 점 $(x,y)$에서 벡터장이 향하는 정규화 시킨 수직 방향으로의 변...

Read more

Correlation and Inner Product

The Purpose and Definition of Correlation Coefficient The correlation coefficient can be used when you want to determine the (correlation) relationship between two variables that change continuously. For example, you can determine the correlation between weight and height, or between math scores and English scores. The relationship between tw...

Read more

상관 계수와 벡터의 내적

상관 계수의 용도와 정의 상관 계수는 연속적으로 변하는 두 변수 간의 (상관) 관계를 확인하고 싶을 때 사용할 수 있다. 가령 몸무게와 키의 상관 관계라던지, 수학 점수와 영어 점수 간의 상관관계 같은 것들을 확인할 수 있다. 연속적으로 변하는 두 변수 간의 관계는 시각적으로도 확인할 수도 있는데 두 개의 연속적으로 변하는 n개의 변수 쌍을 각각 x 축과 y 축에 대입해서 그리면 산점도(scatter plot)를 그릴 수 있다. 예를 들어 아래는 500명 학생의 수학, 영어 점수의 산점도를 그린 것이다. 그림 1. 산점도의 예시 plot. 수학 점수와 영어 점수 간의 양의 상관 관계가 보인...

Read more

Layer-wise Relevance Propagation

Deep Neural Network Transparency Neural networks have traditionally been considered as “Blackbox” models. In my opinion, there are two main reasons for this. First, neural networks are inherently non-linear regression models, making it difficult to directly understand how inputs affect outputs due to the lack of linearity in the relationship be...

Read more

Layer-wise Relevance Propagation

Deep Nerual Network Transparency 뉴럴네트워크는 전통적으로 “Blackbox” 모델로 생각되어 왔다. 필자 생각에는 그 이유는 크게 두 가지로 보인다. 우선은 뉴럴네트워크가 본래부터 비선형 회귀모델이다보니 입력과 출력간의 관계가 선형적이지 못해 입력이 출력에 어떻게 영향을 주는지 직접적으로 알기 어렵기 때문이다. 또, 최근 들어 딥러닝 기술이 발전하면서 부터는 모델이 스스로 복잡도가 높은 feature에서 분류/회귀에 필요한 feature를 잘 선택할 수 있게되었기 때문에 개발자가 직접 feature를 생성하지 않아도 되었기 때문이다. 이러한 상황속에서 뉴럴네트워크의 성능은 나날이 좋아...

Read more