Home

행렬 곱에 대한 또 다른 시각

일반적으로 이용하는 행렬곱의 방법 필자는 고등학교 시절 7차 교육과정을 거치면서 고등학교 시절 행렬에 대해 배운 적이 있다. 그때 처음 배운 행렬의 곱셈 방식은 너무나도 독특했는데, 지금 생각해도 익숙하지 않다면 행렬의 곱은 “왜 이렇게 계산하지?”라고 생각이 들 정도로 이상하다. 행렬의 곱은 일반적으로 다음과 같이 생각한다. 그림 2. 행렬의 일반적인 곱셈 방법 수식을 이용해 조금 더 정확하게 쓰면 다음과 같다. \[\begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}\begin{bmatrix}a & b \\ c & d\end{bm...

Read more

Basic Operations of Vectors

What is a vector? Before discussing the basic operations of vectors, let’s first think about what a vector is. 1) A vector is like an arrow First and foremost, a vector can be defined as a value defined by its magnitude and direction in physics. This definition reflects the geometric properties of vectors well, particularly the invariance of...

Read more

벡터의 기본 연산(상수배, 덧셈)

벡터란 무엇인가? 벡터의 기본 연산에 대해 이야기 하기 전에 벡터란 무엇인지부터 생각해보도록 하자. 1) 벡터란 화살표 같은 것 우선 바로 떠오르는 것은 벡터란 물리학에서 말하는 ‘크기와 방향으로 정의되는 값’이라고 할 수 있다. 이것은 기하학적인 벡터의 특성을 잘 반영하고 있는 정의라고 할 수 있으며, 특히 벡터의 좌표계의 변환에 대한 불변성(invariance)을 잘 표현하고 있다. 좌표계의 변환에 대해 불변적이라는 말은 아래 그림에서 처럼 좌표계가 변하더라도 벡터 그 자체는 가만히 있다는 것을 의미한다. 그림 1. 좌표계의 변환과 벡터. 좌표계가 변할 때 벡터는 변하지 않지만 벡터의...

Read more

$\int x^{dx}-1=$?

※ This posting is a reorganization of Oden Petersen’s answer to What is $\int x^{dx}-1$? on Quora. \[\int x^{dx}-1\] As soon as you see this equation, you might think, “Is this a joke?” Not only is it not a familiar form of equation, but it is also customary to write $dx$ at the end of the integral when calculating integrals. However, if you...

Read more

$\int x^{dx}-1=$?

※ 이 포스팅은 Quora의 글 중 What is $\int x^{dx}-1$?의 Oden Petersen의 답변을 재구성한 것입니다. \[\int x^{dx}-1\] 이 수식을 보자마자 “장난치는건가?” 싶은 생각이 들었다. 전혀 익숙한 형태의 수식이 아닐 뿐더러 보통 적분을 계산할 때는 $dx$를 적분 맨 뒤에 써다 주는 것이 관례적이라고 생각했기 때문일지도 모른다. 하지만, 리만 적분의 본래 의미를 생각해본다면 이 적분 값은 정당한 결과를 가져온 다는 것을 알 수 있을 것이다. 본 포스팅을 작성하는 이유는 적분 기호들의 원래적 의미에 다시 한번 집중해서 그 본질적 의미를 탐구했으면 한다는 Oden P...

Read more

Linear Regression

Linear Regression with Gradient Descent What Linear Regression is about: How can we draw a trend line that best explains a large number of points? Regression Analysis from the Perspective of Linear Algebra ※ If you’re curious about optimization-related content, you can skip the section on Regression Analysis from the Perspective of Linea...

Read more

선형회귀

Gradient descent로 풀어내는 Linear Regression. Linear Regression이 말하는 것: 수많은 점들을 최대한 잘 설명할 수 있는 trend line을 그으려면 어떻게 해야할까? 선형대수학의 관점에서 본 회귀분석 ※ 최적화 문제 관련 내용으로 궁금한 사람은 $\lt$선형대수학의 관점에서 본 회귀분석 $\gt$ 파트를 건너뛰어도 무관함. prerequisites 이 내용에 대해 이해하기 위해선 아래의 내용에 대해 알고 오는 것이 좋습니다. 벡터의 기본 연산(상수배, 덧셈) 행벡터의 의미와 벡터의 내적 4개 주요 부분 공간의 관계 선형연립방정식을 이용...

Read more

Divergence Theorem(3D)

※ The concept called “divergence theorem” in this post refers to the 3-dimensional divergence theorem (Gauss’s theorem) unless otherwise specified. This is to distinguish it from the 2-dimensional divergence theorem. Formula for Divergence Theorem \[{\large\bigcirc}\kern-1.55em\iint_S\vec{F}\cdot d\vec{S} = \iiint_V(\vec{\nabla}\cdot\vec{F})dV...

Read more