Today
-
Yesterday
-
Total
-
  • 다변수함수의 극값
    수학/벡터해석학 2024. 12. 2. 14:14
    반응형

    정의1

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$이고

    $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$위의 점곱 내적공간 노름이 $\lVert \cdot \rVert_n :\mathbb{R}^n\to [0,\infty)$이고

    모든 $x,y\in \mathbb{R}^n$에 대해 $d_n(x,y) = \lVert x-y\rVert_n$인 거리함수가 $d_n : \mathbb{R}^n\times \mathbb{R}^n \to [0,\infty)$이고

    거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$가 정의역인 함수가 $f:U \to \mathbb{R}$일때

    극점(extreme point) :

    임의의 $x_0\in U$에 대해 어떤 $r>0$이 존재하여 모든 $x \in $ $\underset{(\mathbb{R}^n,d_n)}{B}(x_0,r)$ $\subseteq U$가

    $f(x)\le f(x_0)$이면 $f$는 $x_0$에서 극댓값을 갖는다고 하고

    $f(x_0)\le f(x)$이면 $f$는 $x_0$에서 극솟값을 갖는다고 한다.

    $f$가 $x_0$에서 극댓값이나 극솟값을 가지면 $f$는 $x_0$에서 극값을 갖는다고 정의하고 $x_0$을 $f$의 극점이라 한다.

    임계점(critical point) : 

    임의의 $x_0\in U$에서 $f$의 기울기 $\nabla f(x_0)\in \mathbb{R}^n$이 존재할때 $\nabla f(x_0) = \vec{0}_n$이거나

    $\nabla f(x_0)$이 존재하지 않으면 $x_0$을 $f$의 임계점이라 한다.

    안장점(saddle point) :

    임의의 $x_0\in U$이 $f$의 임계점일때 $f$의 극점이 아니면 $x_0$을 $f$의 안장점이라 한다.

     

     

     

    정리1

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$일때

    정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$가 정의역인 함수 $f:U \to \mathbb{R}$에 대해 다음이 성립한다.

    1. 임의의 $x_0 \in U$에서 $f$의 기울기 $\nabla f(x_0)\in \mathbb{R}^n$가 존재하고 $f$가 극값을 가지면 $\nabla f(x_0) = \vec{0}_n$이다.

    2. 임의의 $x_0 \in U$에서 $f$가 미분가능하고 극값을 가지면

    $x_0$에서 $f$의 도함수 $Df(x_0) : \mathbb{R}^n\to \mathbb{R}$은 모든 $x\in \mathbb{R}^n$에 대해 $Df(x_0)(x) = 0$이다.

    증명

    1.

    벡터공간 정리에 나온 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 기저가 $\{ e_1,e_2,\cdots, e_n\}$일때 임의의 $j = 1,2,\cdots, n$에 대해

    집적점 정리로 $0$은 $(\mathbb{R},d_1)$에서 집합 $S_j = \{ t\in \mathbb{R}\setminus \{ 0\} :x_0 +_n t\cdot_n e_j \in U \}$의 집적점이다.

    임의의 $t\in S_j \cup \{ 0\}$에 대해 $g_j(t) = f(x_0 +_n t\cdot_n e_j)$인 함수가 $g_j: S_j \cup \{0\} \to \mathbb{R}$일때

    $f$는 $x_0$에서 극값을 가지므로

    어떤 $r>0$에 대해 모든 $x \in $ $\underset{(\mathbb{R}^n,d_n)}{B}(x_0,r)$ $\subseteq U$가 $f(x)\le f(x_0)$ 또는 $f(x_0)\le f(x)$가 되어

    모든 $t\in V_r(0)$는 $0$의 $r$-근방의 정의로 $|t| = |t-0|< r$임에 따라

    노름의 정의로 $d_n(x_0+_n t\cdot_ne_j, x_0) = \lVert x_0+_n t\cdot_n e_j - x_0\rVert_n = \lVert t\cdot_n e_j\rVert =|t|\cdot\lVert e_j\rVert_n = |t|< r$이고

    열린공의 정의로 $x_0+_n t\cdot_n e_j \in \underset{(\mathbb{R}^n,d_n)}{B}(x_0,r)\subseteq U$이므로 $V_r(0)\subseteq S_j\cup \{0\}$이다.

    따라서 $g_j(t) = f(x_0+_n t\cdot_n e_j) \le f(x_0) = g_j(0)$ 또는 $g_j(0) = f(x_0) \le f(x_0+_n t\cdot_n e_j)= g_j(t)$이고

    편도함수 정리내부극값 정리로 $0 = g_j'(0) = \dfrac{\partial f}{\partial x_j}(x_0)$이므로

    기울기의 정의로 $\nabla f(x_0) = \left (\dfrac{\partial f}{\partial x_1}(x_0), \dfrac{\partial f}{\partial x_2}(x_0),\cdots, \dfrac{\partial f}{\partial x_n}(x_0) \right )= (g_1'(0),g_2'(0),\cdots, g_n'(0))= \vec{0}_n$이다.

    2.

    $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 점곱이 $\bullet$일때 1번과 기울기 정리내적정리로 $Df(x_0)(x) = \nabla f(x_0) \bullet x = \vec{0}_n \bullet x = 0$이다.

     

     

     

    정의2

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$이고

     정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$가 정의역인 함수 $f:U \to \mathbb{R}$에 대해

    임의의 $x_0 \in U$에서 $f$의 모든 $2$계 편도함수가 존재할때

    모든 $x= (x_1,x_2,\cdots, x_n), y = (y_1,y_2,\cdots, y_n)\in \mathbb{R}^n$에 대해 $Hf(x_0)(x,y) = \displaystyle  \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \cdot x_i\cdot y_j$인

    함수 $Hf(x_0) : \mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R}$을 $x_0$에서 $f$의 헤시안(Hessian)으로 정의한다.

     

     

     

    정리2

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$이고

     정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$가 정의역인 함수 $f:U \to \mathbb{R}$에 대해

    임의의 $x_0 \in U$에서 $f$의 모든 $2$계 편도함수가 존재할때 헤시안 $Hf(x_0) : \mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R}$에 대해 다음이 성립한다.

    쌍선형성 : $Hf(x_0)$은 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 쌍선형형식이다.

    헤세행렬 : 벡터공간 정리에 나온 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 순서기저 $\beta = (e_1,e_2,\cdots, e_n)$에 대한 $Hf(x_0)$의

    행렬표현 $\psi_\beta(Hf(x_0)) \in M_{n\times n}(\mathbb{R})$는 모든 $i,j = 1,2,\cdots, n$에 대해 $(\psi_\beta(Hf(x_0)))_{i,j} = \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)$이다.

    증명

    쌍선형성

    임의의 $x= (x_1,x_2,\cdots, x_n), y = (y_1,y_2,\cdots, y_n), z = (z_1,z_2,\cdots, z_n)\in \mathbb{R}^n$과 임의의 $c\in \mathbb{R}$에 대해

    $\begin{align*} Hf(x_0)(c\cdot_n x+_n z, y) & = \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot (c\cdot x_i + z_i) \cdot y_j \\[0.5em] & = c\cdot \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot x_i \cdot y_j + \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot z_i \cdot y_j \\[0.5em] & = c\cdot Hf(x_0)(x, y) + Hf(x_0)(z, y) \text{ 이고} \end{align*}$

    $\begin{align*} Hf(x_0)(x, c\cdot_n y +_n z) & = \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot x_i \cdot (c\cdot y_j + z_j) \\[0.5em] & = c\cdot \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot x_i \cdot y_j + \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot x_i \cdot z_j \\[0.5em] & = c\cdot Hf(x_0)(x, y) + Hf(x_0)(x, z) \text{ 이므로} \end{align*}$

    쌍선형형식 정리로 $Hf(x_0)$은 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 쌍선형형식이다.

    헤세행렬

    $(\mathbb{R},+,\cdot, 0,1)$의 크로네커 델타 $\delta$에 대해 쌍선형형식의 행렬표현의 정의

    $(\psi_\beta(Hf(x_0)))_{i,j} = Hf(x_0)(e_i,e_j) = \displaystyle \sum_{p=1}^n \sum_{q=1}^n \dfrac{\partial^2 f}{\partial x_p \partial x_q}(x_0)\cdot \delta_{p,i}\cdot \delta_{q,j} = \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \cdot \delta_{i,i}\cdot \delta_{j,j} = \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \text{ 이다.}$

     

     

     

    정리3

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$이고

     정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$에서 함수 $f:U \to \mathbb{R}$가 $2$번 연속미분가능할때

    모든 $x_0 \in U$에서 $f$의 헤시안 $Hf(x_0) : \mathbb{R}^n \times \mathbb{R}^n \to \mathbb{R}$은 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 대칭 쌍선형형식이다.

    증명

    임의의 $x= (x_1,x_2,\cdots, x_n), y = (y_1,y_2,\cdots, y_n) \in \mathbb{R}^n$에 대해 클레로 정리로 

    $\begin{align*}Hf(x_0)(x,y) & = \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \cdot x_i\cdot y_j \\[0.5em] & = \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_j \partial x_i}(x_0) \cdot x_i\cdot y_j \\[0.5em] & = \sum_{j=1}^n \sum_{i=1}^n \dfrac{\partial^2 f}{\partial x_j \partial x_i}(x_0)\cdot y_j \cdot x_i \\[0.5em] & = \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot y_i \cdot x_j \\[0.5em] & = Hf(x_0)(y,x) \text{ 이고} \end{align*}$

    정리로 $Hf(x_0)$은 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 쌍선형형식이므로 $Hf(x_0)$은 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 대칭 쌍선형형식이다.

     

     

     

    정리4

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$위의 점곱 내적공간이 $(\mathbb{R}^n,\bullet)$일때

    벡터공간 정리에 나온 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 순서기저 $\beta = (e_1,e_2,\cdots, e_n)$는 $(\mathbb{R}^n,\bullet)$의 정규직교순서기저이다.

    증명

    $(\mathbb{R},+,\cdot, 0,1)$의 크로네커 델타$\delta$일때

    모든 $i,j = 1,2,\cdots, n$에 대해 $\displaystyle e_i \bullet e_j = \sum_{k= 1}^n \delta_{k,i} \cdot \delta_{k,j} = \delta_{i,i}\cdot \delta_{i,j} = \delta_{i,j} $이므로

    정규직교집합 정리로 $\{ e_1,e_2,\cdots, e_n\}$은 $(\mathbb{R}^n,\bullet)$의 정규직교집합이 되어 $\beta$는 $(\mathbb{R}^n,\bullet)$의 정규직교순서기저이다.

     

     

     

    정리5($2$계도함수 판정법)

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$이고

     정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$에서 함수 $f:U \to \mathbb{R}$가 $2$번 연속미분가능할때

    임의의 $x_0\in U$이 $f$의 임계점이면 헤시안 $Hf(x_0)$과 헤세행렬 $\psi_\beta(Hf(x_0)) \in M_{n\times n}(\mathbb{R})$에 대해 다음이 성립한다.

    1. $\psi_\beta(Hf(x_0))$의 모든 고윳값 $\lambda\in \mathbb{R}$가 $\lambda > 0$이면 $f$는 $x_0$에서 극솟값을 갖는다.

    2. $\psi_\beta(Hf(x_0))$의 모든 고윳값 $\lambda\in \mathbb{R}$가 $\lambda < 0$이면 $f$는 $x_0$에서 극댓값을 갖는다.

    3. $\lambda_i > 0$이고 $\lambda_j <0$인 $\psi_\beta(Hf(x_0))$의 고윳값 $\lambda_i, \lambda_j \in \mathbb{R}$가 존재하면 $x_0$은 $f$의 안장점이다.

    증명

    정리로 $Hf(x_0) $은 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 대칭 쌍선형형식이므로 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 점곱 내적공간이 $(\mathbb{R}^n,\bullet)$일때

    쌍선형형식 정리로 $(\mathbb{R}^n,\bullet)$의 정규직교순서기저 $\gamma = (v_1,v_2,\cdots,v_n)$이 존재하여

    행렬표현 $\psi_\gamma(Hf(x_0)) \in M_{n\times n}(\mathbb{R})$는 모든 $i = 1,2,\cdots, n$에 대해 $(\psi_\gamma(Hf(x_0)))_{i,i} = \lambda_i \in \mathbb{R}$인 대각행렬이고

    벡터공간 정리에 나온 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 순서기저 $\beta $는정리로 $(\mathbb{R}^n,\bullet)$의 정규직교순서기저이므로

    합동정리유니타리행렬 정리켤레전치행렬 정리행렬식 정리고윳값 정리행렬식 정리

    $\psi_\beta(Hf(x_0))$의 모든 고윳값 $\lambda\in \mathbb{R}$는 $\lambda = (\psi_\gamma(Hf(x_0)))_{j,j} = \lambda_j$인 $j = 1,2,\cdots,n$가 존재한다.

    $\lambda \ne 0$인 $\psi_\beta(Hf(x_0))$의 고윳값 $\lambda \in \mathbb{R}$가 존재한다고 가정하고

    $\epsilon  =  \dfrac{1}{n^2}\, \cdot $ $\min$$\{ |\lambda_i| : i = 1,2,\cdots, n \text{ 이고 } \lambda_i \ne 0\}  > 0$으로 정의할때

    모든 $i,j = 1,2,\cdots,n$에 대해 연속미분의 정의연속의 정의로 $\lVert x_0 - x\rVert_n< \delta(\epsilon)$인 모든 $x\in U$가

    $\left | \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) - \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x) \right |< \epsilon$이 되는 $\delta(\epsilon) > 0$이 존재한다.

    $U$는 $(\mathbb{R}^n,d_n)$에서 열린집합이므로 열린집합 정리로 $\underset{(\mathbb{R}^n,d_n)}{B}(x_0, r)\subseteq U$인 $r > 0$이 존재하여

    $u \ne x_0$인 임의의 $u\in \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\min\{r, \delta(\epsilon)\} )$에 대해

    $x_0 +_n h = u$인 $(h_1,h_2,\cdots,h_n)=h = u - x_0\in \mathbb{R}^n\setminus \{ \vec{0}_n\}$는

    임의의 $t \in [0,1]$에 대해 $(1-t)\cdot_n x_0+_n t\cdot_n (x_0+_n h) = x_0 +_n t\cdot_n h$이고 노름의 정의열린공의 정의

    $d_n(x_0+_n t\cdot_n h,x_0) = \lVert x_0 +_n t\cdot_n h - x_0\rVert_n = \lVert t\cdot_n h\rVert_n = |t|\cdot \lVert u -x_0\rVert_n\le \lVert u-x_0\rVert_n < \min\{r,\delta(\epsilon)\} \le r \text{ 이므로}$

    $x_0$에서 $x_0+_n h$로의 선분은 $L(x_0, x_0+_n h) \subseteq \underset{(\mathbb{R}^n,d_n)}{B}(x_0,r) \subseteq U$이다.

    임의의 $x\in \mathbb{R}^n$에 대해 $Kf(x_0)(x) = Hf(x_0)(x,x)$인 이차형식 $Kf(x_0):\mathbb{R}^n \to \mathbb{R}$은

    테일러 정리임계점의 정의로 어떤 $c\in (0,1)$가 존재하여

    $\begin{align*} f(x_0+_n h) & = f(x_0) + \sum_{i=1}^n \dfrac{\partial f}{\partial x_i}(x_0) \cdot h_i+ \dfrac{1}{2}\cdot \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0 +_n c\cdot_n h)\cdot h_i \cdot h_j \\[0.5em] & =f(x_0) + \dfrac{1}{2}\cdot \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0 +_n c\cdot_n h)\cdot h_i \cdot h_j \\[0.5em]&= f(x_0) + \dfrac{1}{2}\cdot Kf(x_0+_n c\cdot_n h)(h) \text{ 이고}\end{align*}$

    임의의 $i= 1,2,\cdots,n$에 대해 노름의 정의 $|h_i| = \sqrt{h_i^2} \le \sqrt{ h_1^2+h_2^2 +\cdots + h_n^2} = \lVert h\rVert_n \ne 0$이므로

    $\lVert x_0 +_n c\cdot_n h - x_0\rVert_n < \min\{r,\delta(\epsilon)\}\le \delta(\epsilon)$임에 따라 삼각부등식으로

    $\begin{align*} \left |f(x_0 +_n h) - f(x_0) - \dfrac{1}{2}\cdot Kf(x_0)(h) \right | &= \left | \dfrac{1}{2}\cdot Kf(x_0+_n c\cdot_n h)(h) - \dfrac{1}{2} \cdot Kf(x_0)(h) \right | \\[0.5em] &= \dfrac{1}{2}\cdot \left | Kf(x_0+_n c\cdot_n h)(h) - Kf(x_0)(h) \right | \\[0.5em] &= \dfrac{1}{2}\cdot \left | \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0 +_n c\cdot_n h)\cdot h_i \cdot h_j - \sum_{i=1}^n \sum_{j=1}^n \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0)\cdot h_i \cdot h_j \right | \\[0.5em] &= \dfrac{1}{2}\cdot \left | \sum_{i=1}^n \sum_{j=1}^n \left (\dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0 +_n c\cdot_n h) - \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \right ) \cdot h_i \cdot h_j \right | \\[0.5em] & \le \dfrac{1}{2}\cdot \sum_{i=1}^n \sum_{j=1}^n \left |\dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0 +_n c\cdot_n h) - \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \right | \cdot |h_i| \cdot |h_j| \\[0.5em] & \le \dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot \sum_{i=1}^n \sum_{j=1}^n \left |\dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0 +_n c\cdot_n h) - \dfrac{\partial^2 f}{\partial x_i \partial x_j}(x_0) \right | \\[0.5em] & \lt \dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot \sum_{i=1}^n \sum_{j=1}^n \epsilon = \dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2\cdot \epsilon \text{ 이 되어} \end{align*}$

    $f(x_0)+\dfrac{1}{2}\cdot Kf(x_0)(h) -\dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2 \cdot \epsilon < f(x_0+_n h)< f(x_0)+\dfrac{1}{2}\cdot Kf(x_0)(h) +\dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2 \cdot \epsilon$이다.

    기저의 정의로 $h = \displaystyle \sum_{i=1}^n s_i \cdot_n v_i$인 $s_1,s_2,\cdots, s_n \in \mathbb{R}$이 존재하여

    직교정리정규직교순서기저의 정의로 $\displaystyle \lVert h\rVert_n^2 = \left \lVert \sum_{i=1}^n s_i \cdot_n v_i \right \rVert_n^2 = \sum_{i=1}^n |s_i|^2 \cdot \lVert v_i\rVert_n^2 = \sum_{i=1}^n s_i^2$이고

    이차형식 정리로 $Kf(x_0)(h) = \displaystyle \sum_{i=1}^n \lambda_i \cdot s_i^2$이다.

    1.

    모든 $i = 1,2,\cdots, n$에 대해 $\lambda_i > 0$이면 $u \ne x_0$인 모든 $u\in \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\min\{r, \delta(\epsilon)\} )$에 대해

    $\begin{align*}f(u) = f(x_0+_n h) &> f(x_0)+\dfrac{1}{2}\cdot Kf(x_0)(h) -\dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2 \cdot \epsilon \\[0.5em]& \qquad =f(x_0) + \dfrac{1}{2} \cdot \left (\sum_{i=1}^n\lambda_i \cdot s_i^2 - n^2\cdot \epsilon \cdot \sum_{i=1}^n s_i^2 \right ) \\[0.5em]& \qquad =f(x_0) + \dfrac{1}{2} \cdot \sum_{i=1}^n (\lambda_i -\min\{ |\lambda_1|, |\lambda_2|,\cdots, |\lambda_n|\} )\cdot s_i^2 \\[0.5em]& \qquad =f(x_0) + \dfrac{1}{2} \cdot \sum_{i=1}^n (\lambda_i -\min\{ \lambda_1, \lambda_2,\cdots, \lambda_n\} )\cdot s_i^2 \\[0.5em]& \ge f(x_0) + 0 = f(x_0) \text{ 이므로} \end{align*}$

    $f$는 $x_0$에서 극솟값을 갖는다.

    2.

    모든 $i = 1,2,\cdots, n$에 대해 $\lambda_i < 0$이면

    $-\lambda_i = |\lambda_i| \ge \min \{ |\lambda_1|, |\lambda_2|,\cdots, |\lambda_n| \}$이므로 $0\ge -|\lambda_i| + \min \{ |\lambda_1|, |\lambda_2|,\cdots, |\lambda_n|\}$이고

    $u \ne x_0$인 모든 $u\in \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\min\{r, \delta(\epsilon)\} )$에 대해

    $\begin{align*}f(u) = f(x_0+_n h) &< f(x_0)+\dfrac{1}{2}\cdot Kf(x_0)(h) +\dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2 \cdot \epsilon \\[0.5em]& \qquad =f(x_0) + \dfrac{1}{2} \cdot \left (\sum_{i=1}^n\lambda_i \cdot s_i^2 + n^2\cdot \epsilon \cdot \sum_{i=1}^n s_i^2 \right ) \\[0.5em]& \qquad =f(x_0) + \dfrac{1}{2} \cdot \sum_{i=1}^n (\lambda_i +\min\{ |\lambda_1|, |\lambda_2|,\cdots, |\lambda_n|\} )\cdot s_i^2 \\[0.5em]& \qquad =f(x_0) + \dfrac{1}{2} \cdot \sum_{i=1}^n (-|\lambda_i| +\min\{ |\lambda_1|, |\lambda_2|,\cdots, |\lambda_n|\} )\cdot s_i^2 \\[0.5em]& \le f(x_0) + 0 = f(x_0) \text{ 이 되어} \end{align*}$

    $f$는 $x_0$에서 극댓값을 갖는다.

    3.

    $\lambda_i > 0$이고 $\lambda_j <0$인 $i,j = 1,2,\cdots, n$가 존재하면

    $\lambda_i = |\lambda_i| \ge  \min\{ |\lambda_k| : k= 1,2,\cdots, n \text{ 이고 } \lambda_k \ne 0\} $이고

    $-\lambda_j = |\lambda_j| \ge  \min\{ |\lambda_k| : k= 1,2,\cdots, n \text{ 이고 } \lambda_k \ne 0\} $이므로

    $\lambda_i - \min\{ |\lambda_k| : k= 1,2,\cdots, n \text{ 이고 } \lambda_k \ne 0\} \ge 0$과

    $\lambda_j + \min\{ |\lambda_k| : k= 1,2,\cdots, n \text{ 이고 } \lambda_k \ne 0\} \le 0$이 성립하여

    $u \ne x_0$인 $u\in \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\min\{r, \delta(\epsilon)\} )$에 대해 

    $s_i\ne 0$이고 $s_1 = \cdots = s_{i-1} = s_{i+1}=\cdots = s_n = 0$이면

    $\begin{align*}f(u) = f(x_0+_n h) &> f(x_0)+\dfrac{1}{2}\cdot Kf(x_0)(h) -\dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2 \cdot \epsilon  =f(x_0) + \dfrac{1}{2} \cdot  (\lambda_i -\min\{ |\lambda_k| : k =1,2,\cdots, n \text{ 이고 } \lambda_k \ne 0 \} )\cdot s_i^2 \\[0.5em]& \ge f(x_0) + 0 = f(x_0) \text{ 이고} \end{align*}$

    $s_j\ne 0$이고 $s_1 = \cdots = s_{j-1} = s_{j+1}=\cdots = s_n = 0$이면

    $\begin{align*}f(u) = f(x_0+_n h) &< f(x_0)+\dfrac{1}{2}\cdot Kf(x_0)(h) +\dfrac{1}{2}\cdot \lVert h\rVert_n^2 \cdot n^2 \cdot \epsilon  =f(x_0) + \dfrac{1}{2} \cdot  (\lambda_j +\min\{ |\lambda_k| : k =1,2,\cdots, n \text{ 이고 } \lambda_k \ne 0 \} )\cdot s_j^2 \\[0.5em]& \le f(x_0) + 0 = f(x_0) \text{ 이다.} \end{align*}$

    따라서 $x_0$은 $f$의 극점이 아닌 임계점이므로 $x_0$은 $f$의 안장점이다.

     

     

     

    정의3

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간이 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$이고

     정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U\subseteq \mathbb{R}^n$의 임의의 부분집합 $S\subseteq U$에 대해

    $U$가 정의역인 함수가 $f:U \to \mathbb{R}$이고 $(\mathbb{R}^n,d_n)$의 부분거리공간이 $(S,d_n)$일때

    임의의 $x_0\in S$에 대해 어떤 $r>0$이 존재하여 모든 $x \in $ $\underset{(S,d_n)}{B}(x_0,r)$

    $f(x)\le f(x_0)$이면 $f$가 $x_0$에서 $S$-제한 극댓값을 갖는다고 하고

    $f(x_0)\le f(x)$이면 $f$가 $x_0$에서 $S$-제한 극솟값을 갖는다고 한다.

    $f$가 $x_0$에서 $S$-제한 극댓값이나 극솟값을 가지면

    $f$는 $x_0$에서 $S$-제한 극값을 갖는다고 정의하고 $x_0$을 $f$의 $S$-제한 극점이라 한다.

     

     

     

    정리6(라그랑주 승수법 [Lagrange Multiplier Method])

    실수체 $(\mathbb{R},+,\cdot, 0,1)$위의 $n\in \mathbb{Z}^+$-순서쌍 벡터공간 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$과 $m\le n$인 임의의 $m\in $ $\mathbb{Z}^+$에 대해

     정의에 나온 거리공간 $(\mathbb{R}^n,d_n)$에서 열린집합인 $U$에서 함수 $f,g_1,g_2,\cdots,g_m:U \to \mathbb{R}$이 연속미분가능하고

    임의의 $x\in U$에 대해 모든 $i,j = 1,2,\cdots,m$가 $(A(x))_{i,j} = \dfrac{\partial g_i}{\partial x_j}(x)$인 행렬이 $A(x)\in M_{m\times m}(\mathbb{R})$일때

    임의의 $c=(c_1,c_2,\cdots,c_m)\in \mathbb{R}^m$에 대해 집합 $S = \{ x\in U : (g_1(x),g_2(x),\cdots,g_m(x)) = c\}$의

    어떤 $x_0\in S$이 존재하여 행렬식이 $\det(A(x_0))\ne 0$이고 $f$가 $x_0$에서 $S$-제한 극값을 가지면

    $\nabla$$f(x_0) = \lambda_1\cdot_n \nabla g_1(x_0) +_n \lambda_2\cdot_n \nabla g_2(x_0)+_n \cdots+_n \lambda_m\cdot_n\nabla g_m(x_0)$이 되는 $\lambda_1,\lambda_2,\cdots,\lambda_m\in \mathbb{R}$이 존재한다.

    증명

    $m =n$이면

    $\det(A(x_0))\ne 0$이므로 행렬식 정리행렬의 랭크 정리로 $A(x_0)\in M_{n\times n}(\mathbb{R})$의 랭크는 $n$이 되어

    행렬의 랭크 정리로 $\{ \nabla g_1(x_0), \nabla g_2(x_0), \cdots, \nabla g_n(x_0)\}\subseteq \mathbb{R}^n$은

    $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$에서 일차독립이고 $n$개의 원소를 가짐에 따라 벡터공간 정리로 $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 기저이다.

    따라서 기울기의 정의로 $\nabla f(x_0)\in \mathbb{R}^n$이므로 기저정리

    $\nabla f(x_0) = \lambda_1\cdot_n \nabla g_1(x_0) +_n \lambda_2\cdot_n \nabla g_2(x_0)+_n \cdots+_n \lambda_n\cdot_n\nabla g_n(x_0)$이 되는 $\lambda_1,\lambda_2,\cdots,\lambda_n\in \mathbb{R}$이 존재한다.

    $m<n$일때

    행렬식 정리$\det((A(x_0))^t)=\det(A(x_0))\ne 0$이므로 행렬식 정리전치행렬 $(A(x_0))^t$는 가역이 되어

    행렬곱 $*$에 대해 $((A(x_0))^t)^{-1} * \begin{bmatrix} \dfrac{\partial f}{\partial x_1}(x_0) \\ \dfrac{\partial f}{\partial x_2}(x_0) \\ \vdots \\ \dfrac{\partial f}{\partial x_m}(x_0) \end{bmatrix} = \begin{bmatrix} \lambda_1 \\ \lambda_2 \\ \vdots \\ \lambda_m\end{bmatrix} \in M_{m\times 1}(\mathbb{R})$인 $\lambda_1,\lambda_2,\cdots,\lambda_m\in \mathbb{R}$이 존재하고

    $\begin{bmatrix} \dfrac{\partial f}{\partial x_1}(x_0) \\ \dfrac{\partial f}{\partial x_2}(x_0) \\ \vdots \\ \dfrac{\partial f}{\partial x_m}(x_0) \end{bmatrix} =(A(x_0))^t * ((A(x_0))^t)^{-1} * \begin{bmatrix} \dfrac{\partial f}{\partial x_1}(x_0) \\ \dfrac{\partial f}{\partial x_2}(x_0) \\ \vdots \\ \dfrac{\partial f}{\partial x_m}(x_0) \end{bmatrix} = (A(x_0))^t* \begin{bmatrix} \lambda_1 \\ \lambda_2 \\ \vdots \\ \lambda_m\end{bmatrix} $이므로

    임의의 $j = 1,2,\cdots,m$에 대해 $\displaystyle \dfrac{\partial f}{\partial x_j}(x_0) = \sum_{k=1}^m ((A(x_0))^t)_{j,k}\cdot \lambda_k = \sum_{k=1}^m (A(x_0))_{k,j}\cdot \lambda_k = \sum_{k=1}^m \dfrac{\partial g_k }{\partial x_j}(x_0)\cdot \lambda_k$이다.

    $p=n-m >0$이므로 임의의 $x = (x_1,\cdots, x_m,x_{m+1},\cdots,x_{m+p})\in U \subseteq \mathbb{R}^n = \mathbb{R}^{m+p}$에 대해

    $F(x)= (F_1(x),\cdots,F_m(x)) = (g_1(x) -c_1, \cdots,g_m(x)-c_m)$인 함수 $F:U\to \mathbb{R}^m$와 $F_1,\cdots,F_m :U\to \mathbb{R}$은

    임의의 $i,j = 1,2,\cdots,m$에 대해 편도함수 정리미분정리미분정리로 $\dfrac{\partial F_i}{\partial x_j}(x) = \dfrac{\partial g_i}{\partial x_j}(x)$가 되어

    $U$에서 연속미분가능하고 $(A(x_0))_{i,j} = \dfrac{\partial F_i}{\partial x_j}(x_0)$이므로 $x_0 = (x_{0,1},\cdots, x_{0,m},x_{0,m+1},\cdots, x_{0,m+p})$일때

    $m$-순서쌍 벡터공간 $(\mathbb{R}^m,+_m,\cdot_m,\vec{0}_m)$과  정의에 나온 거리공간 $(\mathbb{R}^p,d_p)$에 대해 음함수 정리

    $(x_{0,m+1},\cdots,x_{0,m+p})\in \Omega$인 $(\mathbb{R}^p,d_p)$에서 열린집합 $\Omega \subseteq \mathbb{R}^p$가 존재하고

    $\Omega$에서 연속미분가능한 함수 $\gamma :\Omega\to \mathbb{R}^m$가 존재하여 $\gamma(x_{0,m+1},\cdots, x_{m+p}) = (x_{0,1},\cdots, x_{0,m})$이고

    함수 $\gamma_1,\cdots, \gamma_m:\Omega\to \mathbb{R}$이 모든 $t = (t_1,\cdots,t_p)\in \Omega$에 대해

    $\gamma(t) = (\gamma_1(t),\cdots, \gamma_m(t))\in \mathbb{R}^m$이면 $F(\gamma_1(t),\cdots, \gamma_m(t),t_1,\cdots,t_p) = \vec{0}_m$이다.

    $\phi(t) = (\gamma_1(t),\cdots,\gamma_m(t),t_1,\cdots,t_p)\in \mathbb{R}^{m+p} = \mathbb{R}^n$인 함수 $\phi :\Omega\to \mathbb{R}^n$는

    음함수 정리에 나온 것과 비슷하게 $\Omega$에서 연속미분가능하고 $t_0 = (x_{0,m+1},\cdots,x_{0,m+p})$일때

    $\phi(t_0) = (\gamma_1(t_0),\cdots, \gamma_m(t_0), x_{0,m+1},\cdots, x_{0,m+p}) = (x_{0,1},\cdots, x_{0,m},x_{0,m+1},\cdots, x_{0,m+p}) = x_0$이고

    임의의 $k = 1,2,\cdots, m$에 대해 합성함수 $F_k\circ \phi: \Omega\to \mathbb{R}$는 $(F_k\circ \phi)(t) = F_k(\phi(t)) = 0$이므로 

    벡터공간 정리에 나온 $(\mathbb{R}^p,+_p,\cdot_p,\vec{0}_p)$, $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$, $(\mathbb{R},+_1,\cdot_1,0)$의 순서기저 $\beta_p,\beta_n, \beta_1$과

    영행렬 $O_p\in M_{1\times p}(\mathbb{R})$에 대해 상수함수 정리영변환 정리연쇄법칙미분정리미분정리행렬표현 정리로 

    $\begin{align*} O_p &= [D(F_k\circ \phi)(x_{0,m},\cdots, x_{0,m+p})]_{\beta_p}^{\beta_1} \\[0.5em]&= [DF_k(\phi(x_{0,m},\cdots, x_{0,m+p})) \circ D\phi(x_{0,m},\cdots,x_{m+p})]_{\beta_p}^{\beta_1} \\[0.5em]&= [DF_k(\phi(x_{0,m},\cdots, x_{0,m+p}))]_{\beta_n}^{\beta_1} * [D\phi(x_{0,m},\cdots,x_{m+p})]_{\beta_p}^{\beta_n} \\[0.5em]&= [DF_k(x_0)]_{\beta_n}^{\beta_1} * [D\phi(t_0)]_{\beta_p}^{\beta_n} \\[0.5em]&= \begin{bmatrix} \dfrac{\partial g_k}{\partial x_1}(x_0) & \cdots & \dfrac{\partial g_k}{\partial x_n}(x_0) \end{bmatrix} * \begin{bmatrix} \dfrac{\partial \gamma_1}{\partial t_1}(t_0) & \cdots & \dfrac{\partial \gamma_1}{\partial t_p}(t_0) \\ \vdots & \ddots & \vdots \\ \dfrac{\partial \gamma_m}{\partial t_1}(t_0) & \cdots & \dfrac{\partial \gamma_m}{\partial t_p}(t_0) \\ 1 & \cdots & 0\\ \vdots & \ddots & \vdots \\ 0 & \cdots & 1 \end{bmatrix} \text{ 이 되어} \end{align*}$

    임의의 $r = 1,\cdots, p$에 대해 $0 = \displaystyle \sum_{j = 1}^m \dfrac{\partial g_k}{\partial x_j}(x_0) \cdot \dfrac{\partial \gamma_j}{\partial t_r}(t_0) + \dfrac{\partial g_k}{\partial x_{m+r}}(x_0)$이다.

    양변에 $\lambda_k$를 곱하면 $0 = \displaystyle \sum_{j = 1}^m \lambda_k \cdot \dfrac{\partial g_k}{\partial x_j}(x_0) \cdot \dfrac{\partial \gamma_j}{\partial t_r}(t_0) + \lambda_k \cdot \dfrac{\partial g_k}{\partial x_{m+r}}(x_0)$이므로

    $k=1,2,\cdots,m$에 대한 모든 항을 더하고 $j = 1,2,\cdots, m$에 대한 $\displaystyle \dfrac{\partial f}{\partial x_j}(x_0) = \sum_{k=1}^m \dfrac{\partial g_k }{\partial x_j}(x_0)\cdot \lambda_k$를 대입하면

    $\begin{align*}0 = \sum_{k=1}^m\sum_{j = 1}^m \lambda_k \cdot \dfrac{\partial g_k}{\partial x_j}(x_0) \cdot \dfrac{\partial \gamma_j}{\partial t_r}(t_0) + \sum_{k=1}^m\lambda_k \cdot \dfrac{\partial g_k}{\partial x_{m+r}}(x_0) = \sum_{j=1}^m\dfrac{\partial f}{\partial x_j}(x_0)\cdot \dfrac{\partial \gamma_j}{\partial t_r}(t_0) +\sum_{k=1}^m \lambda_k \cdot \dfrac{\partial g_k}{\partial x_{m+r}}(x_0)\text{ 이다.} \end{align*}$

    $S = \{ x\in U : (g_1(x),\cdots,g_m(x)) = c\} = \{ x\in U : (g_1(x)-c_1,\cdots, g_m(x)-c_m) = \vec{0}_m\} = \{ x\in U : F(x) = \vec{0}_m\} \text{ 이고}$

    $f$가 $x_0$에서 $S$-제한 극값을 가지므로 어떤 $\delta_1>0$이 존재하여 열린공의 정의 

    모든 $x\in \underset{(S,d_n)}{B}(x_0,\delta_1) = S\cap \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\delta_1)$에 대해 $f(x)\le f(x_0)$ 또는 $f(x_0)\le f(x)$이다.

    미분연속성으로 $\phi$는 $(\Omega,d_p)$와 $(\mathbb{R}^n,d_n)$에 대해 $t_0$에서 연속이고

    $\phi(t_0)= x_0\in S\subseteq U$에 대해 열린집합 정리로 $\underset{(\mathbb{R}^n,d_n)}{B}(x_0,\delta_2)\subseteq U$인 $\delta_2>0$가 존재하여 $\delta =\min \{\delta_1,\delta_2\}$에 대해 

    열린공 정리연속함수 정리로 $t_0\in O$이고 $\phi(O)\subseteq \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\delta)\subseteq U$인 $(\Omega,d_p)$에서 열린집합 $O$가 존재하므로

    $\Omega$가 $(\mathbb{R}^p,d_p)$에서 열린집합임에 따라 부분거리공간 정리열린집합 정리로 $O$는 $(\mathbb{R}^p,d_p)$에서 열린집합이다.

    열린집합 정리$\underset{(\mathbb{R}^p,d_p)}{B}(t_0,\eta)\subseteq O \subseteq \Omega$인 $\eta >0$가 존재하여

    모든 $t = (t_1,\cdots, t_p)\in \underset{(\mathbb{R}^p,d_p)}{B}(t_0,\eta)$에 대해 $F(\phi(t))=F(\gamma_1(t),\cdots, \gamma_m(t),t_1,\cdots,t_p) = \vec{0}_m$이고

    $\phi(t) \in \phi(\underset{(\mathbb{R}^p,d_p)}{B}(t_0,\eta)) \subseteq \phi(O) \subseteq \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\delta) \subseteq \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\delta_1)$이므로 

    $\phi(t) \in S\cap \underset{(\mathbb{R}^n,d_n)}{B}(x_0,\delta_1)$가 되어 $f(\phi(t))\le f(x_0) = f(\phi(t_0))$ 또는 $f(\phi(t_0))=f(x_0)\le f(\phi(t)) $이다.

    따라서 모든 $t\in O$에 대해 $\varphi = f(\phi(t))$인 함수 $\varphi : O \to \mathbb{R}$는 $t_0$에서 극값을 가지므로

    $(\mathbb{R}^n,+_n,\cdot_n,\vec{0}_n)$의 점곱 $\bullet$에 대해 위 정리편도함수 정리

    $\begin{align*}\vec{0}_p &= \nabla \varphi(t_0) \\[0.5em] & = \left (\dfrac{\partial \varphi}{\partial t_1}(t_0),\cdots ,\dfrac{\partial \varphi}{\partial t_p}(t_0) \right) \\[0.5em] & = \left (\nabla f (\phi(t_0)) \bullet \dfrac{\partial \phi}{\partial t_1}(t_0),\cdots ,\nabla f(\phi(t_0)) \bullet \dfrac{\partial \phi}{\partial t_p}(t_0) \right) \\[0.5em] & = \left (\nabla f (x_0) \bullet \dfrac{\partial \phi}{\partial t_1}(t_0),\cdots ,\nabla f(x_0) \bullet \dfrac{\partial \phi}{\partial t_p}(t_0) \right) \\[0.5em] & = \left ( \sum_{j=1}^m \dfrac{\partial f}{\partial x_j}(x_0) \cdot \dfrac{\partial \gamma_j}{\partial t_1}(t_0) +\dfrac{\partial f}{\partial x_{m+1}}(x_0) ,\cdots , \sum_{j=1}^m \dfrac{\partial f}{\partial x_j}(x_0) \cdot \dfrac{\partial \gamma_j}{\partial t_p}(t_0) +\dfrac{\partial f}{\partial x_{m+p}}(x_0) \right) \text{ 이 되어} \end{align*}$

    모든 $r = 1,\cdots ,p$에 대해 $\begin{align*} \sum_{k=1}^m \lambda_k \cdot \dfrac{\partial g_k}{\partial x_{m+r}}(x_0) = -\sum_{j=1}^m\dfrac{\partial f}{\partial x_j}(x_0)\cdot \dfrac{\partial \gamma_j}{\partial t_r}(t_0) = \dfrac{\partial f}{\partial x_{m+r}}(x_0) \end{align*}$이고

    모든 $j = 1,2,\cdots,m$에 대해 $\displaystyle \dfrac{\partial f}{\partial x_j}(x_0) = \sum_{k=1}^m \lambda_k\cdot \dfrac{\partial g_k }{\partial x_j}(x_0)$임에 따라

    $\nabla f(x_0) = \lambda_1\cdot_n \nabla g_1(x_0) +_n \lambda_2\cdot_n \nabla g_2(x_0)+_n \cdots+_n \lambda_m\cdot_n\nabla g_m(x_0)$이다.

     

     

     

    -------------------------------------------------------------------------------

    정의의 링크 : 

    https://openknowledgevl.tistory.com/96#def번호

    번호는 해당 정의 옆에 붙어있는 작은 숫자입니다.

     

    정리의 링크 : 

    https://openknowledgevl.tistory.com/96#thm번호

    번호는 해당 정리 옆에 붙어있는 작은 숫자입니다.

     

    위 내용은 아래의 출처를 기반으로 정리한 내용입니다.

    틀린 내용이 존재할 수 있습니다.

     

    출처(저자 - 제목 - ISBN13)

    William R. Wade - Introduction to Analysis - 9780132296380

    Stephen H. Friedberg - Linear Algebra - 9780134860244

    Jerrold E. Marsden - Vector Calculus - 9791196120313

     

     

     

    반응형