늘 그렇듯, 미분은 언제나 나온다.

컴퓨터에서 쓰는 미분의 정의는 다음과 같이 사용한다.
f(x)를 함수라고 하고, x를 어떤 수라고 하는데, x가 a와 b사이에 있으면 대략 그 근방에서 다음과 같이 f(x)를 근사한다.
f(x) = t*(x-a) + f(a)
그리고 t는 x=b일때 1차방정식의 해가 된다
t=(f(b)-f(a))/(b-a)
뭐, 여기까지는 쉬우니까 그냥 넘어가자.

조금 더 살을 붙여보자면, 우리가 f(x)를 f(x([i])의 형태로, 즉 수치적으로 알고 있다고 하자. x[i]는 f(x)의 어떤 적당한 정의역인 (a,b)사이에서 정의된 i가 커지면 증가하기만 하는 수열이다. (모든 i, j에 대해서 i<j라면 x[i]<x[j]가 보장된다는 뜻이다.) 그럼, 미분 계수인 t는 어떻게 구할 수 있을까? 당연히 위의 공식을 적용해 볼 수 있겠다. x[i] 근방에서 미분계수는
t=(f(x[i])-f(x[i-1]))/(x[i]-x[i-1])

이렇게 된다. 이 경우에 오차는 어떻게 될까? 테일러 정리에 의하면, 1차까지 근사한 함수는 2차도함수보다 작은 오차를 갖게 된다. 그 오차를 정확히 계산하는 건 뭐 큰 의미는 없다. 왜냐하면 실제 값이라고 생각하는 것 조차 그다지 정확하지는 않으니까. 그냥 계산 많이 하면 할수록 작아진다는 수준에서 정리해 두면 된다.

(글이 쓰다만 것처럼 되었음.)
by snowall 2009.07.05 22:25