miércoles, 2 de marzo de 2022

Resolución numérica de ecuaciones no lineales en una variable

Descarga este artículo aquí.

En este post trabajaremos la resolución aproximada de ecuaciones del estilo $f(x)=0$, donde $f$ es una función a suponer continua, derivable, etc; en un entorno de la solución particular, según el método y contexto aplicado.

Comenzamos con un clásico del cálculo diferencial de una variable:

Método de la bisección

En este caso, es suficiente suponer la continuidad de $f$ en un intervalo cerrado particular, pues el método trascurre del Teorema de Bolzano:

(Teorema, Bolzano) Sea $f$ función continua en $[a,b]$ presentando un cambio de signo en los extremos del intervalo (esto es: $f(a)\cdot f(b)< 0$). Existe entonces un $c\in (a,b)$ tal que $f(c)=0$.

Pongamos $f$ función verificando las hipótesis del Teorema de Bolzano en un intervalo cerrado $[a,b]$. El método de la bisección genera dos sucesiones $\{ a_n \}, \{ b_n \} \subseteq [a,b]$ que diferencian el signo de la función $f$. En nuestro convenio, los valores considerados en $\{ a_n \}$ son aquellos cuya imagen por $f$ sea negativa. Caso contrario para $\{ b_n \}$. Suponiendo entonces (sin pérdida de generalidad) $f(a)<0$ y $f(b)>0$, comenzamos construyendo dichas sucesiones con los valores: $a_1 = a, b_1 =b$. Definimos ahora $c_1$ como el punto medio entre ambos: $c_1:= \frac{a_1 + b_1}{2}$, y estudiamos el signo de $f(c_1)$. Según sea positivo o no, modificamos el intervalo para asegurar la raíz adentro. La clave del método es que, en cada iteración, reduce a la mitad el intervalo inicial $[a,b]$. El nuevo intervalo a considerar vendrá ceñido por la siguiente correspondencia: \begin{equation} \label{eq:1} [a_{n+1}, b_{n+1}] = \begin{cases} [a_n, c_n] & , \mathrm{si} \ f(a_n) \cdot f(c_n) <0 \\ [c_n, b_n] & , \mathrm{si} \ f(a_n) \cdot f(c_n) >0 \end{cases} \end{equation} , donde $c_n := \frac{1}{2} (a_n + b_n)$. Habiendo definido de esta forma las sucesiones $\{a_n \}, \{b_n \}, \{c_n \}$, se arrojan los siguientes resultados acerca del método:

(Convergencia global del método de la bisección) Sea $f\in \mathcal{C}([a,b])$ verificando $f(a)\cdot f(b) <0$, y $\{ a_n \}, \{b_n \}, \{c_n \}$ sucesiones definidas a partir del convenio previo. Entonces, siendo $\alpha$ una raíz en el intervalo asegurada por el Th. Bolzano:
$$\lim_{n\to +\infty} a_n = \lim_{n\to +\infty} b_n = \lim_{n \to +\infty} c_n = \alpha$$
Además, se puede manejar el número de iteraciones a dar conociendo la cota del error:
$$|c_n - \alpha| \leq \frac{b - a}{2^n}, \ \forall n\geq 1$$

Demostración: La prueba se fundamenta de justificar la desigualdad final. Sabiendo que $\alpha \in [a_n, b_n], \forall n \geq 1$, y teniendo en cuenta que $c_n$ es punto medio del intervalo, trivialmente: $$|c_n - \alpha| \leq \frac{b_n - a_n}{2}  \overset{*}{=} \frac{b-a}{2^n}$$ , donde la última igualdad considera que los intervalos se reducen a la mitad en cada iteración realizada. $(ii)$ Tomando límite en la igualdad *, ya que $(b-a)/2^n \to 0, n\to +\infty$, se deduce: $$\displaystyle \lim_{n\to +\infty} (b_n -a_n) = 0 \equiv \lim_{n\to +\infty} a_n = \lim_{n\to +\infty} b_n$$ Además, ya que $c_n \in (a_n,b_n), \forall n\geq 1$, se da la igualdad de límites (Sandwich). Se deduce que las sucesiones convergen a $\alpha$ pues $|c_n - \alpha|$ es requerido a tender a cero cuando $n\to +\infty$.

$\square$

Método de Newton-Raphson

Dada la ecuación $f(x) =0$, siendo $\alpha$ una raíz simple de $f$, función continua y derivable en $I_\delta =(\alpha - \delta, \alpha + \delta)$, para algún $\delta >0$; y $x_0 \simeq \alpha$ una aproximación inicial de $\alpha$. Definimos a la iteración del método como procede:

$$x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)} \ \ , \forall n \geq 0$$

El origen de la iteración del método viene de aproximar $f$ por su desarrollo de Taylor de orden $1$. En concreto, se toma como referencia el desarrollo:

$$0= f(\alpha) = f(x_n + (\alpha - x_n)) = f(x_n) + f'(x_n) (\alpha - x_n) + \frac{f''(\xi _n)}{2} (\alpha - x_n)^2$$

, donde $\xi_n \in (\min \{\alpha , x_n \}, \max \{\alpha, x_n \})$. Despreciando el último sumando y despejando $\alpha$, se obtiene la aproximación: $\alpha \simeq x_n - \frac{f(x_n)}{f'(x_n)}$. Otro origen del método de Newton-Raphson, como interpretación geométrica dada, es $x_{n+1}$ como punto de corte con el eje $OX$ de la recta tangente a $f$ trazada por el punto de tangencia $(x,f(x_n))$:

El defecto de considerar esta iteración es la delicadeza que se puede introducir a la hora de conseguir la convergencia del método. Cuando esto se consigue, se alcanza una convergencia cuadrática a la raíz simple $\alpha$:

(Convergencia local del método de Newton-Raphson) Sea $f\in \mathcal{C}^2([a,b])$ y $\alpha \in (a,b)$ raíz simple de $f(x)=0$. Existe entonces un $\delta>0: |x_0 - \alpha|< \delta$ implica:
$$ (i) \ |x_n- \alpha|< \delta , \forall n \geq 0 $$ $$ (ii) \ |x_{n+1} - \alpha| \leq C_\delta |x_n - \alpha|^2, \forall n\geq 0 \quad ; \text{con } C_\delta := \frac{1}{2} \frac{\max_{|x-\alpha| \leq \delta} |f''(x)|}{\min_{|x-\alpha| \leq \delta} |f'(x)|}$$
$$(iii) \lim_{n\to +\infty} x_n = \alpha$$ $$(iv) \ \text{Si } x_n \neq \alpha, n\geq 0 \Longrightarrow \displaystyle \lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{(x_n - \alpha)^2} = \frac{f''(\alpha)}{2f'(\alpha)}$$

DemostraciónYa que $f'(\alpha) \neq 0 \wedge f' \in \mathcal{C}([a,b]) \Longrightarrow \exists \delta >0: f'(x) \neq 0 , \forall x\in I_\delta$, donde el intervalo $I_\delta := (\alpha - \delta, \alpha + \delta)$. Se deduce así $\min_{x\in I_\delta} |f'(x)| >0$. Nótese que: $$C_\delta := \frac{1}{2} \frac{\max_{|x-\alpha| \leq \delta} |f''(x)|}{\min_{|x-\alpha| \leq \delta} |f'(x)|} \longrightarrow \frac{1}{2} \left | \frac{f''(\alpha)}{f'(\alpha)} \right | \qquad , \delta \to 0$$ , dada la continuidad de $f',f''$. Consideramos ahora $\delta$ próximo a cero para conseguir $K_\delta := \delta C_\delta <1$ (se puede hacer dada la tendencia de $C_\delta$ a un valor constante). En dicho caso, partiendo de $x_0, x_n \in I_\delta$, para la aplicación del argumento inductivo sobre $n\in \mathbb{N}$, conseguimos: $$f(\alpha) = 0 \underset{\mathrm{Th. Taylor}}{\Longrightarrow} f(x_n)+ f'(x_n) (\alpha -x_n) + \frac{1}{2} f''(\xi_n) (\alpha - x_n)^2 = 0$$ , con $\xi_n \in (\min \{\alpha , x_n \}, \max \{\alpha, x_n \})$. Despejando los dos primeros sumandos de la igualdad y dividiendo todo por $f'(x_n)$, se llega a:

$$\begin{eqnarray}  & & \underset{x_{n+1}}{\underbrace{x_n -\frac{f(x_n)}{f'(x_n)}}} -\alpha = \frac{1}{2} \frac{f''(\xi_n)}{f'(x_n)} (\alpha - x_n)^2\Longrightarrow  \\ & \Longrightarrow  & |x_{n+1} -\alpha| = \frac{1}{2} \left |\frac{f''(\xi_n)}{f'(x_n)}(\alpha - x_n)^2 \right | \leq C_\delta (\alpha -x_n)^2 \end{eqnarray}$$

Hemos probado $(ii)$ de regalo. Además: $$|x_{n+1}- \alpha| \leq C_\delta (\alpha -x_n) (\alpha -x_n) <_{(3)} K_\delta |x_n - \alpha| < K_\delta \delta < \delta \Longrightarrow \boxed{x_{n+1} \in I_\delta}$$ , donde hemos usado $x\in I_\delta$ y $K_\delta <1$ tal y como hemos fijado. Para terminar, haciendo uso de la desigualdad $(3)$ de arriba: $$|x_{n+1} - \alpha| < K_\delta |x_n - \alpha| < K_\delta ^2 |x_{n-1} - \alpha| < ... < K_{\delta} ^{n+1} |x_0 - \alpha| \longrightarrow 0$$ , $n\to + \infty $; pues $K_\delta$ era menor que 1. Se deduce entonces que $\boxed{\lim x_n = \alpha}$. $(iv)$ queda también demostrado pues: $$\lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{(x_n - \alpha)^2} = \lim_{n\to +\infty} \frac{1}{2} \frac{f''(\xi_n)}{f'(x_n)} = \frac{1}{2} \frac{f''(\alpha)}{f'(\alpha)}$$, dada la continuidad de $f',f''$ y la convergencia de $\{ \xi_n \}, \{ x_n \}$ a la raíz.

$\square$

(Convergencia global del método de Newton-Raphson) Sea $f\in \mathcal{C}^2 ([a,b])$ verificando las condiciones: 
  1. $f(a) \cdot f(b) <0$. 
  2. $f'(x) \neq 0, \forall x\in [a,b]$. 
  3. $f''$ tiene signo constante en $[a,b].$ 
  4. $\displaystyle \max \left \{ \left | \frac{f(a)}{f'(a)} \right |, \left | \frac{f(b)}{f'(b)} \right | \right \} \leq b-a$. 
Ocurre entonces que $f(x) = 0$ tiene solución única en $(a,b)$, de forma que la iteración del método de Newton-Raphson converge a dicha solución, para cualquier $x_0 \in [a,b]$ inicial considerado. Además, se verifican también las propiedades $(ii), (iv)$ del Teorema de convergencia local.

Demostración: Pendiente

A la hora de aplicar el método de Newton-Raphson, nos puede interesar aproximar la raíz simple buscada sin superar un error establecido. Suponiendo en primer lugar $f$ función derivable en un $[a,b]$, y $m_1 := \min_{x\in [a,b]} |f'(x)|$, se verifica: $$|f(x_n)| = |f(x_n) - f(\alpha)| = |f'(\xi_n)| |x_n - \alpha| \geq m_1 |x_n - \alpha|$$ Se deduce así: $|x_n - \alpha| \leq_{(*)} \frac{|f(x_n)|}{m_1}, \forall n \geq 0$. Además, si $f$ es dos veces derivable en dicho $[a,b]$, denotando $M_2 := \max_{x\in [a,b]} |f''(x)|$, aplicando el Teorema de Taylor:

$$f(x_{n+1}) = \underset{=0 \text{(Def. método)}}{\underbrace{f(x_n) + f'(x_n) (x_{n+1}- x_n) }} + \frac{f''(\xi_n)}{2} (x_{n+1}-x_n)^2$$

, con $\xi_n$ entre $x_n, x_{n+1}$. Aplicando la expresión (*):

$$|x_{n+1}-\alpha| \leq \frac{|f(x_{n+1})|}{m_1} \leq \frac{M_2}{2m_1} |x_{n+1} -x_n|^2$$

Se procede a definir como tolerancia del paso $n$: $\mathrm{TOL}_n := |x_n - x_{n-1}|$ como un valor variante para cada iteración dada. De forma que el usuario puede definir una tolerancia de partida: $\mathrm{TOL}>0$ para aproximar $\alpha$ con un nivel de precisión deseado, buscando así el primer $n_0\in \mathbb{N}: \mathrm{TOL}_{n_0} \leq \mathrm{TOL}$, y dar como aproximación $x_{n_0}$ en un método genérico.


Método/Iteración del punto fijo

Consideramos una ecuación $f(x) = 0$ con raíz $\alpha$ y sea $g(x)$ otra función tal que $f(x) = 0 \Longleftrightarrow g(x)=x$, es decir: $\alpha$ es punto fijo de $g$. Bajo esta consideración, se define la iteración del punto fijo sobre $g$ (función de iteración), partiendo de un iterado inicial $x_0$ cercano a $\alpha$, con la recurrencia $x_{n+1} := g(x_n), \forall n\geq 0$.

En particular, si $\lim x_n = \alpha$ y $g$ es función continua, entonces $\alpha$ es un punto fijo de $g$, pues: $$\alpha = \lim_{n\to \infty} x_{n+1} = \lim_{n\to +\infty} g(x_n) = g \left ( \lim_{n\to +\infty} x_n \right ) = g(\alpha)$$

La interpretación geométrica de la iteración parte de los puntos de interseca de $y=g(x)$ con $y=x$ (puntos fijos de $g$). Tomando un $x_0$ inicial, una iteración consiste en trasladar la imagen de la previa a la recta $y=x$, para volver a aplicar $g$ sucesivamente. Dependiendo de las características de $f$ en $x_0$ y proximidades, el método será convergente o no.


Entra en juego el concepto de función contractiva:

Definición (Función contractiva)

Sea $g:A\subseteq \mathbb{R} \to \mathbb{R}$, con $A$ cerrado. Diremos que $g$ es contractiva si, y solo si: $\exists \kappa \in [0,1)$ verificando $|g(x)-g(y)| \leq \kappa |x-y|, \forall x,y\in A$.

Se prueba rápidamente que toda función contractiva en un cerrado, es uniformemente continua en el mismo, y por lo tanto: continua.

(Th. Punto Fijo de Banach) Sea $A$ cerrado y $g:A\to A$ función contractiva en $A$. Entonces $g$ tiene un único punto fijo en $A$ y la sucesión $x_{n+1} = g(x_n)$ $, \forall n\geq 0$ converge para cualquier $x_0\in A$ inicial considerado. Es más, siendo $\kappa$ la constante contractiva asociada: $$|x_{n+1} - \alpha| \leq \frac{\kappa}{1-\kappa} |x_n - x_{n-1}| \leq \frac{\kappa ^n}{1-\kappa} |x_1 -x_0| \qquad , \forall n\geq 0$$

DemostraciónEmpezamos viendo que la sucesión $\{ x_n \}$ es de Cauchy, y por lo tanto convergente. En efecto:

$$ \small \begin{eqnarray} |x_{n+h} - x_n| & = & |x_{n+h} -x_{n+h-1} +x_{n+h-1} + \dotsb + x_{n+1} - x_n| \leq \sum_{j=0}^{h-1} |x_{n+j+1}-x_{n+j}| = \nonumber \\ & = & \sum_{j=0}^{h-1} |g(x_{n+j}) - g(x_{n+j-1})| \leq \kappa \sum_{j=0}^{h-1} |x_{n+j}- x_{n+j-1}| \leq \left ( \sum_{j=0}^{h-1} \kappa^j \right )|x_{n+1}-x_n| < \nonumber \\ & < & \left ( \sum_{j\geq 0} \kappa ^j \right ) |x_{n+1}- x_n| =_{|\kappa |=\kappa <1} \frac{1}{1-\kappa} |x_{n+1} - x_n| \leq \frac{\kappa ^n}{1-\kappa} |x_1 -x_0| < \varepsilon \nonumber \\ & & , \mathrm{tomando} \ n \geq n_0 = \left \lfloor \log_\kappa \left ( \frac{\varepsilon (1-\kappa)}{|x_1 -x_0|} \right ) \right \rfloor +1 \nonumber \qquad , \forall n, h\in \mathbb{N} \end{eqnarray}$$

Concluimos entonces que $\{x_n \}$ es sucesión de Cauchy, y por lo tanto dada la completitud de $\mathbb{R}$: $\{ x_n \}$ convergente en $A\subseteq \mathbb{R}$ (importante que $A$ sea cerrado). Probamos antes que $\alpha = \lim x_n$ era punto fijo de $g$ bajo su continuidad como hipótesis, luego tenemos también justificada la existencia de punto fijo en $A$. Además, este es único pues dados dos $\alpha', \alpha''$ puntos fijos de $g$ en $A$: $$|\alpha'' - \alpha '| = |g(\alpha '') - g(\alpha ')| \leq K |\alpha '' - \alpha ' | \color{red} < \color{black} |\alpha '' - \alpha '| \qquad \color{red} {(\Rightarrow \Leftarrow)}$$ Para justificar las cotas de error proporcionadas, basta con tomar $h\to +\infty$ para obtener: $$|\alpha - x_{n}| \leq \frac{1}{1-\kappa} |x_{n+1} - x_n| \leq \frac{\kappa}{1-\kappa} |x_n - x_{n-1}| \leq \frac{\kappa ^n}{1-\kappa} |x_1 -x_0|$$

$\square$

Estamos ya listos para proporcionar los teoremas de convergencia global y local del método del punto fijo.

(Convergencia global del método del punto fijo) Sea $g\in \mathcal{C}^1 ([a,b])$ tal que $g([a,b])\subseteq [a,b]$ y $|g'(x)|\leq \kappa <1, \forall x\in [a,b]$. Entonces:
  1. $g$ tiene un único punto fijo en $[a,b]$.
  2. $x_{n+1} = g(x_n), n\geq 0$ converge a $\alpha$ punto de $g$, para cualquier $x_0 \in [a,b]$ considerado. Se siguen verificando las cotas del error del Teorema de Banach.
  3. Si $x_n \neq \alpha, n\geq 0$, entonces: $\displaystyle \lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{x_n - \alpha} = g'(\alpha)$.

DemostraciónAl tratarse de una función derivable cuya derivada es acotada por $\kappa$, se puede probar fácilmente, haciendo uso del Teorema del Valor Medio; que $g\in \mathrm{Lip}_\kappa([a,b])$. Ya que $\kappa <1$, la función es contractiva. El Teorema del Punto Fijo de Banach justifica $(i)$ y $(ii)$. Para probar $(iii)$, simplemente hay que tener en cuenta: $$x_{n+1} -\alpha = g(x_n) - g(\alpha) = g'(\xi_n) (x_n - \alpha) \qquad , \xi_n \in (\min \{x_n, \alpha \}, \max \{x_n, \alpha \} )$$ En concreto, ya que $\lim x_n = \alpha$, la continuidad en $g'$ permite establecer: $$\lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{x_n - \alpha} = \lim_{n\to +\infty} g'(\xi_n) = g' \left ( \lim_{n\to +\infty} \xi _n \right ) = g'(\alpha)$$

$\square$

Además, si $|g'(\alpha)|>1$ y $x_n \neq \alpha, \forall n\geq 0$; la iteración es divergente. En efecto, si $g'\in \mathcal{C}([a,b])$, por hipótesis deberá existir un $\delta >0: |g'(x)|\geq \mathbf{K} = \mathbf{K}(\delta) >1 $ $, \forall x\in I_\delta $. En dicho caso, dado $\nu \in \mathbb{N}: x_{\nu} \neq \alpha$ conseguimos: $$|x_{\nu +h} -\alpha| = |g(x_{\nu +h-1}) - g(\alpha)| = |g'(\xi)| |x_{\nu +h-1} - \alpha| \geq \mathbf{K} |x_{\nu +h-1} - \alpha |$$ Aplicando el proceso reiteradamente $h$ veces, llegamos a $|x_{\nu +h} -\alpha| \geq \mathbf{K}^h |x_\nu - \alpha| , \forall h\in \mathbb{N}$. Ya que $\mathbf{K} >1$, existe $\varepsilon = |x_\nu -\alpha| >0$ tal que $|x_n - \alpha| \geq \varepsilon, \forall n\geq \nu$. Esto implica $\lim_{n\to +\infty} x_n \neq \alpha$. Además, para cualquier $\varepsilon'>0$ fijado, podemos encontrar $\nu ' = \nu ' (h)$ tal que $|x_n - \alpha|\geq \varepsilon, \forall n\geq \nu'$ (Propiedad arquimediana). Luego $\{ x_n \}$ es sucesión divergente.

(Convergencia local del método del punto fijo) Sea $g$ función de clase $C^1$ en un entorno $\mathcal{I}(\alpha)$ de $\alpha$ punto fijo de $g$, tal que $|g'(\alpha)| <1$. Encontramos entonces $\delta >0: |x_0 -\alpha| < \delta$ implica:
  1. $|x_n - \alpha| < \delta, \forall n\geq 0$; además de $\lim_{n\to +\infty} x_n = \alpha$. En particular, si $g'$ es positiva en el entorno trabajado, la convergencia es monótona (no hay saltos de izquierda/derecha respecto de $\alpha$), y si $g'$ es negativa, la convergencia es oscilante.
  2. Si $g\in C^p$ en $\mathcal{I}(\alpha)$ tal que $\alpha$ es cero excepcional de orden $p$ de $g$: $$g'(\alpha) = \dotsb = g^{(p-1)}(\alpha) =0 \ \wedge \ g^{(p)}(\alpha) \neq 0$$ , entonces la convergencia del método del punto fijo es de orden $p$, verificando: $$\lim_{n\to +\infty} \frac{x_{n+1}-\alpha}{(x_n -\alpha)^p} = \frac{g^{(p)}(\alpha)}{p!}$$

DemostraciónSea $\delta>0: |g'(x)|<1, \forall x\in I_\delta := (\alpha - \delta, \alpha + \delta)$. La continuidad permite suponer también la conservación del signo de $g'$, por lo tanto supondremos también $f'(x)f'(\alpha) \geq 0, \forall x\in I_\delta$. A partir del Teorema del Valor Medio: $$|x_{n+1} - \alpha| = |g(x_n) - g(\alpha)| = |g'(\xi_n)| |x_n - \alpha| \qquad , \xi_n \in (\min \{x_n, \alpha \} , \max \{x_n, \alpha \})$$ Para un $x_n \in I_\delta$, tenemos: $$|x_{n+1}- \alpha| < |x_n - \alpha| < \delta \Longrightarrow \boxed{x_{n+1} \in I_\delta}$$ Como hemos hecho en otras pruebas, denotando $K_\delta := \max_{x\in I_\delta} |g'(x)| <1$, se consigue inductivamente $|x_{n+1} -\alpha| \leq K_\delta ^{n+1} |x_0 - \alpha| \to 0, n\to +\infty$. Se requiere entonces la convergencia de la sucesión a $\alpha$. Para probar $(ii)$, basta con considerar el desarrollo de Taylor de orden $p$ de $g$ centrado en $x=\alpha$: $$g(x_n) = g(\alpha) + g'(\alpha)(x_n -\alpha) + \frac{g''(\alpha)}{2} (x_n - \alpha)^2 + \dotsb + \frac{g^{(p)}(\xi_n)}{p!}(x_n - \alpha)^p$$ , con $\xi_n \in (\min \{x_n, \alpha \}, \max \{x_n, \alpha \})$. Dada la hipótesis de nulidad en las derivadas previas a la $p$-ésima, y aplicando $g(x_n) =: x_{n+1}$ , $g(\alpha) = \alpha$: $$\frac{x_{n+1} - \alpha }{x_n - \alpha}= \frac{g^{(p)} (\xi_n)}{p!} \Longrightarrow \lim_{n\to +\infty} \frac{x_{n+1}- \alpha}{x_n - \alpha} = \frac{g^{(p)}(\alpha)}{p!}$$,  ya que $\lim_{n\to +\infty} \xi_n = \alpha \ \wedge \ g^{(p)}\in \mathcal{C}(\mathcal{I}(\alpha))$.

$\square$

A partir límite en $(ii)$ del teorema de convergencia local, se tiene la desigualdad: $$|x_{n+1} -\alpha| \leq G_\delta ^{(p)} |x_n - \alpha|^p \quad , \ \mathrm{con} \ G_\delta ^{(p)} := \frac{1}{p!} \max_{x\in \mathcal{I}(\alpha)} |g^{(p)} (x)|$$

Iré trabajando para ampliar esta sección e incluir el método de la bisección y el método de Newton-Raphson para ecuaciones en más de una variable.

Ejercicios planteados:

  1. Queremos buscar una solución no nula de $f(x) = 0$, siendo $f(x) = x^4-2x^2-2x^3+4x$. Considerando el intervalo inicial $[-2,-1]$, estimar el número de iteraciones por el método de la bisección a realizar para conseguir una aproximación con un error absoluto menor que $10^{-2}$. Factorizar el polinomio y comprobar tú mism@ que la raíz propuesta es bien aproximada. Solución.
  2. Se considera la ecuación: $x\cdot e^{x/e} -1=0$. Demostrar que tiene una única raíz $\alpha \in (0, 1)$ y que el método de Newton-Raphson converge cuadráticamente, para todo $x_0 \in [0, 1]$. Aplicar el método con $x_0 = 1/2$ para aproximar $\alpha$ con un error absoluto menor que $5\cdot 10^{-4}$. Operar con diez cifras y redondeo. Solución.
  3. Probar que la ecuación $x^2 + 2\cdot\ln(x) = 0$ admite una  única raíz en el intervalo $[1/2,1]$, y que el método de Newton-Raphson converge cuadráticamente para cada $x_0\in [1/2, 1]$. Tomando $x_0 = 1$, aplicar el método para aproximar la raíz $\alpha$ con tres cifras correctas. ¿Cuántas cifras significativas correctas se pueden asegurar de hecho en dicha aproximación?.
  4. Verificar que el método iterativo $x_{n+1} := e^{-x_n /e}, \forall n \geq 0$ converge a la raíz buscada en el ejercicio $2$, con independencia del $x_0\in [0,1]$ tomado. Describir la convergencia del método.
  5. Se tiene la ecuación $x+\sin (x/2) =1$. Proponer una iteración de punto fijo convergente. Indicar su orden convergencia y si esta es monótona u oscilante. Solución.

No hay comentarios: