martes, 6 de febrero de 2024

The enticement of the Fourier Transform. A Comprehensive Overview, Foundations and Applications

Download this article here.

(Abstract) The Fourier Transform stands as a cornerstone in signal processing, offering profound insights into the frequency content of signals across various domains. This article provides a comprehensive overview of the Fourier Transform, focusing on its theoretical foundations and classical (formal) applications in the computation of integrals, series, and the solution of PDEs and IEs. Beginning with the fundamental concepts, we delve into the mathematical underpinnings of the Fourier Transform, elucidating its ability to bridge, for a given signal, it's time domain $f(t)$ with it's frequency domain $\hat{f}(s)$. Through illustrative examples and explanations, we aim to demystify the Fourier Transform, making it accessible to an extensive audience. Ultimately, this article serves as a valuable resource for students, researchers, and practitioners seeking to grasp the essence and utility of this transformative mathematical tool. Some miscellaneous but interesting applications are also commented at the end of this article (Sections 5.5, 5.6), followed by some special problems that could potentially help the reader to get acquainted with the displayed contents.

(Background knowledge is not provided in this web version)

Instead of announcing the definition of the Fourier transform in a direct manner, we may start with the different features we know so far in order to, somehow, introduce this chapter. As expected, the reference feature is the Fourier series representation. More specifically, the results involving point-wise convergence working with a function of minimal class ($C^1$ works perfectly, but this hypothesis can be weaken).

Let's get to work. Define some function $f:\mathbb{R} \to \mathbb{R}$, not necessarily periodical, and let $f_T : (-T,T] \to \mathbb{R}$ be presented as the signal via restriction $f_T := f|_{[-T,T)}$, for $T>0$. As commented before, if $f$ is a function of first class in the whole real line, we can provide the representation

$$f_T (t) = \sum_{k\in \mathbb{Z}} \left [ \frac{1}{2T} \int_{-T} ^T f(\xi) e^{-\frac{ik\pi \xi}{T}} \mathrm{d}\xi \right ] e^{\frac{ik\pi t}{T}}$$

valid for $-T<t\leq T$. For the notation ahead, we may rewrite this as

$$f_T (t) = \sum_{k\in \mathbb{Z}} \Delta_T \left [ \int_{-T} ^T f(\xi) e^{-2\pi i f_k \xi} \mathrm{d}\xi \right ] e^{2\pi i f_k t}$$

where $\Delta_T := (2T)^{-1}, f_k := k\Delta_T$. The $\Delta$ notation helps us identify the previous expression as a \textit{half} summation for some Riemann integral in $\mathbb{R}^2$ of the fully improper kind. Indeed, taking $T\to +\infty$ the restrained signal converges to the initial data $f$, which must have the expression

$$f(t) = \int_{-\infty}^{+\infty} \left [ \int_{-\infty} ^{+\infty} f(\xi) e^{-2\pi i s\xi} \mathrm{d}\xi \right ] e^{2\pi i st} \mathrm{d}s = \int_{\mathbb{R}^2} f(\xi) e^{2\pi i s (t-\xi)} \mathrm{d}A(\xi ,s) \quad (1)$$

for every $t\in \mathbb{R}$. The integral in brackets is what we are going to define as Fourier transform of $f$ at $x=s$. Also, the second expression for $f(t)$ in (1) is known as the Fourier integral Theorem, which will allow us to consider the Fourier transform as an isometric bijection under some assumptions. We will provide and prove all of these properties more rigorously in this section of the article, albeit not at the very moment.

Definition (Fourier Transform in $L^1$)

Let $f\in L^1 (\mathbb{R})$. As said, we define the (continuous) Fourier transform of $f$,  $\hat{f}: \mathbb{R} \to \mathbb{R}$ as $$\hat{f}(x) = \int_{-\infty} ^{+\infty} f(\xi) e^{-2\pi i x\xi} \mathrm{d}\xi \qquad (2)$$

In multiple cases we will denote the Fourier transform of $f$ as $\mathfrak{F}[f]$, specially when we express $f$ via some functional relation, such as convolutions or compositions, with other functions. We can rapidly make sense of the previous definition, since given any function $f\in L^1 (\mathbb{R})$ one is able to bound (2) directly by

$$\int_{-\infty} ^{+\infty} |f(\xi) e^{-2\pi i x\xi}| \mathrm{d}\xi = \int_{-\infty} ^{+\infty} |f(\xi)|\mathrm{d}\xi = \|f \|_1 < \infty$$

so the integral defining $\hat{f}$ converges absolutely and $\hat{f}$ is well defined in $\mathbb{R}$. Analogously to the case of the Fourier series expansion, in the Fourier transform two different components are pretty well distinguished.

If $f\in L^1(\mathbb{R})$ is an even function, we may notice

$$\begin{eqnarray}\hat{f}(x) & = & \int_{-\infty} ^0 + \int_0 ^{+\infty} f(\xi) e^{-2\pi i x\xi} \mathrm{d}\xi = \int_0 ^{+\infty} f(\xi) \left [e^{2\pi i x\xi} + e^{-2\pi i x\xi} \right ] \mathrm{d}\xi \nonumber \\ & = & \nonumber 2 \int_0 ^{+\infty} f(\xi) \cos (2\pi x\xi) \mathrm{d}\xi =: 2\mathfrak{F}_c [f](x) \end{eqnarray}$$

where the change of variables $-\xi \mapsto \xi'$ has been performed in the section $(-\infty,0]$.

To continue your reading, please download the full article here.

miércoles, 2 de marzo de 2022

Resolución numérica de ecuaciones no lineales en una variable

Descarga este artículo aquí.

En este post trabajaremos la resolución aproximada de ecuaciones del estilo $f(x)=0$, donde $f$ es una función a suponer continua, derivable, etc; en un entorno de la solución particular, según el método y contexto aplicado.

Comenzamos con un clásico del cálculo diferencial de una variable:

Método de la bisección

En este caso, es suficiente suponer la continuidad de $f$ en un intervalo cerrado particular, pues el método trascurre del Teorema de Bolzano:

(Teorema, Bolzano) Sea $f$ función continua en $[a,b]$ presentando un cambio de signo en los extremos del intervalo (esto es: $f(a)\cdot f(b)< 0$). Existe entonces un $c\in (a,b)$ tal que $f(c)=0$.

Pongamos $f$ función verificando las hipótesis del Teorema de Bolzano en un intervalo cerrado $[a,b]$. El método de la bisección genera dos sucesiones $\{ a_n \}, \{ b_n \} \subseteq [a,b]$ que diferencian el signo de la función $f$. En nuestro convenio, los valores considerados en $\{ a_n \}$ son aquellos cuya imagen por $f$ sea negativa. Caso contrario para $\{ b_n \}$. Suponiendo entonces (sin pérdida de generalidad) $f(a)<0$ y $f(b)>0$, comenzamos construyendo dichas sucesiones con los valores: $a_1 = a, b_1 =b$. Definimos ahora $c_1$ como el punto medio entre ambos: $c_1:= \frac{a_1 + b_1}{2}$, y estudiamos el signo de $f(c_1)$. Según sea positivo o no, modificamos el intervalo para asegurar la raíz adentro. La clave del método es que, en cada iteración, reduce a la mitad el intervalo inicial $[a,b]$. El nuevo intervalo a considerar vendrá ceñido por la siguiente correspondencia: \begin{equation} \label{eq:1} [a_{n+1}, b_{n+1}] = \begin{cases} [a_n, c_n] & , \mathrm{si} \ f(a_n) \cdot f(c_n) <0 \\ [c_n, b_n] & , \mathrm{si} \ f(a_n) \cdot f(c_n) >0 \end{cases} \end{equation} , donde $c_n := \frac{1}{2} (a_n + b_n)$. Habiendo definido de esta forma las sucesiones $\{a_n \}, \{b_n \}, \{c_n \}$, se arrojan los siguientes resultados acerca del método:

(Convergencia global del método de la bisección) Sea $f\in \mathcal{C}([a,b])$ verificando $f(a)\cdot f(b) <0$, y $\{ a_n \}, \{b_n \}, \{c_n \}$ sucesiones definidas a partir del convenio previo. Entonces, siendo $\alpha$ una raíz en el intervalo asegurada por el Th. Bolzano:
$$\lim_{n\to +\infty} a_n = \lim_{n\to +\infty} b_n = \lim_{n \to +\infty} c_n = \alpha$$
Además, se puede manejar el número de iteraciones a dar conociendo la cota del error:
$$|c_n - \alpha| \leq \frac{b - a}{2^n}, \ \forall n\geq 1$$

Demostración: La prueba se fundamenta de justificar la desigualdad final. Sabiendo que $\alpha \in [a_n, b_n], \forall n \geq 1$, y teniendo en cuenta que $c_n$ es punto medio del intervalo, trivialmente: $$|c_n - \alpha| \leq \frac{b_n - a_n}{2}  \overset{*}{=} \frac{b-a}{2^n}$$ , donde la última igualdad considera que los intervalos se reducen a la mitad en cada iteración realizada. $(ii)$ Tomando límite en la igualdad *, ya que $(b-a)/2^n \to 0, n\to +\infty$, se deduce: $$\displaystyle \lim_{n\to +\infty} (b_n -a_n) = 0 \equiv \lim_{n\to +\infty} a_n = \lim_{n\to +\infty} b_n$$ Además, ya que $c_n \in (a_n,b_n), \forall n\geq 1$, se da la igualdad de límites (Sandwich). Se deduce que las sucesiones convergen a $\alpha$ pues $|c_n - \alpha|$ es requerido a tender a cero cuando $n\to +\infty$.

$\square$

Método de Newton-Raphson

Dada la ecuación $f(x) =0$, siendo $\alpha$ una raíz simple de $f$, función continua y derivable en $I_\delta =(\alpha - \delta, \alpha + \delta)$, para algún $\delta >0$; y $x_0 \simeq \alpha$ una aproximación inicial de $\alpha$. Definimos a la iteración del método como procede:

$$x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)} \ \ , \forall n \geq 0$$

El origen de la iteración del método viene de aproximar $f$ por su desarrollo de Taylor de orden $1$. En concreto, se toma como referencia el desarrollo:

$$0= f(\alpha) = f(x_n + (\alpha - x_n)) = f(x_n) + f'(x_n) (\alpha - x_n) + \frac{f''(\xi _n)}{2} (\alpha - x_n)^2$$

, donde $\xi_n \in (\min \{\alpha , x_n \}, \max \{\alpha, x_n \})$. Despreciando el último sumando y despejando $\alpha$, se obtiene la aproximación: $\alpha \simeq x_n - \frac{f(x_n)}{f'(x_n)}$. Otro origen del método de Newton-Raphson, como interpretación geométrica dada, es $x_{n+1}$ como punto de corte con el eje $OX$ de la recta tangente a $f$ trazada por el punto de tangencia $(x,f(x_n))$:

El defecto de considerar esta iteración es la delicadeza que se puede introducir a la hora de conseguir la convergencia del método. Cuando esto se consigue, se alcanza una convergencia cuadrática a la raíz simple $\alpha$:

(Convergencia local del método de Newton-Raphson) Sea $f\in \mathcal{C}^2([a,b])$ y $\alpha \in (a,b)$ raíz simple de $f(x)=0$. Existe entonces un $\delta>0: |x_0 - \alpha|< \delta$ implica:
$$ (i) \ |x_n- \alpha|< \delta , \forall n \geq 0 $$ $$ (ii) \ |x_{n+1} - \alpha| \leq C_\delta |x_n - \alpha|^2, \forall n\geq 0 \quad ; \text{con } C_\delta := \frac{1}{2} \frac{\max_{|x-\alpha| \leq \delta} |f''(x)|}{\min_{|x-\alpha| \leq \delta} |f'(x)|}$$
$$(iii) \lim_{n\to +\infty} x_n = \alpha$$ $$(iv) \ \text{Si } x_n \neq \alpha, n\geq 0 \Longrightarrow \displaystyle \lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{(x_n - \alpha)^2} = \frac{f''(\alpha)}{2f'(\alpha)}$$

DemostraciónYa que $f'(\alpha) \neq 0 \wedge f' \in \mathcal{C}([a,b]) \Longrightarrow \exists \delta >0: f'(x) \neq 0 , \forall x\in I_\delta$, donde el intervalo $I_\delta := (\alpha - \delta, \alpha + \delta)$. Se deduce así $\min_{x\in I_\delta} |f'(x)| >0$. Nótese que: $$C_\delta := \frac{1}{2} \frac{\max_{|x-\alpha| \leq \delta} |f''(x)|}{\min_{|x-\alpha| \leq \delta} |f'(x)|} \longrightarrow \frac{1}{2} \left | \frac{f''(\alpha)}{f'(\alpha)} \right | \qquad , \delta \to 0$$ , dada la continuidad de $f',f''$. Consideramos ahora $\delta$ próximo a cero para conseguir $K_\delta := \delta C_\delta <1$ (se puede hacer dada la tendencia de $C_\delta$ a un valor constante). En dicho caso, partiendo de $x_0, x_n \in I_\delta$, para la aplicación del argumento inductivo sobre $n\in \mathbb{N}$, conseguimos: $$f(\alpha) = 0 \underset{\mathrm{Th. Taylor}}{\Longrightarrow} f(x_n)+ f'(x_n) (\alpha -x_n) + \frac{1}{2} f''(\xi_n) (\alpha - x_n)^2 = 0$$ , con $\xi_n \in (\min \{\alpha , x_n \}, \max \{\alpha, x_n \})$. Despejando los dos primeros sumandos de la igualdad y dividiendo todo por $f'(x_n)$, se llega a:

$$\begin{eqnarray}  & & \underset{x_{n+1}}{\underbrace{x_n -\frac{f(x_n)}{f'(x_n)}}} -\alpha = \frac{1}{2} \frac{f''(\xi_n)}{f'(x_n)} (\alpha - x_n)^2\Longrightarrow  \\ & \Longrightarrow  & |x_{n+1} -\alpha| = \frac{1}{2} \left |\frac{f''(\xi_n)}{f'(x_n)}(\alpha - x_n)^2 \right | \leq C_\delta (\alpha -x_n)^2 \end{eqnarray}$$

Hemos probado $(ii)$ de regalo. Además: $$|x_{n+1}- \alpha| \leq C_\delta (\alpha -x_n) (\alpha -x_n) <_{(3)} K_\delta |x_n - \alpha| < K_\delta \delta < \delta \Longrightarrow \boxed{x_{n+1} \in I_\delta}$$ , donde hemos usado $x\in I_\delta$ y $K_\delta <1$ tal y como hemos fijado. Para terminar, haciendo uso de la desigualdad $(3)$ de arriba: $$|x_{n+1} - \alpha| < K_\delta |x_n - \alpha| < K_\delta ^2 |x_{n-1} - \alpha| < ... < K_{\delta} ^{n+1} |x_0 - \alpha| \longrightarrow 0$$ , $n\to + \infty $; pues $K_\delta$ era menor que 1. Se deduce entonces que $\boxed{\lim x_n = \alpha}$. $(iv)$ queda también demostrado pues: $$\lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{(x_n - \alpha)^2} = \lim_{n\to +\infty} \frac{1}{2} \frac{f''(\xi_n)}{f'(x_n)} = \frac{1}{2} \frac{f''(\alpha)}{f'(\alpha)}$$, dada la continuidad de $f',f''$ y la convergencia de $\{ \xi_n \}, \{ x_n \}$ a la raíz.

$\square$

(Convergencia global del método de Newton-Raphson) Sea $f\in \mathcal{C}^2 ([a,b])$ verificando las condiciones: 
  1. $f(a) \cdot f(b) <0$. 
  2. $f'(x) \neq 0, \forall x\in [a,b]$. 
  3. $f''$ tiene signo constante en $[a,b].$ 
  4. $\displaystyle \max \left \{ \left | \frac{f(a)}{f'(a)} \right |, \left | \frac{f(b)}{f'(b)} \right | \right \} \leq b-a$. 
Ocurre entonces que $f(x) = 0$ tiene solución única en $(a,b)$, de forma que la iteración del método de Newton-Raphson converge a dicha solución, para cualquier $x_0 \in [a,b]$ inicial considerado. Además, se verifican también las propiedades $(ii), (iv)$ del Teorema de convergencia local.

Demostración: Pendiente

A la hora de aplicar el método de Newton-Raphson, nos puede interesar aproximar la raíz simple buscada sin superar un error establecido. Suponiendo en primer lugar $f$ función derivable en un $[a,b]$, y $m_1 := \min_{x\in [a,b]} |f'(x)|$, se verifica: $$|f(x_n)| = |f(x_n) - f(\alpha)| = |f'(\xi_n)| |x_n - \alpha| \geq m_1 |x_n - \alpha|$$ Se deduce así: $|x_n - \alpha| \leq_{(*)} \frac{|f(x_n)|}{m_1}, \forall n \geq 0$. Además, si $f$ es dos veces derivable en dicho $[a,b]$, denotando $M_2 := \max_{x\in [a,b]} |f''(x)|$, aplicando el Teorema de Taylor:

$$f(x_{n+1}) = \underset{=0 \text{(Def. método)}}{\underbrace{f(x_n) + f'(x_n) (x_{n+1}- x_n) }} + \frac{f''(\xi_n)}{2} (x_{n+1}-x_n)^2$$

, con $\xi_n$ entre $x_n, x_{n+1}$. Aplicando la expresión (*):

$$|x_{n+1}-\alpha| \leq \frac{|f(x_{n+1})|}{m_1} \leq \frac{M_2}{2m_1} |x_{n+1} -x_n|^2$$

Se procede a definir como tolerancia del paso $n$: $\mathrm{TOL}_n := |x_n - x_{n-1}|$ como un valor variante para cada iteración dada. De forma que el usuario puede definir una tolerancia de partida: $\mathrm{TOL}>0$ para aproximar $\alpha$ con un nivel de precisión deseado, buscando así el primer $n_0\in \mathbb{N}: \mathrm{TOL}_{n_0} \leq \mathrm{TOL}$, y dar como aproximación $x_{n_0}$ en un método genérico.


Método/Iteración del punto fijo

Consideramos una ecuación $f(x) = 0$ con raíz $\alpha$ y sea $g(x)$ otra función tal que $f(x) = 0 \Longleftrightarrow g(x)=x$, es decir: $\alpha$ es punto fijo de $g$. Bajo esta consideración, se define la iteración del punto fijo sobre $g$ (función de iteración), partiendo de un iterado inicial $x_0$ cercano a $\alpha$, con la recurrencia $x_{n+1} := g(x_n), \forall n\geq 0$.

En particular, si $\lim x_n = \alpha$ y $g$ es función continua, entonces $\alpha$ es un punto fijo de $g$, pues: $$\alpha = \lim_{n\to \infty} x_{n+1} = \lim_{n\to +\infty} g(x_n) = g \left ( \lim_{n\to +\infty} x_n \right ) = g(\alpha)$$

La interpretación geométrica de la iteración parte de los puntos de interseca de $y=g(x)$ con $y=x$ (puntos fijos de $g$). Tomando un $x_0$ inicial, una iteración consiste en trasladar la imagen de la previa a la recta $y=x$, para volver a aplicar $g$ sucesivamente. Dependiendo de las características de $f$ en $x_0$ y proximidades, el método será convergente o no.


Entra en juego el concepto de función contractiva:

Definición (Función contractiva)

Sea $g:A\subseteq \mathbb{R} \to \mathbb{R}$, con $A$ cerrado. Diremos que $g$ es contractiva si, y solo si: $\exists \kappa \in [0,1)$ verificando $|g(x)-g(y)| \leq \kappa |x-y|, \forall x,y\in A$.

Se prueba rápidamente que toda función contractiva en un cerrado, es uniformemente continua en el mismo, y por lo tanto: continua.

(Th. Punto Fijo de Banach) Sea $A$ cerrado y $g:A\to A$ función contractiva en $A$. Entonces $g$ tiene un único punto fijo en $A$ y la sucesión $x_{n+1} = g(x_n)$ $, \forall n\geq 0$ converge para cualquier $x_0\in A$ inicial considerado. Es más, siendo $\kappa$ la constante contractiva asociada: $$|x_{n+1} - \alpha| \leq \frac{\kappa}{1-\kappa} |x_n - x_{n-1}| \leq \frac{\kappa ^n}{1-\kappa} |x_1 -x_0| \qquad , \forall n\geq 0$$

DemostraciónEmpezamos viendo que la sucesión $\{ x_n \}$ es de Cauchy, y por lo tanto convergente. En efecto:

$$ \small \begin{eqnarray} |x_{n+h} - x_n| & = & |x_{n+h} -x_{n+h-1} +x_{n+h-1} + \dotsb + x_{n+1} - x_n| \leq \sum_{j=0}^{h-1} |x_{n+j+1}-x_{n+j}| = \nonumber \\ & = & \sum_{j=0}^{h-1} |g(x_{n+j}) - g(x_{n+j-1})| \leq \kappa \sum_{j=0}^{h-1} |x_{n+j}- x_{n+j-1}| \leq \left ( \sum_{j=0}^{h-1} \kappa^j \right )|x_{n+1}-x_n| < \nonumber \\ & < & \left ( \sum_{j\geq 0} \kappa ^j \right ) |x_{n+1}- x_n| =_{|\kappa |=\kappa <1} \frac{1}{1-\kappa} |x_{n+1} - x_n| \leq \frac{\kappa ^n}{1-\kappa} |x_1 -x_0| < \varepsilon \nonumber \\ & & , \mathrm{tomando} \ n \geq n_0 = \left \lfloor \log_\kappa \left ( \frac{\varepsilon (1-\kappa)}{|x_1 -x_0|} \right ) \right \rfloor +1 \nonumber \qquad , \forall n, h\in \mathbb{N} \end{eqnarray}$$

Concluimos entonces que $\{x_n \}$ es sucesión de Cauchy, y por lo tanto dada la completitud de $\mathbb{R}$: $\{ x_n \}$ convergente en $A\subseteq \mathbb{R}$ (importante que $A$ sea cerrado). Probamos antes que $\alpha = \lim x_n$ era punto fijo de $g$ bajo su continuidad como hipótesis, luego tenemos también justificada la existencia de punto fijo en $A$. Además, este es único pues dados dos $\alpha', \alpha''$ puntos fijos de $g$ en $A$: $$|\alpha'' - \alpha '| = |g(\alpha '') - g(\alpha ')| \leq K |\alpha '' - \alpha ' | \color{red} < \color{black} |\alpha '' - \alpha '| \qquad \color{red} {(\Rightarrow \Leftarrow)}$$ Para justificar las cotas de error proporcionadas, basta con tomar $h\to +\infty$ para obtener: $$|\alpha - x_{n}| \leq \frac{1}{1-\kappa} |x_{n+1} - x_n| \leq \frac{\kappa}{1-\kappa} |x_n - x_{n-1}| \leq \frac{\kappa ^n}{1-\kappa} |x_1 -x_0|$$

$\square$

Estamos ya listos para proporcionar los teoremas de convergencia global y local del método del punto fijo.

(Convergencia global del método del punto fijo) Sea $g\in \mathcal{C}^1 ([a,b])$ tal que $g([a,b])\subseteq [a,b]$ y $|g'(x)|\leq \kappa <1, \forall x\in [a,b]$. Entonces:
  1. $g$ tiene un único punto fijo en $[a,b]$.
  2. $x_{n+1} = g(x_n), n\geq 0$ converge a $\alpha$ punto de $g$, para cualquier $x_0 \in [a,b]$ considerado. Se siguen verificando las cotas del error del Teorema de Banach.
  3. Si $x_n \neq \alpha, n\geq 0$, entonces: $\displaystyle \lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{x_n - \alpha} = g'(\alpha)$.

DemostraciónAl tratarse de una función derivable cuya derivada es acotada por $\kappa$, se puede probar fácilmente, haciendo uso del Teorema del Valor Medio; que $g\in \mathrm{Lip}_\kappa([a,b])$. Ya que $\kappa <1$, la función es contractiva. El Teorema del Punto Fijo de Banach justifica $(i)$ y $(ii)$. Para probar $(iii)$, simplemente hay que tener en cuenta: $$x_{n+1} -\alpha = g(x_n) - g(\alpha) = g'(\xi_n) (x_n - \alpha) \qquad , \xi_n \in (\min \{x_n, \alpha \}, \max \{x_n, \alpha \} )$$ En concreto, ya que $\lim x_n = \alpha$, la continuidad en $g'$ permite establecer: $$\lim_{n\to +\infty} \frac{x_{n+1} - \alpha}{x_n - \alpha} = \lim_{n\to +\infty} g'(\xi_n) = g' \left ( \lim_{n\to +\infty} \xi _n \right ) = g'(\alpha)$$

$\square$

Además, si $|g'(\alpha)|>1$ y $x_n \neq \alpha, \forall n\geq 0$; la iteración es divergente. En efecto, si $g'\in \mathcal{C}([a,b])$, por hipótesis deberá existir un $\delta >0: |g'(x)|\geq \mathbf{K} = \mathbf{K}(\delta) >1 $ $, \forall x\in I_\delta $. En dicho caso, dado $\nu \in \mathbb{N}: x_{\nu} \neq \alpha$ conseguimos: $$|x_{\nu +h} -\alpha| = |g(x_{\nu +h-1}) - g(\alpha)| = |g'(\xi)| |x_{\nu +h-1} - \alpha| \geq \mathbf{K} |x_{\nu +h-1} - \alpha |$$ Aplicando el proceso reiteradamente $h$ veces, llegamos a $|x_{\nu +h} -\alpha| \geq \mathbf{K}^h |x_\nu - \alpha| , \forall h\in \mathbb{N}$. Ya que $\mathbf{K} >1$, existe $\varepsilon = |x_\nu -\alpha| >0$ tal que $|x_n - \alpha| \geq \varepsilon, \forall n\geq \nu$. Esto implica $\lim_{n\to +\infty} x_n \neq \alpha$. Además, para cualquier $\varepsilon'>0$ fijado, podemos encontrar $\nu ' = \nu ' (h)$ tal que $|x_n - \alpha|\geq \varepsilon, \forall n\geq \nu'$ (Propiedad arquimediana). Luego $\{ x_n \}$ es sucesión divergente.

(Convergencia local del método del punto fijo) Sea $g$ función de clase $C^1$ en un entorno $\mathcal{I}(\alpha)$ de $\alpha$ punto fijo de $g$, tal que $|g'(\alpha)| <1$. Encontramos entonces $\delta >0: |x_0 -\alpha| < \delta$ implica:
  1. $|x_n - \alpha| < \delta, \forall n\geq 0$; además de $\lim_{n\to +\infty} x_n = \alpha$. En particular, si $g'$ es positiva en el entorno trabajado, la convergencia es monótona (no hay saltos de izquierda/derecha respecto de $\alpha$), y si $g'$ es negativa, la convergencia es oscilante.
  2. Si $g\in C^p$ en $\mathcal{I}(\alpha)$ tal que $\alpha$ es cero excepcional de orden $p$ de $g$: $$g'(\alpha) = \dotsb = g^{(p-1)}(\alpha) =0 \ \wedge \ g^{(p)}(\alpha) \neq 0$$ , entonces la convergencia del método del punto fijo es de orden $p$, verificando: $$\lim_{n\to +\infty} \frac{x_{n+1}-\alpha}{(x_n -\alpha)^p} = \frac{g^{(p)}(\alpha)}{p!}$$

DemostraciónSea $\delta>0: |g'(x)|<1, \forall x\in I_\delta := (\alpha - \delta, \alpha + \delta)$. La continuidad permite suponer también la conservación del signo de $g'$, por lo tanto supondremos también $f'(x)f'(\alpha) \geq 0, \forall x\in I_\delta$. A partir del Teorema del Valor Medio: $$|x_{n+1} - \alpha| = |g(x_n) - g(\alpha)| = |g'(\xi_n)| |x_n - \alpha| \qquad , \xi_n \in (\min \{x_n, \alpha \} , \max \{x_n, \alpha \})$$ Para un $x_n \in I_\delta$, tenemos: $$|x_{n+1}- \alpha| < |x_n - \alpha| < \delta \Longrightarrow \boxed{x_{n+1} \in I_\delta}$$ Como hemos hecho en otras pruebas, denotando $K_\delta := \max_{x\in I_\delta} |g'(x)| <1$, se consigue inductivamente $|x_{n+1} -\alpha| \leq K_\delta ^{n+1} |x_0 - \alpha| \to 0, n\to +\infty$. Se requiere entonces la convergencia de la sucesión a $\alpha$. Para probar $(ii)$, basta con considerar el desarrollo de Taylor de orden $p$ de $g$ centrado en $x=\alpha$: $$g(x_n) = g(\alpha) + g'(\alpha)(x_n -\alpha) + \frac{g''(\alpha)}{2} (x_n - \alpha)^2 + \dotsb + \frac{g^{(p)}(\xi_n)}{p!}(x_n - \alpha)^p$$ , con $\xi_n \in (\min \{x_n, \alpha \}, \max \{x_n, \alpha \})$. Dada la hipótesis de nulidad en las derivadas previas a la $p$-ésima, y aplicando $g(x_n) =: x_{n+1}$ , $g(\alpha) = \alpha$: $$\frac{x_{n+1} - \alpha }{x_n - \alpha}= \frac{g^{(p)} (\xi_n)}{p!} \Longrightarrow \lim_{n\to +\infty} \frac{x_{n+1}- \alpha}{x_n - \alpha} = \frac{g^{(p)}(\alpha)}{p!}$$,  ya que $\lim_{n\to +\infty} \xi_n = \alpha \ \wedge \ g^{(p)}\in \mathcal{C}(\mathcal{I}(\alpha))$.

$\square$

A partir límite en $(ii)$ del teorema de convergencia local, se tiene la desigualdad: $$|x_{n+1} -\alpha| \leq G_\delta ^{(p)} |x_n - \alpha|^p \quad , \ \mathrm{con} \ G_\delta ^{(p)} := \frac{1}{p!} \max_{x\in \mathcal{I}(\alpha)} |g^{(p)} (x)|$$

Iré trabajando para ampliar esta sección e incluir el método de la bisección y el método de Newton-Raphson para ecuaciones en más de una variable.

Ejercicios planteados:

  1. Queremos buscar una solución no nula de $f(x) = 0$, siendo $f(x) = x^4-2x^2-2x^3+4x$. Considerando el intervalo inicial $[-2,-1]$, estimar el número de iteraciones por el método de la bisección a realizar para conseguir una aproximación con un error absoluto menor que $10^{-2}$. Factorizar el polinomio y comprobar tú mism@ que la raíz propuesta es bien aproximada. Solución.
  2. Se considera la ecuación: $x\cdot e^{x/e} -1=0$. Demostrar que tiene una única raíz $\alpha \in (0, 1)$ y que el método de Newton-Raphson converge cuadráticamente, para todo $x_0 \in [0, 1]$. Aplicar el método con $x_0 = 1/2$ para aproximar $\alpha$ con un error absoluto menor que $5\cdot 10^{-4}$. Operar con diez cifras y redondeo. Solución.
  3. Probar que la ecuación $x^2 + 2\cdot\ln(x) = 0$ admite una  única raíz en el intervalo $[1/2,1]$, y que el método de Newton-Raphson converge cuadráticamente para cada $x_0\in [1/2, 1]$. Tomando $x_0 = 1$, aplicar el método para aproximar la raíz $\alpha$ con tres cifras correctas. ¿Cuántas cifras significativas correctas se pueden asegurar de hecho en dicha aproximación?.
  4. Verificar que el método iterativo $x_{n+1} := e^{-x_n /e}, \forall n \geq 0$ converge a la raíz buscada en el ejercicio $2$, con independencia del $x_0\in [0,1]$ tomado. Describir la convergencia del método.
  5. Se tiene la ecuación $x+\sin (x/2) =1$. Proponer una iteración de punto fijo convergente. Indicar su orden convergencia y si esta es monótona u oscilante. Solución.