M茅todo de la bisecci贸n

El Teorema de Bolzano sobre la continuidad de funciones introduce uno de los m茅todos m谩s reconocidos y cl谩sicos para buscar soluci贸n a cualquier ecuaci贸n del tipo $f(x)=0$, siendo $f$ una funci贸n continua en un conjunto donde sabemos que hay soluci贸n. Indaguemos en la idea del m茅todo de la bisecci贸n.

De nuevo, supongamos $f\in \mathcal{C}(D)$, con $D\subseteq \mathbb{R}$ subconjunto conexo no vac铆o. Si encontramos $a,b \in D: a<b \wedge f(a)\cdot f(b)<0$, el Teorema de Bolzano confirma la existencia de un $c_0 \in (a,b)$ tal que $f(c_0)=0$. Tomamos ahora el punto medio $c_1 = \frac{a+b}{2}$ como aproximaci贸n de la soluci贸n, de forma que el error cometido es acotable: $|E_1| < \frac{b-a}{2}$.

Dividimos ahora el intervalo $[a,b]$ en dos partes iguales: $[a,c_1], [c_1,b]$. Si $f(c_1)=0$, ya tenemos la soluci贸n que busc谩bamos y el problema acaba aqu铆. En caso contrario, en funci贸n del signo de $f(c_1)$, tendremos soluci贸n asegurada en uno de los dos intervalos. Pongamos que $f(c_1)\cdot f(b) <0$. Ya que $f\in \mathcal{C}([c_1, b])$, el Teorema de Bolzano vuelve a garantizar la existencia de una ra铆z en dicho intervalo. Pongamos ahora $c_2 = \frac{c_1 +b}{2}$ como aproximaci贸n de la soluci贸n, de forma que el error cometido en este caso es $|E_2| < \frac{b-a}{4}$ (en total hemos partido el intervalo $[a,b]$ en cuatro partes iguales y hemos tomado una)

Pues esta es la idea fundamental del m茅todo de la bisecci贸n para la b煤squeda de soluciones a ecuaciones que involucran funciones continuas. Los $c_1,c_2,...$ son las aproximaciones que vamos obteniendo, de forma que si queremos aproximar con una precisi贸n dada, basta con manejar un $n\geq n_0$ tal que $|E_{n_0}|<\frac{b-a}{2^{n_0}}$ es tan chico como se requiera, siendo $[a,b]$ un intervalo con soluci贸n.

Formalmente, podemos introducir el algoritmo del m茅todo como procede:

(M茅todo de la bisecci贸n) Se considera la ecuaci贸n $f(x)=0$, con $f \in \mathcal{C}([a,b]): f(a)<0, f(b)>0$. Consideradas las sucesiones definidas por recurrencia:
$$a_1=a \quad , a_n = \begin{cases} a_{n-1} & , f \left ( \frac{1}{2} \left (a_{n-1} + b_{n-1} \right ) \right )>0 \\ \frac{1}{2}(a_{n-1} + b_{n-1}) & , f \left ( \frac{1}{2}(a_{n-1}+b_{n-1}) \right )<0 \end{cases} \ , \forall n \geq 2$$
$$b_1=b \quad , b_n = \begin{cases} b_{n-1} & , f \left ( \frac{1}{2} \left (a_{n-1} + b_{n-1} \right ) \right )<0 \\ \frac{1}{2}(a_{n-1} + b_{n-1}) & , f \left ( \frac{1}{2}(a_{n-1}+b_{n-1}) \right )>0 \end{cases} \ , \forall n \geq 2$$
, la sucesi贸n $\left \{ \frac{a_n + b_n}{2} \right \}$ converge a un $\alpha \in (a,b): f(\alpha) =0$. A su vez, el error producido por cada una de las iteraciones de la sucesi贸n se puede controlar a partir de la expresi贸n:
$$\left | \frac{a_n + b_n}{2} -\alpha \right | < \frac{b-a}{2^n}$$

Adem谩s, las sucesiones $\{a_n \}, \{b_n \}$ tienen la peculiaridad de ser mon贸tonas (creciente y decreciente, respectivamente) y acotadas. Es por ello que son convergentes. Pero no solo eso, sino que tienen mismo l铆mite, pues $\mathrm{d}(a_n, b_n) < \frac{b-a}{2^n} \to 0, n\to +\infty$. Se deduce: $\lim a_n = \lim b_n = \alpha: f(\alpha)=0$.


Ejercicios:

  1. Encontrar una soluci贸n con tres d铆gitos exactos a la ecuaci贸n: $$\cos(x)+x=2$$ Ver soluci贸n.
  2. Aproximar una soluci贸n a la ecuaci贸n $\ln x = e^{-x}-1$ con un error menor que $0.01$. Ver soluci贸n.

Comentarios