Ejercicio Resuelto. Sean f,g funciones escalares tales que 0f(p)g(p) en un conjunto DRn. Si f admite una sucesión básica y la integral Dg es convergente, probar entonces que Df es también convergente.

La clave está en que f0 en D. Como tal, ya que admite una sucesión básica para la integración en D y la integral Dg es convergente: necesariamente f y g comparten sucesiones básicas (razonar por qué). En dicho supuesto, la integral Df existe por hipótesis y es independiente a la sucesión básica considerada. Tomando {Mn} común a ambas funciones, se tiene, por definición: Df=lim
Por tanto, la integral impropia de f converge en D.

Observar que es crucial exigir la existencia de sucesión básica para f en nuestras hipótesis. Como contraejemplo si lo obviamos, podemos considerar f:= \chi_{\mathbb{Q}} función característica de \mathbb{Q}; y g\equiv 2, teniendo que la integral \int_0 ^1 g = 2 existe y 0\leq f \leq g en [0,1]. Deduciríamos que \int_0 ^1 f existe lo cual es incierto, pues ni siquiera admite sucesión básica (\chi_{\mathbb{Q}} no es integrable sobre ningún compacto).

Comentarios