Ejercicio Resuelto. Sean f,g funciones escalares tales que 0≤f(p)≤g(p) en un conjunto D⊆Rn. Si f admite una sucesión básica y la integral ∫Dg es convergente, probar entonces que ∫Df es también convergente.
La clave está en que f≥0 en D. Como tal, ya que admite una sucesión básica para la integración en D y la integral ∫Dg es convergente: necesariamente f y g comparten sucesiones básicas (razonar por qué). En dicho supuesto, la integral ∫Df existe por hipótesis y es independiente a la sucesión básica considerada. Tomando {Mn} común a ambas funciones, se tiene, por definición: ∫Df=lim
Por tanto, la integral impropia de f converge en D.
Observar que es crucial exigir la existencia de sucesión básica para f en nuestras hipótesis. Como contraejemplo si lo obviamos, podemos considerar f:= \chi_{\mathbb{Q}} función característica de \mathbb{Q}; y g\equiv 2, teniendo que la integral \int_0 ^1 g = 2 existe y 0\leq f \leq g en [0,1]. Deduciríamos que \int_0 ^1 f existe lo cual es incierto, pues ni siquiera admite sucesión básica (\chi_{\mathbb{Q}} no es integrable sobre ningún compacto).
Comentarios