Ejercicio Resuelto. Sean $f,g$ funciones escalares tales que $0≤f(p)≤g(p)$ en un conjunto $D\subseteq \mathbb{R}^n$. Si $f$ admite una sucesión básica y la integral $\int_D g$ es convergente, probar entonces que $\int_D f$ es también convergente.

La clave está en que $f\geq 0$ en $D$. Como tal, ya que admite una sucesión básica para la integración en $D$ y la integral $\int_D g$ es convergente: necesariamente $f$ y $g$ comparten sucesiones básicas (razonar por qué). En dicho supuesto, la integral $\int_D f$ existe por hipótesis y es independiente a la sucesión básica considerada. Tomando $\{M_n\}$ común a ambas funciones, se tiene, por definición: $$\int_D f = \lim_{n\to +\infty} \int_{M_n} f \leq \lim_{n\to +\infty} \int_{M_n} g = \int_D g < \infty$$
Por tanto, la integral impropia de $f$ converge en $D$.

Observar que es crucial exigir la existencia de sucesión básica para $f$ en nuestras hipótesis. Como contraejemplo si lo obviamos, podemos considerar $f:= \chi_{\mathbb{Q}}$ función característica de $\mathbb{Q}$; y $g\equiv 2$, teniendo que la integral $\int_0 ^1 g = 2$ existe y $0\leq f \leq g$ en $[0,1]$. Deduciríamos que $\int_0 ^1 f$ existe lo cual es incierto, pues ni siquiera admite sucesión básica ($\chi_{\mathbb{Q}}$ no es integrable sobre ningún compacto).

Comentarios