Está en la página 1de 5

EJERCICIO

Sea ($V$,$|| \thinspace \cdot \thinspace||$)un espacio normado sobre los números
complejos y toma la
norma producto para considerar espacios normados a $V \times V$ y $\mathbb{C} \times
V$.

\textbf{a)} Demuestra que $T:V \times V \rightarrow V$ es continua cuando se define

\[ T(v_{1},v_{2})=v_{1}+v_{2} \]

\textbf{b)} Para un espacio normado sobre los complejos, muestra que $T:\mathbb{C} \times
V \rightarrow V$ es continua
cuando se define

\[ T(c,v)=cv \]

\newpage

\begin{proof}

\textbf{a)} Veamos que $T$ es continua en $V \times V$:

Dado $\epsilon>0$, encontramos $\delta=\frac{\epsilon}{2}>0$ tal que si $\left\|(x_{1},y_{1})-


(x_{2},y_{2}) \right\|_{\pi}<\delta$ entonces

\begin{equation*} \label{eq3}
\begin{split}
|| \thinspace T(x_{1},y_{1})-T(x_{2},y_{2}) \thinspace|| & = || \thinspace x_{1}+y_{1}-
(x_{2}+y_{2}) \thinspace|| \\
& = || \thinspace x_{1}-x_{2}+y_{1}-y_{2} \thinspace|| \\
& \leq || \thinspace x_{1}-x_{2} \thinspace|| + || \thinspace y_{1}-y_{2} \thinspace|| \\
& \leq \mbox{máx}\{ || \thinspace x_{1}-x_{2} \thinspace||,|| \thinspace y_{1}-y_{2} \
thinspace||\} + \mbox{máx}\{ || \thinspace x_{1}-x_{2} \thinspace||,|| \thinspace y_{1}-y_{2} \
thinspace||\} \\
& < \frac{\epsilon}{2} + \frac{\epsilon}{2} \\
& = \epsilon
\end{split}
\end{equation*}

La última desigualdad se debe a que

\[ \mbox{máx}\{ || \thinspace x_{1}-x_{2} \thinspace||,|| \thinspace y_{1}-y_{2} \thinspace||\}


= \left\|(x_{1},y_{1})-(x_{2},y_{2}) \right\|_{\pi} < \delta = \frac{\epsilon}{2} \]

Y al ser $(x_{2},y_{2}) \in V \times V $ un vector arbitrario se sigue que $T$ es continua en
$V \times V $.
\textbf{b)}
\begin{itemize}

\item Primero veamos que $T$ es continua en $(c_{0},v_{0}) \in \mathbb{C} \times V $ con
$v_{0} \neq 0$:

Sea $k=|c_{0}|+1$. Para cualquier $\epsilon>0$, sea

\[ \delta = \mbox{min}\left\{1,\frac{\epsilon}{2|| \thinspace v_{0} \thinspace||},k,\frac{\epsilon}


{2k}\right\} \]

De modo que, si $\left\|(c,v)-(c_{0},v_{0}) \right\|_{\pi}<\delta$ entonces

\[ \mbox{máx}\{ |c-c_{0}|,|| \thinspace v-v_{0} \thinspace||\} < \delta\]

De aquí, observe que

\[ |c-c_{0}|< \delta \leq \frac{\epsilon}{2|| \thinspace v_{0} \thinspace||} \]

\[ || \thinspace v-v_{0} \thinspace||<\delta \leq \frac{\epsilon}{2k} \]

También, note que $|c-c_{0}|<1$ entonces $|c|-|c_{0}| \leq |c-c_{0}| < 1$ y a su vez esto
implica que $|c|<1+|c_{0}|=k$.

\newpage
Por tanto,

\begin{equation*} \label{eq4}
\begin{split}
|| \thinspace T(c,v)-T(c_{0},v_{0}) \thinspace|| & = || \thinspace cv-c_{0}v_{0} \thinspace|| \\
& = || \thinspace cv-cv_{0}+cv_{0}-c_{0}v_{0}
\thinspace|| \\
& \leq |c||| \thinspace v-v_{0} \thinspace|| + |c-c_{0}||| \thinspace v_{0} \thinspace|| \\
& < k \frac{\epsilon}{2k} + \frac{\epsilon}{2|| \thinspace v_{0} \thinspace||} || \thinspace v_{0}
\thinspace|| \\
& = \frac{\epsilon}{2} + \frac{\epsilon}{2} \\
& = \epsilon
\end{split}
\end{equation*}

\item Por último, veamos que $T$ es continua en $(c_{0},0) \in \mathbb{C} \times V $:

Dado $\epsilon > 0$, encontramos $\delta = \mbox{min}\left\{1,\frac{\epsilon}{1+|c_{0}|}\


right\}$ tal que si $\left\|(c,v)-(c_{0},0) \right\|_{\pi}<\delta$ entonces

\begin{equation*} \label{eq5}
\begin{split}
|| \thinspace T(c,v)-T(c_{0},0) \thinspace|| & = || \thinspace cv \thinspace|| \\
& = |c| || \thinspace v \thinspace|| \\
& < (1+|c_{0}|)\frac{\epsilon}{1+|c_{0}|} \\
& = \epsilon
\end{split}
\end{equation*}

Lo anterior se debe a que

\[ \mbox{máx}\{|c-c_{0}|,|| \thinspace v \thinspace||\}=\left\|(c,v)-(c_{0},0) \right\|_{\pi}<\


delta \]

Lo cual implica que

\[ || \thinspace v \thinspace|| < \delta \leq \frac{\epsilon}{1+|c_{0}|} \]

y también

\[ |c|-|c_{0}| \leq |c-c_{0}| < \delta \leq 1 \]

\end{itemize}

Con todo lo anterior, podemos concluir que $T$ es continua en $\mathbb{C} \times V$.
\end{proof}

EJERCICIO
\textbf{Ejercicio 4.} Considera las sucesiones de funciones en $\mathcal{C}[0,1]$ dadas por
$f_{n}(t)=t^{n}/n$ y $g_{n}(t)=t^{n}/n!$.\\
\textbf{a)} Determina si las series asociadas a las sucesiones $\{f_{n}\}_{n\in \mathbb{Z^{+}}}
$ y $\{g_{n}\}_{n\in \mathbb{Z^{+}}}$ son convergentes en $\mathcal{C}[0,1]$ bajo la norma
$\norm{\cdot}_{1}$.\\
\begin{proof}
\textbf{a)}
Primero veamos la serie definida por la sucesión $ \left\{ f_{n} \right\}_{n \in \
mathbb{Z^{+}}}$, la cual denotaremos como
\[ y= \left\{ \sum_{n=1}^{k}f_{n} \right\}_{k \in \mathbb{Z^{+}}} \]
Afimamos que dicha serie es convergente.
Para ver esto primero demostraremos que la serie definida por la sucesión $x'= \left\{\left\|
f_{n} \right\|_{1} \right\}_{n\in\mathbb{Z}^{+}}$ es convergente, eso significará que la serie
$y$ es absolutamente convergente, y al ser $C[ 0,1] $ un espacio de Banach se seguirá que
$y$ es convergente.\\

Comencemos, la serie definida por $x'$ es


\[ y'= \left\{ \sum_{n=1}^{k} \left\| f_{n}\right\|_{1} \right\}_{k \in \mathbb{Z^{+}}} \]
Note que
\[ \sum_{n=1}^{k}\left\| f_{n}\right\|_{1}= \sum_{n=1}^{k}\left ( \int_{0}^{1} \left| f_{n}(t)\right|
dt\right ) \]
\[ = \sum_{n=1}^{k}\left ( \int_{0}^{1} \frac{t^{n}}{n} dt\right ) \]
\[ = \sum_{n=1}^{k}\left ( \frac{1}{n(n+1)} \right ) \]
\[ = \sum_{n=1}^{k}\left ( \frac{1}{n} - \frac{1}{n+1} \right )\]
\[ =1- \frac{1}{k+1} = \frac{k}{k+1} \]
\newpage
Así, observemos que $y^{'} $ converge a 1. En efecto, dado $\epsilon>0$, existe
$N_{e}= \frac{1}{\epsilon}>0$ tal que si $k>N_{\epsilon}$ implica que

\[ \left| \frac{1}{k+1} -1\right|= \left|\frac{1}{k+1} \right|=\frac{1}{k+1}< \frac{1}{k}< \epsilon \]


De modo que por lo comentado al inicio, se sigue que $y$ es convergente en $C[0,1]$
bajo la norma $\left\| \cdot \right\|_{1}$. \\
Ahora veamos la serie definida por la sucesión $\left\{ g_{n} \right\}_{n\in\mathbb{Z^{+}}}
$.\\
Se seguirá el mismo razonamiento que con la serie anterior.\\
Sea
\[ y= \left\{ \sum_{n=1}^{j}g_{n} \right\}_{j\in\mathbb{Z^{+}}} \]
\[ y'= \left\{ \sum_{n=1}^{j}\left\| g_{n}\right\|_{1} \right\}_{j\in\mathbb{Z^{+}}} \]

Observe que
\[ \left| \sum_{n=1}^{j} \left\| g_{n}\right\|_{1} -1 \right|= \left| \sum_{n=1}^{j} \frac{1}{(n+1)!}-1\
right| \]

pues

\begin{equation*} \label{eq50}
\begin{split}
\sum_{n=1}^{j}\left\| g_{n}\right\|_{1} & = \sum_{n=1}^{j} \left ( \int_{0}^{1} \left| g_{n}(t)\right|
dt \right ) \\
& = \sum_{n=1}^{j} \left ( \int_{0}^{1} \frac{t^{n}}{n!} dt\right ) \\
& = \sum_{n=1}^{j} \frac{1}{(n+1)n!} \\
& = \sum_{n=1}^{j} \frac{1}{(n+1)!}
\end{split}
\end{equation*}

Por otro lado

\[ \sum_{n=1}^{j} \frac{1}{(n+1)!} \leq \sum_{n=1}^{j}\frac{1}{2^{n}}= 1- \frac{1}{2^{j}}<1 \]


%\begin{center}
Ya que $k! \geq 2 ^{k-1} \mbox{ para todo } k\in\mathbb{Z^{+}} $.
%\end{center}

Por tanto
\[ \left| \sum_{n=1}^{j} \frac{1}{(n+1)!}-1\right| = 1- \sum_{n=1}^{j} \frac{1}{(n+1)!} \]
\[ \leq 1 - \sum_{n=1}^{j} \frac{1}{2^{n}}= 1- (1-\frac{1}{2^{j}})= \frac{1}{2^{j}} \]
Así, para cualquier $\epsilon>0$, existe $M_{\epsilon }= \frac{ln(\frac{1}{\epsilon })}{ln(2)} $
tal que si $j>M_{\epsilon}$ entonces
\[ \left| \sum_{n=1}^{j}\left\| g_{n}\right\|_{1} -1 \right|= \frac{1}{2^{j}}<\epsilon \]
Lo cual garantiza que la serie $y'$ converge, y por tanto, $y$ es convergente en $C[0,1]$
bajo la norma $\left\|\cdot \right\|_{1}$
\begin{proof}

También podría gustarte