Está en la página 1de 18

UNIVERSIDAD DE CARTAGENA CREAD MAGANGUÉ

TRABAJO COLABORATIVO DE INVESTIGACIÓN DE CAMPO

PROGRAMA: INGENIERÍA DE SOFTWARE ASIGNATURA: ALGEBRA LINEAL


SEMESTRE:2° PERIODO: II DE 2021 TUTOR: GERMÁN VIBANCO CASTRO

Investigue un tema relacionado con la ingeniería de software en donde aplique los conceptos del álgebra
lineal. Por ejemplo:
 Cálculo de intensidades en diferentes circuitos.
 Con la teoría de matrices y determinante se darán elementos para la ingeniería de software,
computación gráfica y robótica.
 Solucionar mallas con resistencias Eléctricas y redes nodos eléctricos.
 Uno de los buscadores más utilizados, es el Google. Está basado fundamentalmente en Álgebra
Lineal y por supuesto contiene también cuestiones probabilísticas.
 Teoría de la Información. Teoría de Códigos.
 O el que usted considere.

TRABAJO ESCRITO (VALOR 10%) SUSTENTACIÓN (VALOR 10%)


El trabajo debe ser presentado de manera VIRTUAL con todas las normas de presentación y debe ser subido
a la plataforma en el link indicado.
En los anexos se deben colocar copias de los instrumentos o modelos que se utilizaron para recoger la
información. Sin los anexos el trabajo no tiene validez.
Para la sustentación deben hacer uso de las herramientas tecnológicas necesarias para la buena
presentación del trabajo, las cuales deben solicitar con anticipación. Quien no presente el trabajo escrito no
puede sustentar. Cada estudiante debe hacer su aporte en la sustentación.

FECHA DE ENTREGA: ENERO 28 DE 2022 FECHA DE SUSTENTACIÓN: ENERO 29 DE 2022.

INFORME FINAL DE LA INVESTIGACIÓN

El informe final de la investigación debe contener los siguientes ítems.

1. El tema de investigación------
2. Planteamiento o formulación del problema de investigación
3. Marco de referencia del problema
Incluye los antecedentes del problema, el marco conceptual, el marco teórico, definiciones de
conceptos.
4. Formulación de objetivos
5. Justificación de la investigación
6. Diseño metodológico
7. Análisis e interpretación de los datos
8. Cronograma de trabajo
9. Conclusiones y recomendaciones
10. Bibliografía
11. Anexos
1. El tema de investigación

Teoría de la Información. Teoría de Códigos

2. Planteamiento o formulación del problema

OBJETIVOS

 Comprender los principios básicos de la codificación y de la teoría de la información.


 Conocer los fundamentos matemáticos de la codificación orientada a la corrección de
errores.
 Tener criterios para valorar y comparar distintos métodos de codificación en función de
los problemas a resolver, el coste operativo y la presencia de errores.
 Comprender y saber usar la noción de sistema criptográfico.
 Asimilar las bases de los criptosistemas de clave privada y de clave pública.
 Tener criterios para valorar y comparar distintos métodos criptográficos en la
implementación de los sistemas y protocolos
POSIBLES OBJETIVOS

El principal objetivo de esta teoría es el de proporcionar una definición rigurosa de la noción de


información que permita cuantificarla. Fue desarrollada con el objetivo de encontrar límites
fundamentales en las operaciones de procesamiento de señales tales como compresión de datos,
almacenamiento y comunicación. Sus aplicaciones se extienden a campos diversos, entre ellos la
física, la química, la biología, la inferencia estadística, la robótica, la criptografía, la computación, la
lingüística, el reconocimiento de patrones y la teoría de la comunicación.

METODOLOGÍAS

Esta materia se desarrollará coordinadamente con las otras materias del módulo formativo. Se
expondrá el contenido teórico de los temas a través de clases presenciales que darán paso a clases
prácticas de resolución de problemas, en las que se aplicarán las definiciones, propiedades y
teoremas expuestos en las clases teóricas. Parte de las clases prácticas tendrán lugar en el aula de
informática.

Partiendo de esas clases teóricas y prácticas los profesores propondrán a los estudiantes la
realización de trabajos personales sobre teoría y problemas, para cuya realización tendrán el
apoyo del profesor.

Para alcanzar las competencias previstas, los estudiantes tendrán que desarrollar por su parte un
trabajo personal de estudio y asimilación de la teoría, resolución de problemas y preparación de
los trabajos. Bajo criterio del profesor, dichos trabajos podrán ser comentados en tutorías y/o
expuestos en público. Además, se realizarán pruebas presenciales de poco peso en la nota final
con el objeto de motivar al estudiante y de proporcionarle información sobre su rendimiento.
Descripción

Los conceptos principales de la teoría de información pueden ser agarrados considerando los
medios más extensos de la comunicación humana: lengua. Dos aspectos importantes de una
buena lengua son como sigue: Primero, las palabras más comunes (e.g., “a”, “”, “I”) deben ser más
cortas que las palabras menos comunes (e.g., “ventaja”, “generación”, “mediocre”), de modo que
las oraciones no sean demasiado largas. Tal compensación en largo de una palabra es análoga
a compresión de datos y es el aspecto esencial de codificación de fuente. En segundo lugar, si la
parte de una oración es unheard o misheard debido al ruido - - e.g., un coche que pasa - - el
oyente debe todavía poder espigar el significado del mensaje subyacente. Tal robustez es tan
esencial para un sistema de comunicación electrónica como está para una lengua; correctamente
la construcción de tal robustez en comunicaciones se hace cerca codificación del canal. La
codificación de fuente y la codificación del canal son las preocupaciones fundamentales de la
teoría de información.

Observe que estas preocupaciones no tienen nada hacer con importancia de mensajes. Por
ejemplo, un tópico por ejemplo “le agradece; alrededor tan de largo otra vez venidas las “tomas a
decir o a escribir como la súplica urgente, ¡“llaman una ambulancia!” mientras que el último es
claramente más importante y más significativo. La teoría de información, sin embargo, no
considera importancia o el significado del mensaje, como éstas son materias de la calidad de datos
más bien que la cantidad y de la legibilidad de datos, el último de cuál es determinado solamente
por probabilidades.
INTRODUCCION

En el presente trabajo se realiza el análisis de una teoría donde han surgido nuevas aplicaciones
para las matemáticas, denominada Teoría de Códigos. El fin de dicha teoría es la búsqueda de
métodos confiables en la transmisión de información, en el sentido en que, si un mensaje enviado
se altera durante la transmisión, el receptor sea capaz de recuperar el mensaje original. A pesar de
que son varias las ramas de las matemáticas que han aportado a esta teoría, el presente estudio se
centra en los aportes hechos tanto por el Álgebra Lineal como por el Álgebra Abstracta. En este
estudio se analizan de manera detallada los conceptos fundamentales de la Teoría de Códigos y se
presentan algunos de los resultados más relevantes, con el fin de identificar los conceptos
matemáticos subyacentes. También se presentan ejemplos para aclarar los conceptos estudiados,
algunos de ellos mediante el uso de funciones del programa GAP.
INTRODUCCIÓN
Bueno para empezar a hablar sobre la teoría de información o teoría de códigos es importante
saber que Un código es el resultado de la aplicación de un sistema de signos y reglas que permiten
cambiar la forma de un mensaje para que pueda ser transmitido a través de un medio. En
nuestra cotidianidad hacemos uso de ciertos tipos de códigos como son: el lenguaje cotidiano,
la notación musical y las señales de tránsito, entre otros; los cuales no son códigos en el
sentido matemático, pero en su esencia tienen los mismos objetivos. El lenguaje cotidiano es
un código de longitud variable, el cual no tiene buenas propiedades en cuanto a la detección
y corrección de errores. En este caso, algunas veces es posible detectar errores por sintaxis o
contexto, pero en ciertas ocasiones es muy difícil corregirlo. Por ejemplo, si al transmitir un
mensaje se recibe la palabra “Xo”, esta puede ser interpretada por su receptor como “No”,
“Yo” o “Lo” que son palabras código dependiendo del contexto; pues en el caso de que esta
se encuentre en la frase “Xo te quiero” las posibles opciones serían “No te quiero” o “Yo te
quiero” sin embargo, no se puede asegurar cuál de los dos fue el mensaje enviado; es decir
es posible detectar el error, pero no necesariamente corregirlo. Inclusive, algunas veces no se
puede ni siquiera detectar el error, por ejemplo, si queremos transmitir la palabra “pila”, en
un listado de compras familiares, se podría cometer un error al escribir en nuestro teléfono
y enviar “pala”.
En general cuando se transmite un mensaje este es enviado a través de un medio, el cual
se denomina canal y se escoge dependiendo del tipo de información. Para iniciar el proceso
es necesario expresar el mensaje, denominado palabras fuente, en términos acordes a los que
el canal está capacitado para enviar como palabras código. A este proceso se le denomina
codificación. Una vez se codifica el mensaje, este es llevado a través del canal hasta el punto
donde es recibido por el receptor en los mismos términos que maneja el canal.
Luego se requiere otro proceso, el cual tiene como objetivo que el receptor entienda el
mensaje y sea capaz de detectar o corregir los posibles errores generados en la transmisión
del mensaje original. Estos errores pueden originarse por distintos fenómenos entre los cuales
podrían mencionarse: errores humanos, ruido, interferencias electromagnéticas, perturbaciones
eléctricas naturales (tales como relámpagos) o por fuentes artificiales, por ejemplo las
líneas de transmisión de alto voltaje, circuitos de conmutación de una computadora digital
cercana, entre otras. Una manera de esquematizar todo el proceso aquí descrito es mediante
xv,xvi Introducción el siguiente diagrama.
emisor → codificación → canal → decodificación → receptor

Ruido
El origen de la Teoría de Códigos está ligado con el trabajo del ingeniero electrónico
y matemático estadounidense Claude Shannon y su artículo “A Mathematical Theory of
Communication” [25], el cual dio origen a la Teoría de Códigos y la Teoría de la Información.
La Teoría de Códigos Correctores de Errores, tiene como objetivo principal construir códigos
que permitan enviar la mayor información posible, detectar los errores producidos en la
transmisión y corregirlos. Sin embargo, el artículo de Shannon no contenía una construcción
explícita de tales códigos. Desde entonces diversas técnicas matemáticas se utilizan con este
fin, dando como resultado diferentes familias de códigos, tales como los códigos de bloque,
códigos lineales, códigos cíclicos, códigos convolucionales, códigos proyectivos, entre otros.
En la actualidad son varias las ramas de la matemática involucradas en la construcción de
estos códigos; entre ellas están Álgebra Lineal, Teoría de Grupos, Teoría de Anillos, Teoría
de Campos Finitos, Teoría de Módulos, Geometría Algebraica, Combinatoria, Teoría de
Numeros.
El concepto de código convolucional fue presentado por Peter Elias [4] en 1955, mientras
que la teoría matemática de estos códigos fue desarrollada por G. David Forney Jr. [5] en la
década de 1970, y posteriormente Robert McEliece [17] en 1998 dio un planteamiento desde
el álgebra moderna. Un abordaje profundo puede consultarse en los libros de Shun Lin y
Daniel Costello [15], Philippe Piret [20], Ajay Dholakia [3], Rolf Johannesson y Kamil Sh.
Zigangirov [14], entre otros.
Los códigos convolucionales y los códigos de bloque son los tipos de códigos más utilizados
en la práctica de la ingeniería, por su sencillez y utilidad. Estos códigos, no solo poseen buenas
propiedades generales sino también algoritmos eficientes de codificación y decodificación,
hecho que conduce a la necesidad de mantener una fundamentación matemática fuerte para
el diseño de códigos útiles. En consecuencia, la teoría de codificación es una de las diversas
ramas de la matemática que es atractiva debido a la interacción activa entre las invenciones
sofisticadas de ingeniería y matemáticas abstractas.
DESCRIPCIÓN
La teoría de la información es una rama de las matemáticas actuales que fue desarrollada por
Claude Shannon a mediados del siglo XX. Es la base teórica de la ciencia y la ingeniería de
telecomunicación moderna: va a permitir al futuro ingeniero de telecomunicación entender qué es
la información, cómo se mide, cuánto ocupa y cuál es la capacidad mínima de un canal de
transmisión para poderla transmitir.

Toda esta asignatura gira alrededor de un modelo de un sistema de comunicaciones simple pero
completo, que permite estudiar, de forma general, todos los procesos que forman parte de la
comunicación de información extremo a extremo.

La teoría de la información permite entender las técnicas de compresión de datos modernas, tanto
sin pérdida como con pérdida, que se usan extensivamente para comprimir vídeo, audio o ficheros
de datos. Permite comprender qué mecanismos podemos usar para proteger la integridad de los
datos cuando se transmiten a través de canales no ideales, es decir, que presentan cierta cantidad
de ruido. Además, la teoría de la información tiene herramientas que permiten calcular cuál es la
capacidad máxima de un sistema de transmisión y, entre otras cosas, va a predecir que es posible
establecer comunicaciones con un nivel de ruido más grande que la señal que podamos transmitir.

Esta asignatura requiere que el alumno tenga conocimientos de probabilidad y estadística, así
como conceptos de procesos aleatorios y estocásticos.

Antes de matricular la asignatura, verifique los posibles requisitos que pueda tener dentro de su
plan. Esta información la encontrará en la pestaña "Plan de estudios" del plan correspondiente.

Competencias generales
Capacidad para aprender nuevos métodos y tecnologías y adaptarse con versatilidad a nuevas
situaciones, gracias al conocimiento de materias básicas y tecnologías de telecomunicaciones.
Capacidad para realizar mediciones, cálculos, valoraciones, tasaciones, peritaciones, estudios,
informes planificación de tareas y otros trabajos análogos en su ámbito específico de la
telecomunicación.
Competencias específicas
Capacidad para aprender de manera autónoma nuevos conocimientos y técnicas adecuados para
la concepción, el desarrollo o la explotación de sistemas y servicios de telecomunicación.
Capacidad de analizar y especificar los parámetros fundamentales de un sistema de
comunicaciones.
Capacidad para evaluar las ventajas e inconvenientes de diferentes alternativas tecnológicas de
despliegue o implementación de sistemas de comunicaciones, desde el punto de vista del espacio
de la señal, las perturbaciones y el ruido y los sistemas de modulación analógica y digital.
Competencias transversales
Capacidad de análisis y síntesis.
Capacidad de organización y planificación.
Resolución de problemas.
Toma de decisiones.
Aprendizaje autónomo.
Creatividad.
Resultados del aprendizaje
Comprensión y dominio de caracterización y descripción de las señales deterministas y aleatorias y
su aplicación a la codificación de voz, datos, audio y vídeo, y a la caracterización de las
perturbaciones y del ruido.
Conocimiento y comprensión de los fundamentos de Cálculo de Probabilidades, especialmente los
términos aleatorio y probabilístico.
Utilización de métodos estadísticos en situaciones prácticas.
Comprensión y dominio de las técnicas de compresión y de detección de errores de señales.

METODOLOGÍA
La metodología adoptada en esta asignatura para el aprendizaje y evaluación de sus contenidos se
encuentra adaptada al modelo de formación continuada y a distancia de la UDIMA. Los
conocimientos de la asignatura se adquieren a través del estudio razonado de todas las unidades
didácticas del manual, así como del material didáctico complementario que se ponga a disposición
de los estudiantes en el aula virtual. Además, se complementa con la acción tutorial, que incluye
asesoramiento personalizado, intercambio de impresiones en los debates habilitados en foros y
demás recursos y medios que ofrecen las nuevas tecnologías de la información y la comunicación.
Por otra parte, el aprendizaje también se apoya en la realización de las actividades previstas en el
aula virtual, que son de tres tipos (de evaluación continua, de aprendizaje y controles), y que
vienen recogidas en el apartado “Contenidos y programación”.

CONCLUCION Y RECOMENDACIONES
Comprensión y dominio de caracterización y descripción de las señales deterministas y aleatorias y
su aplicación a la codificación de voz, datos, audio y vídeo, y a la caracterización de las
perturbaciones y del ruido.
Conocimiento y comprensión de los fundamentos de Cálculo de Probabilidades, especialmente los
términos aleatorio y probabilístico.
Utilización de métodos estadísticos en situaciones prácticas.
Comprensión y dominio de las técnicas de compresión y de detección de errores de señales.
MARCO CONCEPTUAL

La teoría de la información, también denominada teoría matemática de la comunicación, se centra


en el estudio de la transmisión de datos, su procesamiento y la medición de la información.

Claude Shannon y Warren Weaver, fueron los autores de esta teoría que se promulgó en 1940.
La base de su teoría queda representada por el emisor y el receptor. Según manifestaron, el
mensaje va del emisor al receptor a través del canal elegido para que se lleve a cabo ese proceso
de comunicación.
Esta teoría se centra especialmente en investigar y medir la información, además de valorar los
sistemas de comunicación que existen para transmitir de forma óptima esos datos informativos.

¿Para qué sirve la teoría de la información?


La teoría de la información, sirve principalmente para lo siguiente:
Permite estudiar aspectos destacados en el proceso informativo. Por ejemplo, los canales de
comunicación o la comprensión de los datos que se transfieren.
También trata de reconocer los elementos que pueden distorsionar o impedir que un mensaje
llegue de manera eficaz al receptor. Hay que tener en cuenta que es indispensable que el receptor
pueda asimilar el contenido que tiene su origen en el emisor.
Analiza también la codificación y descodificación de los mensajes, así como la velocidad en la que
se llegan a transmitir.
Tiene como objetivo fundamental determinar la manera más económica, sencilla y eficaz de
transmitir un mensaje sin que nada lo altere durante el proceso.
Componentes de la teoría de la información
Estos son los principales elementos que la componen:

Fuente de información: En este elemento nos referimos al emisor, a todo aquello que sea capaz de
emitir un mensaje. Existen varios tipos de fuentes, en la teoría de la información destacan las
fuentes aleatorias y estructuradas.

Mensaje: Cuando se hace referencia al mensaje enmarcado dentro de esta teoría, se habla de un
paquete de datos que es transportado a través de un canal.

Código: Se trata de una serie de elementos que se combinan siguiendo una serie de normas y
además se pueden interpretar.

Información: Desde el punto de vista matemático y de probabilidad, campo en el que se enmarca


esta teoría, la información que se pretende transmitir a través del mensaje debe ser proporcional
a la cantidad de bits que se necesitan para identificar el mensaje.

Ruido: Aquellas causas que impiden que el mensaje no se desarrolle con normalidad durante el
proceso informativo e impidan que el receptor pueda asimilarlo.

Receptor: El encargado de recibir el mensaje.

Canal: Se trata del medio por el que se transmite el mensaje para que llegue de manera eficaz al
receptor.
MARCO TEORICO

La Teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en
boga, Internet. Desde el punto de vista social, Internet representa unos significativos beneficios
potenciales, ya que ofrece oportunidades sin precedentes para dar poder a los individuos y
conectarlos con fuentes cada vez más ricas de información digital. Internet fue creado a partir de
un proyecto del departamento de defensa de los Estados Unidos llamado ARPANET (Advanced
Research Project Agency Network) iniciado en 1969 y cuyo propósito principal era la investigación
y desarrollo de protocolos de comunicación para redes de área amplia para ligar redes de
transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más
difíciles, y continuar funcionando aún con la pérdida de una parte de la red (por ejemplo en caso
de guerra). Estas investigaciones dieron como resultado el protocolo TCP/IP (Transmission Control
Protocol/Internet Protocol), un sistema de comunicaciones muy sólido y robusto bajo el cual se
integran todas las redes que conforman lo que se conoce actualmente como Internet. El enorme
crecimiento de Internet se debe en parte a que es una red basada en fondos gubernamentales de
cada país que forma parte de Internet, lo que proporciona un servicio prácticamente gratuito. A
principios de 1994 comenzó a darse un crecimiento explosivo de las compañías con propósitos
comerciales en Internet, dando así origen a una nueva etapa en el desarrollo de la red. Descrito a
grandes rasgos, TCP/IP mete en paquetes la información que se quiere enviar y la saca de los
paquetes para utilizarla cuando se recibe. Estos paquetes pueden compararse con sobres de
correo; TCP/IP guarda la información, cierra el sobre y en la parte exterior pone la dirección a la
cual va dirigida y la dirección de quien la envía. Mediante este sistema, los paquetes viajan a través
de la red hasta que llegan al destino deseado; una vez ahí, la computadora de destino quita el
sobre y procesa la información; en caso de ser necesario envía una respuesta a la computadora de
origen usando el mismo procedimiento. Cada máquina que está conectada a Internet tiene una
dirección única; esto hace que la información que se envía no equivoque el destino. Existen dos
formas de dar direcciones, con letras o con números. Realmente, las computadoras utilizan las
direcciones numéricas para mandar paquetes de información, pero las direcciones con letras
fueron implementadas para facilitar su manejo a los seres humanos. Una dirección numérica está
compuesta por cuatro partes. Cada una de estas partes está dividida por puntos.
justificación de la investigación
Desarrollo
El modelo propuesto por Shannon es un sistema general de la comunicación que parte de una
fuente de información desde la cual, a través de un transmisor, se emite una señal, la cual viaja
por un canal, pero a lo largo de su viaje puede ser interferida por algún ruido. La señal sale del
canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en mensaje
que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a
determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia
de algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal
correctamente; el problema es que aunque exista un mismo código de por medio, esto no significa
que el destinatario va a captar el significado que el emisor le quiso dar al mensaje.

Finalidad
Un aspecto importante es la resistencia a la distorsión que provoca el ruido, la facilidad de
codificación y descodificación, así como la velocidad de transmisión. Es por esto que se dice que el
mensaje tiene muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje,
siempre y cuando haya un mismo código en común. La teoría de la información tiene ciertas
limitaciones, como lo es la acepción del concepto del código. El significado que se quiere transmitir
no cuenta tanto como el número de alternativas necesario para definir el hecho sin ambigüedad.
Si la selección del mensaje se plantea únicamente entre dos alternativas diferentes, la teoría de
Shannon postula arbitrariamente que el valor de la información es uno. Esta unidad de
información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las
alternativas deben ser igual de probables y estar disponibles.

Es importante saber si la fuente de información tiene el mismo grado de libertad para elegir
cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La
cantidad de información crece cuando todas las alternativas son igual de probables o cuanto
mayor sea el número de alternativas.

Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual
constituye un tipo de proceso estocástico denominado Márkov. El subtipo de Márkov dice que la
cadena de símbolos está configurada de manera que cualquier secuencia de esa cadena es
representativa de toda la cadena completa.

Elementos de la teoría
Fuente
Una fuente es en sí misma un conjunto finito de mensajes. Todos los posibles mensajes que puede
emitir dicha fuente. En compresión de datos se tomará como fuente el archivo a comprimir y
como mensajes los caracteres que conforman dicho archivo.

Tipos de Fuente
Existen varios tipos de fuente. Para la teoría de la información interesan las fuentes aleatorias y
estructuradas. Una fuente es aleatoria cuando no es posible predecir cuál es el próximo mensaje a
emitir por la misma. Una fuente es estructurada cuando posee un cierto nivel de redundancia; una
fuente no estructurada o de información pura es aquella en que todos los mensajes son
absolutamente aleatorios sin relación alguna ni sentido aparente. Este tipo de fuente emite
mensajes que no se pueden comprimir; un mensaje, para poder ser comprimido, debe poseer un
cierto grado de redundancia; la información pura no puede ser comprimida sin que haya una
pérdida de conocimiento sobre el mensaje.

Mensaje
Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una
red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje. El
concepto de mensaje se aplica también a alfabetos de más de dos símbolos, pero debido a que
tratamos con información digital nos referiremos casi siempre a mensajes binarios.

Información
La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren
como mínimo para representar al mensaje.

Código
Un código es un conjunto de unos y ceros que se usan para representar un cierto mensaje de
acuerdo a reglas o convenciones preestablecidas.
CIPA “LOS PROGRAMADORES” CRONOGRAMA DEL TRABAJO FINAL

ACTIVIDADES ENERO

DIA DE ENTREGA Y EXPOSICION 28,29/01/22

1 EL TEMA DE INVESTIGACION

2 PLANTEAMINETO O FORMULACION DEL PROBLEMA DE INVESTIGACION

3 MARCO DE REFERENCIA DEL PROBLEMA, ANTECEDENTES DEL PROBLEMA,


MARCO CONCEPTUAL, MARCO TEORICO, Y DEFINICIONES DE CONCEPTOS.

4 FORMULACION DE OBJETIVOS

5 JUSTIFICACION DE LA INVESTIGACION

6 DISEÑO METODOLOGICO

7 ANALISIS E INTERPRETACION DE LOS DATOS

8 COROGRAMA DE TRABAJOS

9 CONCLUSIONES Y RECOMENDACIONES

10 BIBLIOGRAFIA

11 ANEXOS
TEORIA DE INVESTIGACION Y CODIGOS

¿Qué es? Es una rama de las matemáticas aplicadas y la ingeniería eléctrica que se ocupa de la
cuantificación de la información. Históricamente la teoría de la información se desarrolló para
encontrar los límites fundamentales de la compresión y transmisión confiable de datos. Desde sus
inicios se ha expandido para encontrar aplicaciones en muchos otros campos incluida la inferencia
estadística el procesamiento del lenguaje natural la criptografía en general redes distintas de las
redes de comunicación como en neurobiología la evolución y función del código molecular
selección de modelos en ecología termo física. computación cuántica detección de plagio y otras
formas de análisis de datos.

En teoría una medida importante de la información se denomina entropía de la información que


suele expresarse como el número medio de its necesarios para almacenar o comunicar.
Intuitivamente la entropía cuantifica la incertidumbre que implica encontrar una varíale aleatoria.
Por ejemplo, en un lanzamiento de una moneda tendrá menos entropía que una tirada de dados.

Las aplicaciones de los temas básicos de la teoría de la información incluyen la compresión de


datos sin pérdida (p. ej. archivos ZIP) la compresión de datos con pérdida (p. ej. MP3) y la
codificación de canales (p. ej. archivos ZIP): para líneas DSL). El campo se encuentra en la
intersección de las matemáticas la estadística la informática la física la neurobiología y la
ingeniería eléctrica. Su impacto fue crucial para el éxito de las misiones de viajes espaciales la
invención del CD la viabilidad de los teléfonos celulares el desarrollo de Internet el estudio de la
lingüística y la perspectiva humana la comprensión de las células oscuras y muchos otros campos. .
. Los subcampos importantes de la teoría de la información son la codificación de fuentes la
codificación de canales la teoría de la complejidad algorítmica la teoría de la información
algorítmica y la métrica de la información.

En general se considera que La teoría de la información, también conocida como teoría


matemática de la comunicación o teoría matemática de la información, es una propuesta teórica
presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940. en su
ora fundacional "Una teoría matemática de la comunicación". “El modelo central de la teoría
clásica de la información es el problema técnico de transmitir información a través de un canal
ruidoso. El resultado más fundamental de esta teoría es el teorema de codificación fuente de
Shannon que establece que en promedio la cantidad de its necesarios para representar el
resultado de un evento incierto está dada por su entropía; y el teorema de codificación de canales
ruidosos de Shannon que establece que es postile comunicarse de manera confiable a través de
canales ruidosos siempre que la tasa de comunicación esté por debajo de cierto umbral conocido
como capacidad del canal. La capacidad del canal se puede aproximar en la práctica utilizando
sistemas de codificación y decodificación adecuados.

La teoría de la información pertenece a un conjunto de disciplinas puras y aplicadas que han sido
estudiadas y reducidas a la práctica de la ingeniería ajo varios títulos en todo el mundo durante
más de medio siglo: sistemas adaptativos sistemas predictivos inteligencia artificial sistemas
complejos. sistemas ciencia de la complejidad cibernética informática aprendizaje automático, así
como ciencia de sistemas de muchas descripciones. La teoría de la información es una teoría
matemática amplia y profunda con aplicaciones igualmente amplias y profundas en la que es un
área importante de la teoría de la codificación. La teoría de la codificación tiene como objetivo
encontrar métodos explícitos llamados códigos para aumentar la eficiencia y reducir la tasa de
error real de la comunicación de datos en un canal de ruido cercano al límite que según Shannon
es el máximo posible para este canal. Estos códigos se pueden dividir aproximadamente en
compresión de datos (código fuente) y corrección de errores (técnica de codificación de canales).
En este último caso se necesitaron años para encontrar los métodos que el trabajo de Shannon
había demostrado que eran posibles. El tercer tipo de cifrados de la teoría de la información son
los algoritmos criptográficos (tanto cifrados como cifrados). Los conceptos métodos y resultados
de la criptografía y la teoría de la información se utilizan ampliamente en criptografía y
criptoanálisis. Consulte el artículo Prohibido (información) para conocer el historial de uso.

La teoría de la información también se usa en la investigación de datos recopilación de


inteligencia juegos estadísticas e incluso composición musical.

Descripción
Los principales conceptos de la teoría de la información pueden entenderse considerando el
medio más común de comunicación humana: el lenguaje. Dos aspectos importantes del buen
lenguaje son: primero las palaras más comunes (p. ej. "un" "" "yo") deben ser más cortas que las
palaras menos comunes (p. ej. "beneficios") "generación" ) para que las frases no sean demasiado
largas. Tal compensación de longitud de palara es similar a la compresión de datos y es un aspecto
esencial de la codificación de fuente. En segundo lugar si parte de una oración no se escucha o se
escucha mal debido al ruido como un automóvil que pasa el oyente aún puede captar el
significado del mensaje subyacente. un sistema de comunicación electrónica en lugar de un
idioma; Tal robustez de construcción en una comunicación adecuada se logra a través de la
codificación de canales. La codificación de fuentes y la codificación de canales son preocupaciones
fundamentales de la teoría de la información.

Tenga en cuenta que estas preocupaciones no tienen nada que ver con la importancia del
mensaje. Por ejemplo un asunto como “gracias; Retrocedamos demasiado " podría decir o escribir
como una súplica urgente: ¡Llama a una ambulancia! "mientras que la última oración es
claramente más importante y significativa. Sin embargo la teoría de la información no considera la
importancia o el significado del mensaje ya que es una cuestión de calidad de los datos en lugar de
cantidad. cantidad y legibilidad de los datos esta última determinada solo por probabilidad.

En general se considera que la teoría de la información fue fundada en 19


8 por Claude Shannon en su ora fundacional "Una teoría matemática de la comunicación". “El
modelo central de la teoría clásica de la información es el problema técnico de transmitir
información a través de un canal ruidoso. El resultado más fundamental de esta teoría es el
teorema de codificación fuente de Shannon que establece que en promedio la cantidad de its
necesarios para representar el resultado de un evento incierto está dada por su entropía; y el
teorema de codificación de canales ruidosos de Shannon que establece que es postile comunicarse
de manera confiable a través de canales ruidosos siempre que la tasa de comunicación esté por
debajo de cierto umbral conocido como capacidad del canal. La capacidad del canal se puede
aproximar en la práctica utilizando sistemas de codificación y decodificación adecuados.
La teoría de la información pertenece a un conjunto de disciplinas puras y aplicadas que han
sido estudiadas y reducidas a la práctica de la ingeniería ajo varios títulos en todo el mundo
durante más de medio siglo: sistemas adaptativos sistemas predictivos inteligencia artificial
sistemas complejos. sistemas ciencia de la complejidad cibernética informática aprendizaje
automático así como ciencia de sistemas de muchas descripciones. La teoría de la información es
una teoría matemática amplia y profunda con aplicaciones igualmente amplias y profundas en la
que es un área importante de la teoría de la codificación. La teoría de la codificación tiene como
objetivo encontrar métodos explícitos llamados códigos para aumentar la eficiencia y reducir la
tasa de error real de la comunicación de datos en un canal de ruido cercano al límite que según
Shannon es el máximo posible para este canal. Estos códigos se pueden dividir aproximadamente
en compresión de datos (código fuente) y corrección de errores (técnica de codificación de
canales). En este último caso se necesitaron años para encontrar los métodos que el trabajo de
Shannon había demostrado que eran posibles. El tercer tipo de cifrados de la teoría de la
información son los algoritmos criptográficos (tanto cifrados como cifrados). Los conceptos
métodos y resultados de la criptografía y la teoría de la información se utilizan ampliamente en
criptografía y criptoanálisis. Consulte el artículo Prohibido (información) para conocer el historial
de uso.

La teoría de la información también se usa en la investigación de datos recopilación de


inteligencia juegos estadísticas e incluso composición musical.
ANALISIS E INTERPRETACION DE LOS DATOS
En el siguiente trabajo que se va a entregar al profesor y a exponer en la clase, hablaremos acerca
de la teoría de la información y la teoría de códigos, sabemos que la teoría de la información
Permite estudiar aspectos destacados en el proceso informativo. En este contexto, el estudio de la
Teoría de la Información ha tenido un creciente desarrollo, en el que cada vez más investigadores
aúnan esfuerzos para resolver los desafíos planteados por la existencia de unos volúmenes de flujo
de información muy difíciles de manejar y administrar. Y es especialmente importante que estos
desarrollos contemplen el aspecto matemático formal de la noción de información, de forma tal
que ésta se pueda medir y cuantificar para ser aplicada con fines tecnológicos. Por otro lado, La
teoría de códigos es una especialidad matemática que trata de las leyes de la codificación de la
información. A grandes rasgos, codificar es transformar una información en una señal convenida
para su comunicación. Decodificar sería el proceso inverso y complementario del anterior por el
cual la señal comunicada es transformada en la información original.

Marco de referencia del problema

Entropía:

Análoga:

Criptográfica:

ORGANIZA LOS PROCESOS


DEFINE LA PRUEBAS
RECOLECCION DE DATOS PARA ALCANSAR LOS OBJETIVOS

DISEÑO METODOLOGICO

 Recolección de información y datos.


 Verificación, comprobación y selección de datos.
 El tipo de investigación es un enfoque cualitativo porque la investigación resultante ya se ha realizado.
 El alcance del estudio es descriptivo en el sentido de que apunta a identificar atributos y
características por los cuales la información presentada puede estar restringida.
 la información de la cual se encontró o realizo este trabajo se fundamentó en
investigaciones en la web, trabajos antiguos que nos ayudaron a resolver incógnitas sobre,
para que nos pueden servir en nuestra vida y como ponerlos en marcha.
 Comprobación de datos reales y verdaderos sobre cada tema antes hablado.
BIBLIOGRAFIA

https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n

https://concepto.de/justificacion-de-una-investigacion/

https://propuestadeinvestigacion.fandom.com

https://sabermetodologia.wordpress.com

https://sites.google.com

www.fib.upc.edu

www.investigo.biblioteca.uvigo.es

www.forosecuador.ec

www.studocu.com

http://www.comunicacionysociedad.cucsh.udg.mx/index.php/comsoc/article/view/6614

https://sites.google.com/a/funandi.edu.co/investigacion/planteamiento-del-problema-1

https://www.ecured.cu/Teor%C3%ADa_de_la_informaci%C3%B3n

ANEXOS

También podría gustarte