Fecha de entrega: 01/10/2021 Tutoriales Manipulación de datos y clasificación 27/09/2021 Ponente: Daniela Alejandra Moctezuma Ochoa
Se trabaja un programa especificado en lenguaje Python, usando extensiones
para el análisis de datos, siendo Pandas y Anaconda. Pandas se utiliza principalmente para el manejo de los datos, a través de un ejemplo de Base de Datos sobre el Titanic, mostrando elementos tales como el nombre, sexo, cabina, etc., con la finalidad de ver su funcionalidad. Otro elemento es el sklearn, el cual se usa para el machine learning o el aprendizaje automático. Se define como Machine Learning como el “Campo de estudio que proporciona a las computadoras la habilidad de aprender algo sin estar explícitamente programadas para ello”, esto según Arthur Samuel (pionero de la IA). Entorno al modelo de aprendiza hay dos tipos, supervisados y no supervisados, en el supervisado se necesita una etiqueta que permite saber si el programa está acertando o no, y así poder predecir nuevos elementos con la mayor precisión o confiabilidad posible; se considera la salida esperada. En el aprendizaje no supervisado no se consideran las etiquetas, es decir, no se consideran los resultados de salida. Cada uno tiene su tipo de estructura: · Aprendizaje supervisado 1. Árboles de decisión 2. Random forest 3. SVM 4. ANN · Aprendizaje no supervisado 1. Clustering (K – means)
Se puede decir que el aprendizaje computacional es un área de la IA, el cual
toma unos datos para aprender de ellos, y así aprender a predecir resultados a partir de estos. Se cuenta con un elemento conocido como clasificador, este permite determinar la arte verdadera y falsa según las etiquetas, en torno a este están los temas de Training, validation y test sets. En la parte de training como su nombre indica entrena al clasificador, en la validación se obtienen los parámetros adecuados para el clasificador y en test se evalúa el rendimiento real del clasificador (con datos nuevos diferentes a los utilizados en las dos fases anteriores). Un algoritmo de machine learning no trabaja con datos no-numéricos (en la mayoría de los casos), por ende, hay que transformar o codificar los datos en caso de que no cumplan esa condición.
Como codificaciones finales se tienen:
· Se normalizan las etiquetas como última parte del pre-procesamiento. Scikit-learn tiene un LabelEncoder que convierte cada valor único en un número, haciendo más flexibles los datos para aplicar ciertos algoritmos de aprendizaje computacional · El resultado de esta codificación es una tabla de números, que para las personas no tienen buena presentación, sin embargo, para las máquinas son entendibles. Dentro del proceso de clasificación se puede encontrar el Random Forest Este es un clasificador que consiste en muchos árboles de decisión y asigna la clase más votada por todos ellos, este es un algoritmo muy utilizado, tanto para clasificación como para regresión, además, muestra buen rendimiento para datos de alta dimensionalidad. Funciona a través de la mezcla de tres conceptos: · Bagging: Bootstrap Aggregation (o Bagging), es un método de ensamble simplre y de gran ayuda, un método de ensamble es una técnica que combina las predicciones de múltiples algoritmos de aprendizaje automático para hacer predicciones más precisas. · Decision trees: Es una de las estructuras más simples y útiles en aprendizaje computacional. Tienen el problema que son muy dependientes de los datos de entrenamiento, por ello son muy utilizadas en combinación con el Bagging. · Random subspace: Técnica que en conjunto con el Bagging permiten alimentar, por medio de muestreo con reemplazo, cada uno de los clasificadores. Inteligencia computacional 27/09/2021 Ponente: Carlos Alberto Reyes García Se conoce como señal a un signo, ademan, gesto o alguna otra cosa que informa o avisa sobre algo, esta puede sustituir a la palabra escrita o al lenguaje, y estas si se ajustan a ciertas reglas son fácilmente interpretadas, un ejemplo de este es el lenguaje de señas. En el apartado computacionales estas señales son interpretadas y usadas de una manera un poco distinta, existiendo las señales telefónicas y señales analógicas. Las señales tecnológicas son producidas por la variación de una corriente eléctrica u otra magnitud física que se utiliza para transmitir información, por ejemplo, en la telefonía existen diferentes señales que consisten en un tono continuo o intermitente, habiendo señales analógicas y senoidales. Las señales digitales son la transformación de las señales analógicas a unas más discretas para que puedan ser trabajadas por computadoras, consiste en un proceso de tomar los valores de la función en diferentes momentos del tiempo. También existen las bioseñales, y con estas se ha presentado el avance de la inteligencia computacional. El término de Bioseñal se aplica a todos los tipos de señales medidas y controladas por seres biológicos, y este se refiere tanto a señales eléctricas como no eléctricas. Bioseñales eléctricas: Son los cambios de corrientes eléctricas a causa de las diferencias de potencial eléctrico a través de un tejido, órgano o sistema celular, las más conocidas son: Electroencefalogramas (EEG) Magneto encefalograma (MEG) Electrocardiograma (ECG) Electromiograma (EMG) Bioseñales no eléctricas: Como su nombre lo indica, son generadas por seres biológicos sin generar algún cambio de corriente eléctrica. Se pueden encontrar: Señales mecánicas Señales químicas Señales ópticas Señales acústicas A partir de estas se ha desarrollado una gran cantidad de inventos principalmente médicos con la finalidad de facilitar o ayudar a la determinación de análisis y con ello, un tratamiento o conclusión sobre un asunto médico, entre otros como el reconocimiento de voz a través de ondas acústicas. Ciberseguridad 28/09/2021 Ponente: Alejandra G. Silva Trujillo Actualmente nos encontramos en una era digital aún en desarrollo, donde contamos con una gran cantidad de posibilidades, como organizar un evento online, compartir fotos en redes sociales, tomas clases en línea, realizar compras a través de tiendas en línea, etc. Por ello mismo se puede decir que generamos una gran cantidad de datos por minuto según los sitios y acciones que realicemos, así como información que proporcionamos en distintas redes que pueden ser utilizadas con fines maliciosos, como nuestro nombre o nombres de familiares o amigos, lugares donde nos encontramos, actividades rutinarias, etc. Por ello mismo se debe buscar el salvar en la medida de lo posible la información personal que se puede estar brindando en diferentes sitios y redes sociales, ya que esta una vez en la red es casi imposible de eliminar, y dependiendo de la información puede afectar al presente, futuro personal y profesional. Por este motivo existen tecnologías como las PETs, estas se enfocan en: · Reducir el riesgo romper principios de privacidad · Reducir la cantidad de datos que se adquieren de los individuos · Permitir a los individuos tener siempre el control de su información La Ciberseguridad en pocas palabras se considera como la práctica de proteger sistemas, redes y programas de ataques digitales. Por lo general, estos ciberataques apuntan a acceder, modificar o destruir la información confidencial. Esta se puede poner en práctica en un rol como estudiante, un ejemplo de aplicarlo es el respeto de los datos de compañeros y maestros, usar formas de comunicación no intrusivas, no exponer información sensible que permitan identificar al individuo, como su nombre, domicilio, teléfono, etc. Por esto mismo se debe de fortaleces la identidad digital. Se conoce como identidad digital al conjunto de información personal existente en internet que puede ser rastreada hasta de llegar a la persona física, esta información o identidad digital puede ser protegida haciendo práctica del Ego- surfing, utilizar otros buscadores como Bing, así como verificar que los primero 3 resultados sobre el individuo sean positivos. Es importante saber que no siempre se debe estar al pendiente de lo qué sube cada uno, sino también de lo que pueda subir otra persona que tenga relación con el individuo, como una fotografía o etiqueta en alguna red social, para ello se debe de verificar las configuraciones de seguridad de las redes sociales que se utilicen. Se recomienda mucho realizar ciertas medidas de prevención para proteger los datos cada cierto tiempo, por ejemplo, cambiar contraseñas cada cierto tiempo, borrar metadatos, agregar marcas de agua en documentos seguridad, entre otros métodos de seguridad. Conferencias Plenarias Problemas difíciles para reformularse con la lente de la ciencia 29/09/2021 Ponente: Juan Manuel Ávalos Vega Existen una enorme cantidad de problemas que se consideran realmente difíciles, pero estos pueden ser reformulados e implementados ahora en con métodos ya no considerados como tradicionales, uno de estos es la aplicación de la computación cuántica. Pero, a pesar de lo sofisticada que se ha vuelto hoy en día la computación digital, hay muchos problemas científicos y empresariales en los que apenas se han visto de manera superficial. Aparte de la computación hay otras áreas donde hay aplicaciones cuánticas, siendo estas tres principalmente: Simulación de sistemas cuánticos Inteligencia artificial Optimización/Monte Carlo Nos encontramos frente a las etapas tempranas de una nueva era tecnológica de computación, la cual avanza rápidamente, está en su momento tuvo un limitante importante, el cual era el límite de los Bits, y considerando que todo a nivel máquina por décadas se ha manejado solo en 1s y 0s puesto que era la única forma en que se podía crear un sistema de computacional útil, sin embargo en el futuro no solo será 1s y 0s. En el apartado de computación cuántica ya no se utilizan bits convencionales, sino bits cuánticos o qubits, este es un objeto cuántico controlable que es representa la unidad de información. Estos son implementados en un circuito cuántico, este es un conjunto de operaciones de compuertas cuánticas en qubits y es la unidad de computación. Dentro del área creciente de la computación cuántica se puede destacar a la empresa IBM. IBM Quantum Network se ha especializado en esta área, actualmente más de 247,000 usuarios han ejecutado más de 400 mil millones de circuitos cuánticos, en un total de 29 computadores cuánticos, existiendo más de 400 artículos científicos hasta ahora. Conferencia plenaria. ¿Cuánta información trasmiten los emojis de tus mensajes? 29/09/2021 Ponente: Luis Villaseñor Pineda
El lenguaje ha sido objeto de estudio de muchas disciplinas, abarca muchos
campos, sólo en el área de la computación incluye: Procesamiento de lenguaje natural Lingüística computacional Recuperación de información Traducción automática Tomando esto como base se puede ir al tema de la minería de texto en redes sociales, a partir de esta información se puede realizar un análisis de sentimientos, perfilado de autores, e identificación de trastornos mentales como la depresión o anorexia. Se enfoca principalmente la depresión, la cual es una enfermedad que representa la cuarta causa de discapacidad, en México ocupa el primer lugar de discapacidad para las mujeres y el noveno para los hombres.
A través de los emojis se pueden detectar algunos síntomas de depresión en
algunos usuarios, ya que estos surgen como una forma compacta de expresión, este análisis comienza a partir del historial del usuario, pasando a una etapa de segmentación, después la extracción de emojis ignorando todo el texto. Estos pasan a través de un autoencoder, utilizando un enfoque de aprendizaje supervisado, donde se inicia con el conjunto de historiales indicando usuarios sanos y depresivos, estos pasan a través de un algoritmo de aprendizaje máquina y así se genera un modelo, y a partir de este se pueden formar las predicciones y con ello analizar los resultados. Se destaca que la identificación de síntomas de depresión a través de emojis, los cuales como elementos paralingüísticos no dependen del idioma, es un trabajo en proceso, pero la información que se obtiene a partir de estos es de gran valor para el proyecto, y si se presenta una gran distancia cultural, el enfoque propuesto podría utilizarse como primer paso al complementarse con un enfoque semi-supervisado. Conferencia plenaria. Protocolos de consenso para Blockchain 29/09/2021 Ponente: Rocío Aldeco Pérez Se conoce como Blockchain a una cadena de registros distribuidos y descentralizados unidos unos con otros que incluyen la firma digital de su creador. Cuando estos registros son guardados no pueden ser modificados, ni en contenido ni en orden, esto lo hace un registro inmutable y solo de agregación; este surge como respuesta a la confianza, anonimato e integridad. El blockchain tiene una serie de prioridades, las cuales son: Confianza Descentralizado Transparencia Integridad Redundancia Anonimato Cabe mencionar que existen diferentes tipos de Blockchain, se mencionan tres tipos principalmente: Públicos: Cualquiera puede unirse a la red y participar dentro de ella, los datos son seguros, ya que no es posible modificar o alterar los datos una vez que han sido validados. Privados: Se restringe que entidades que pueden participar en la red, sólo las entidades que participan tienen el conocimiento de las transacciones. Permisionados: Requiere de una autenticación, esto hace que sea posible conocer la identidad de los participantes. Respecto a los protocolos de consenso, estos tienen como objetivo que todos los participantes decidan y acuerdan colectivamente lo que es mejor para la red, estos funcionan mejor en ambientes donde no hay confianza y son capaces de trabajar correctamente bajo fallas de algunos participantes. Algunas propiedades de los protocolos de consenso son: Garantizar finalización Búsqueda de acuerdos Participativo Garantizar la integridad. Por último, se puede mencionar que estos protocolos para blockchain son aplicados en criptomonedas, contratos inteligentes, reclamos seguros, compra venta de propiedades, en la salud y en la administración de identidades. Aprendizaje computacional + Visión artificial: Algunas aplicaciones 29/09/2021 Ponente: Jorge de la Calleja El objetivo principal de la visión por computadora es el enseñar a las computadoras el poder “ver” a como lo harían los seres humanos, donde una de las técnicas más utilizadas actualmente para estas tareas de visión es el aprendizaje profundo deep learning, la cual ha obtenido unos resultados muy buenos. Con la ayuda de esta técnica se pueden desarrollar programas que permitan identificar elementos específicos según el campo de aplicación, por ejemplo, el diagnóstico de retinopatía diabética en el campo médico, y en un campo más general se tiene el reconocimiento de expresiones faciales y microexpresiones faciales, estos son los medios de comunicación no verbales que se encuentran asociados las emociones, y estas pueden ser de gran utilidad dentro de una sesión experto-paciente. Cabe destacar que estas técnicas de igual forma son aplicadas para el desarrollo de inteligencia artificial, destacando el hecho de que en el año 2020 los mercados financieros invirtieron aproximadamente 50 mil millones de dólares en inteligencia artificial, esto principalmente por el alcance u beneficios que se pueden alcanzar con su desarrollo. Se puede decir que la inteligencia artificial es un nuevo actor-aliado que facilita las actividades humanas, principalmente en los trabajos o tareas consideradas como peligrosas o tediosas. El procesamiento de señales desde otro “punto” de vista 30/09/2021
Ponente: Felipe Orihuela-Espina
Se destaca el hecho de que no influye en realidad el tipo de señal que se vaya
a procesar, sea esta una imagen, sonido, video, texto, etc., ya que estos al ser procesados y analizados desde el punto de vista matemático resultan en una sumatoria de un peso por su función respectiva, quiere decir, que esto de cualquier forma representa un punto sobre el espacio. Estos puntos se ubican en un plano de coordenadas donde el punto propio obtenido representa a la señal completa, y no afecta en qué tipo de plano se represente, este seguirá siendo un punto en el espacio que corresponda. Dentro de este hay dos operaciones principales, los cuales son el procesamiento y el análisis, en pocas palabras, el procesamiento refiere a todas aquellas operaciones internas realizadas, mientras que el análisis son todas las operaciones externas que se realizan. Sin embargo, el hecho de que varias herramientas, métodos o técnicas matemáticas comparten la misma conclusión de estar representado un punto en el espacio acorde a su eje coordinado correspondiente, no significa que todos estos sean los mismos, ya que tienen su aplicación específica, puesto que fueron creados para resolver distintos problemas, por ello no se puede el forzar la implementación de un método para algo que no fue diseñado. Conferencia plenaria. Algoritmos de Machine Learning y Deep Learning aplicados al análisis de datos para el diagnóstico de Covid-19 30/09/2021 Ponente: Juana Canul Reich
El Covid-19 es una enfermedad que se convirtió en una pandemia, afectando la
forma de vida de casi todas las personas del planeta, la OMS notificó el primer caso de Covid-19 el 31 de diciembre de 2019 y declarado como un brote mundial el 30 de enero de 2020. Como esto fue algo nuevo para la comunidad médica, el uso de métodos tradicionales para el diagnóstico resultaba ineficientes, dado al crecimiento exponencial del número de infectados, es ahí donde entran los algoritmos de machine learning y deep learning, los cuales están basados en los principios de la inteligencia artificial para poder asegurar diagnósticos más rápidos y precisos. Estos métodos se pueden decir que estaban subdivididos, siendo estos: Machine learning Aprendizaje supervisado Aprendizaje no supervisado Deep learning Usado principalmente para clasificar una radiografía o tomografía del tórax en dos clases: normal o infectado o Lectura de una imagen de rayos X o Procesamiento y extracción de características únicas o Las características son usadas como entrada a los modelos ML y DP Todo esto, implementa en los modelos permite generar las predicciones, siendo estas muy acertadas o con un margen de error muy mínimo, esto en el área de la medicina ayuda a los especialistas médicos el generar un diagnóstico correcto con, con un margen de error pequeño y de manera relativamente rápida comparada a otros métodos. Aplicaciones de computación afectiva en educación 30/09/2021 Ponente: María Yasmín Hernández Pérez
Se debe mencionar que en el proceso cognitivo de los seres humanos se
encuentra el pensamiento y el sentimiento, y no hay un proceso cognitivo sim un componente afectivo, ya que esta es la que motiva la actividad intelectual, considerando esto como base, surge la computación afectiva. La computación afectiva no se refiere a crear programas que puedan tener sentimientos, esta es el estudio y desarrollo de sistemas y dispositivos que puedan reconocer, interpretar, procesar y simular las emociones humanas. Como se menciona, uno de los puntos principales es la detección de emociones, esto se puede realizar a través de diversos medios, como, por ejemplo, las expresiones faciales, voz, señales biológicas como la presión sanguínea o respiración, estereotipos afectivos y la información del contexto. Considerando que las emociones son importantes para el pensamiento creativo, toma de decisiones y la comunicación, surgen los Sistemas Tutores Inteligentes, los cuales simulan patrones de comportamiento de un tutor humano, algunos de estos utilizan agentes pedagógicos animados, los cuales son personajes autónomos que interactúan cara a cara con los estudiantes. Este tipo de sistemas en su comienzo fue evaluado con la participación de 62 estudiantes de primaria y secundaria, los cuales pasaron por un protocolo compuesto de un examen previo, una interacción de 40 minutos, un examen posterior y la respectiva observación de los estudiantes y la aplicación de una encuesta sobre lo que los estudiantes opinaban. Los resultados obtenidos mostraban que se contaba con una alta precisión al establecer el estado afectivo del estudiante, a su vez, ayuda a aprender a aquellos estudiantes cuyo perfil es adecuado para el dominio. A pesar de todo actualmente quedan muchas cosas por hacer en la educación afectiva, como la creación de nuevos modelos y dispositivos, así como sus posibles aplicaciones en otras áreas, como el marketing, salud, casas inteligentes, entretenimiento, videojuegos, etc. Esto es posible dado a la cantidad de herramientas tecnológicas con las que se cuentan, sin considerar las que puedan desarrollarse en un futuro, mejorando de igual forma el desarrollo de la computación afectiva. Conferencias Magistrales Conferencia Magistral. ¿Cómo hacer inteligencia artificial y no morir en el intento? 27/07/2021 Ponente: Eduardo Morales Manzanares Aquí vimos de forma simple los conceptos de Sistemas Distribuidos y Criptografía que dan origen a la cadena de bloques (Blockchain). Entre los conceptos de Sistemas Distribuidos que se discutirán se encuentran: la bitácora (ledger), la red igual a igual (peer to peer) y los algoritmos de consenso. Se menciona de manera breve el qué es la IA (Inteligencia Artificial), siendo esta un campo de la ciencia y de la ingeniaría que se ocupa de la comprensión a través de la computadora, además, se le conoce como inteligencia como la capacidad de entender, resolver problemas, así como poder escoger la mejor opción entre varias, al igual de poder generar información nueva combinando otros elementos conocidos. Cabe destacar que la IA está compuesta por diferentes tipos de inteligencia, por ejemplo: Lógica-matemática, interpersonal, emocional, musical, colaborativa, etc. A su vez, es multidisciplinaria, ya que abarca filosofía, matemáticas, psicología, lingüística, entre otras. La IA se enfoca en unas áreas principales, algunas de estas son: Búsquedas y juegos Representación de conocimiento Planificación Aprendizaje computacional Robótica Desde hace un tiempo se ha cuestionado si se puede lograr una verdadera IA y sus posibles consecuencias, además ha adquirido un interés comercial, gubernamental y social. Sin embargo, no todo suele ser beneficios, ya que uno de los mayores temores que se ha presentado con el desarrollo de la IA, como su reemplazo por trabajo humano, generando pérdida masiva de empleos, así como una mayor desigualdad entre países ricos y pobres y entre la misma población, e incluso algunos han considerado el propio fin de la raza humana o de su supremacía. Para poder alcanzar un alto nivel de inteligencia artificial necesitamos mejorar el vocabulario de lo que las máquinas pueden hacer y mejorar el entendimiento de la inteligencia, además, se debe de encontrar la manera de dotar las máquinas del conocimiento que los niños tienen acerca del espacio, tiempo, causalidad, capacidad de abstraer, entre otros elementos, y esto como puede observarse, presentan retos que deben de superarse para conseguir el objetivo de desarrollar verdadera IA. La evolución de los algoritmos bio-inspirados. ¿Exploración o “Explotación”? 28/09/2021 Ponente: Efrén Mezura-Montes
Se les considera como algoritmos evolutivos bio-inspirados puesto que emulan
la evolución de las especies y la supervivencia del más apto, esto es aplicado principalmente en problemas de optimización. Estos algoritmos están compuestos principalmente de tres elementos, una población, padres e hijos. Cabe destacar que hay diferentes tipos de algoritmos, uno de ellos son los de inteligencia colectiva, esta emula los comportamientos sociales de organismos sencillos donde emerge cierto nivel de inteligencia, donde la comunicación es el mecanismo clave. De estos existe una clasificación extendida, algunos elementos de esta son: Inteligencia colectiva Basados en Física Basados en Química Basados en fenómenos sociales Existen elementos positivos a destacar de estos algoritmos, siendo estos los siguientes: Se centra en optimización discreta Menciona el surgimiento de metaheurísticas como recocido simulado Se valoran como ideas innovadoras Sin embargo, a su vez existen puntos negativos, por ejemplo: Cambio de terminología Cuestiona la novedad Complicados de explicar Aunque a pesar de esto hay algunos temas que le ayudan a tener más solidez, por ejemplo, la optimización multiobjetivo y de múltiples objetivos, algoritmos evolutivos distribuidos, etc. Al día de hoy el área de los algoritmos bio-inspirados está en una fase de exploración, esta fase es el espacio de búsqueda donde se buscan los elementos para una solución, y muy probablemente en el futuro se llegará a la fase de explotación, donde los mejores resultados prevalecerán, esta explotación refiere al conjunto de elementos que se tuvieron para la solución. Artificial intelligence in education: Achievements 29/09/2021 Ponente: Antonija Mitrovic En términos de educación, siempre se han presentado ciertos retos a los cuales se debe enfrentar, especialmente cuando se intenta generar una educación a través de medios digitales, algunos retos presentes son el cómo apoyar y usar las diferentes formas de aprendizaje, así como lo que se necesita que los aprendices cuenten, como habilidades y conocimientos previos. Actualmente ya se han implementado el uso de plataformas digitales para promover el conocimiento y aprendizaje, promoviendo la colaboración, apoyo, adaptabilidad, etc. Algunos ejemplos son: Juegos instruccionales (profesionales o serios) MOOCs Sistemas Tutores Inteligentes (ITS) Respecto a este último, sus siglas son debido a su nombre en inglés (Intelligent Tutorig System), este es un software educativo el cual utiliza técnicas de inteligencia artificial, el cual proporciona un comportamiento similar al de un tutor humano, siendo a su vez, flexible y adaptativo. Los componentes principales de un ITS son: Interfaz / Entorno de solución del problema Módulo del experto Módulo del estudiante Módulo pedagógico A su vez existen dos razones importantes del porqué se deben de desarrollar las ITSS, la primera es una razón pedagógica, permite mejorar la educación a través de dar las herramientas necesarias para los estudiantes y maestros, la otra razón es una razón científica, ya que permite mejorar la comprensión de la naturaleza humana al momento del aprendizaje y enseñanza. De igual forma se puede considerar a un ITS como un campo interdisciplinario, puesto que da uso de inteligencia artificial, psicología, ciencia de la computación, lingüística, estadística, entre otras. Por último, se pueden mencionar algunos de los beneficios más importantes que brindan las ITS, estos son: Apoyo individual, colección de data, puede ser usado en cualquier hora y cualquier lugar, costo bajo de mantenimiento, barato de usar y es actualizable según se requiera. Optimización Combinatoria 30/09/2021 Ponente: Laura Cruz Reyes La Optimización Combinatoria aborda la solución de los problemas donde el objetivo es encontrar el máximo o el mínimo de una determinada función sobre un conjunto finito de soluciones, en esta no se exige ninguna condición o propiedad sobre la función objetivo o la definición del conjunto S, donde las variables de decisión deben de ser discretas. El proceso de optimización requiere el uso de herramientas matemáticas avanzadas implementadas en algoritmos, por ello se considera que es interdisciplinaria, ya que se ve relacionado con la investigación operativa, ciencias de la computación y matemáticas discretas. Dentro de la investigación de Optimización Combinatoria existen diversos motivantes, algunos de estos son la existencia de múltiples aplicaciones reales de la optimización, y se podría decir que la carrera computacional no tiene fin, dado a los constantes cambios y avances en este sector, y con ello puede surgir la oportunidad de contribuir a la grandeza del pensamiento algorítmico. En este existe una metodología muy importante para poder diseñar algoritmos basados en caracterización, son tres elementos principalmente, estos son: Caracterización: Son factores que influye en el desempeño, son identificados y cuantificados usando índices. Refinación de características: Índices incorrectos e irrelevantes son descartados y nuevos índices son generados. Estudio de relaciones: Un análisis de características del proceso de optimización es efectuado para obtener relaciones de desempeño. La optimización combinatoria es implementada también en el tema de empaquetado de objetos, su relevancia se observa en problemas de consolidación de carga en centros de datos, los cuales pueden ser modelados con 1-D BPP. Por último, se puede mencionar algunos aspectos críticos del proceso de optimización, el primero es que existe poco conocimiento del por qué las estrategias heurísticas muestran cierto desempeño, y la segunda es que existe la necesidad de guías que se conviertan en un estándar para el diseño de algoritmos heurísticos basado en el análisis teórico y experimental.