Conferencias Magistrales

Dr. Miguel Onofre Martínez Rach

Departamento de Física y Arquitectura de Computadores Escuela Politécnica Superior de Elche Universidad Miguel Hernández

Semblanza:
Conferencia Magistral 1: "Uso de algoritmos meta-heuristicos para la codificación del signo de los coeficientes wavelet en imágenes"

La transformada Wavelet está considerada como una potente herramienta para la compresión de imágenes porque es capaz de compactar tanto la información frecuencial como la espacial de la energía de una imagen en un pequeño número de coeficientes. En los últimos años se ha considerado la codificación del signo de estos coeficientes para mejorar la compresión de la imagen. La potencial correlación entre el signo de un coeficiente y el signo de sus vecinos abre la posibilidad de utilizar un predictor del signo basado en contextos de predicción, para mejorar el proceso de compresión. Sin embargo, esta relación no es uniforme ni constante en una imagen ni para el resto de imágenes.
En esta ponencia analizaremos la conveniencia de incluir técnicas de codificación del signo en compresores de imagen basados en la transformada wavelet. Mostraremos una metodología basada en el uso de algoritmos metaheurísticos que permita encontrar una distribución de los contextos que maximice el rendimiento del predictor del signo y por tanto la tasa de compresión, usando un determinado compresor wavelet de imágenes.

Conferencia Magistral 2: "HEVC and beyond"

Se presentan los mecanismos más relevantes usados en la codificación de video. Estándar HEVC: Estructura del codificador/decodificador, mejoras respecto H.264/AVC, Nuevos conceptos CU, PU y TU, Predicciones Intra e Inter, Filtros y Prestaciones. Algunos mecanismos, basados en el sistema visual humano, que son capaces de mejorar la percepción de los videos reconstruidos y su integración en el HEVC. Más allá del HEVC, JEM y VVC, diferencias fundamentales con el HEVC.

Dra. Marta Cabo Nodar

Instituto Tecnológico Autónomo de México

Semblanza:
Conferencia Magistral 3: "Problemas de Corte y Empaquetamiento: Separando piezas irregulares mediante cortes guillotina"

La fabricación de un gran número de productos que nos rodean comienza como materia prima que necesita cortarse como parte de su proceso de producción: ropa, calzado, muebles, tuberías, ventanas... son sólo algunos de estos ejemplos. Incluso el transporte de estos productos se debe realizar en un ambiente seguro tanto para el conductor y su entorno como para el producto en sí. Por lo que su correcta colocación en los contenedores que lo van a distribuir también debe tenerse en cuenta dentro de los procesos de la cadena de suministros .
Los problemas de corte y empaquetamiento cubren un amplio espectro de aplicaciones que van desde el corte de la materia prima y la minimización del desperdicio generado hasta la carga de los contenedores para la distribución del producto final. Estos problemas se han tratado desde los años sesenta y, aunque existe un gran legado de métodos y aplicaciones, todavía hay muchos problemas abiertos. En esta plática se dará una introducción a los problemas de corte y empaquetamiento, enfoc´ndose no sólo en las aplicaciones sino también en las dificultades que se presentan en este tipo de problemas. Se revisar´n algunos conceptos clave y metodologías existentes para la resolución de los problemas. Para finalizar la charla, se hablar´ del problema en concreto de cortar piezas de cristal de una placa bidimensional mediante cortes guillotina. .

Dr. Nodari Vakhania

Universidad Autónoma del Estado de Morelos

Semblanza:
Conferencia Magistral 1: "Cálculos con algoritmos computacionales"

. Las computadoras nos ayudan hacer los mismos cálculos que podemos hacer nosotros, pero muchísimo más rápido y preciso. La comunicación entre nosotros y las computadoras es a través de programas que "entienden" las computadoras. Un programa computacional bien hecho está conformado por una secuencia de operaciones con un resultado final matemáticamente justificable. A esta secuencia de operaciones nosotros referimos como algoritmo computacional. La teoría de los algoritmos computacionales está basada en el razonamiento rígido matemático, que nos ayuda a estimar el tiempo esperado de la ejecución de un algoritmo en una computadora y garantizar el resultado esperado. En esta plática, hablaremos sobre los conceptos básicos requeridos para el desarrollo y análisis de un algoritmo computacional.

Dr. Rafael Rivera López

Instituto Tecnológico de Veracruz

Semblanza:
Conferencia Magistral 4: "Metaheurísticas para inducir modelos de clasificación: El caso de los árboles de decisión"

. El estudio de las técnicas de aprendizaje automático para inducir modelos a partir de conjuntos de datos se ha vuelto relevante en años recientes debido a la creciente demanda de análisis de datos en disciplinas como la ciencia de datos, la inteligencia de negocios y el big data. Dependiendo del problema que resuelvan, características como la precisión y el nivel de interpretabilidad del modelo inducido son la guía para utilizar una u otra técnica de aprendizaje, como las redes neuronales, las máquinas de soporte vectorial o los árboles de decisión. Los árboles de decisión destacan por su alto nivel de interpretabilidad y robustez y son muy utilizados en áreas donde es importante conocer la secuencia de decisiones que se toman para diagnosticar o determinar la membresía de clase de un caso en estudio. Debido a que las técnicas tradicionales implementan criterios greedy para construir un árbol de decisión, el uso de metaheurísticas como los algoritmos genéticos y la programación genética representan una opción viable para obtener modelos más precisos. En esta plática se analizan las diferentes estrategias en las que se han utilizado estos métodos de cómputo inteligente para construir árboles de decisión, enfocándonos en la representación de las soluciones candidatas y en la forma en que se implementa el proceso de búsqueda.

Mtro. Tomás Alberto Salmerón Enciso

Colegio Científico de Datos

Semblanza:
Conferencia Magistral 5: "Algoritmos avanzados predictivos con software R para la correcta toma de decisiones empresarial."

Una cuestión creciente en el campo de la actividad e investigación empresarial es el de ser un requisito indispensable obtener resultados predictivos significativos para una correcta toma de decisiones. Las técnicas estadísticas avanzadas en el análisis predictivo unido a un potente software como R, una vez tratados los datos anómalos que aparecen constantemente en el Big Data, permiten crear algoritmos complejos que predicen el futuro empresarial y procede a tomar decisiones fundamentadas sobre venta de productos, contratación, despido y clasificación de empleados,... Para ello, el científico de datos debe aunar conocimientos actuales y avanzados en estadística y matemática junto a conocimientos profundos en programación y visualización de datos, siendo R un lenguaje de programación estadístico, potente y gratuito que permite realizar todas las técnicas actuales y avanzadas para una inferencia precisa y al cual van migrando cada vez más las grandes y medianas empresas a nivel mundial.