Recientemente, Cisco ha realizado un informe llamado "Forecast and Trends, 2017-2022 white paper" [4], donde se afirma que el tráficode video sobre IP alcanzará un 82% del tráfico total sobre IP, cuadruplicándose desde 2017 hasta 2022. Esto significa que cerca de un millón de minutos de contenido de video viajaran a través de la red. El informe también predice un incremento constante en servicios como video bajo demanda (VoD), Live internet video, así como servicios de realidad virtual y realidad aumentada. De esta manera, el tráfico de video bajo demanda, se duplicará para 2022 debido al aumento del número de consumidores, así como por el aumento de las resoluciones de video (4K y 8K), siendo la cantidad de tráfico de video equivalente a 10 billones de DVDs al mes. Por otra parte, debemos tener en cuenta que la tasa de bits necesaria para un video de resolución 4K es de 15 a 18 Mbps, lo que es más del doble que para un video en HD. El estándar de video High Efficiency Video Coding (HEVC) [1] desarrollado por el Joint Collaborative Team on Video Coding (JCT-VC) en 2013, ha reemplazado al estándar anterior H.264/Advanced Video Coding (AVC) standard [2]. El estándar HEVC es capaz de comprimir el doble que H.264 para la misma calidad visual. Sin embargo, esta reducción de tasa de bits se logra a costa de un enorme incremento en la complejidad computacional del proceso de codificación. De hecho, se necesita un 90% más de tiempo que con H264 para codificar una secuencia de video de resolución 2160p. En los últimos años, la reducción de esta complejidad y la reducción de los tiempos de codificación han sido un tema de alto interés en la comunidad científica. En esta charla, presentar&eeacute; algunas de las características que hacen que HEVC tenga tan buenos resultados en cuanto a compresión y cómo estas características afectan al aumento de su complejidad. Además, se presentarán algunas propuestas de paralelización y aceleración del proceso de codificación.
El superordenador más potente de España y quinto de Europa tiene un simbolismo único en el mundo. Su sede, la Torre Girona, en Barcelona, fue la mansión de veraneo de un banquero y exalcalde de la ciudad en el siglo XIX. En el XX pasó a ser un colegio de monjas. En la actualidad el palacio es propiedad de la Universidad Politécnica de Cataluña (UPC). Aunque su antigua capilla sigue conservando vidrieras, cruces y arcos neogóticos ya no es un templo religioso, sino científico. El ordenador MareNostrum IV ocupa toda la nave del antiguo templo. La máquina está rodeada por una vitrina de cristal que amortigua su zumbido constante. Grandes tuberías rojas y azules conducen el agua que sirve para refrigerar este coloso capaz de hacer más de 12.000 billones de cálculos por segundo. Este computador atesora el mayor mapa tridimensional que existe de nuestra galaxia, la Vía Láctea. Es capaz de crear una simulación de la Tierra al completo, reproducir su clima, su evolución, incluso modelar sociedades complejas y analizar sus posibles futuros en función del cambio climático, las epidemias, las guerras o los pactos internacionales capaces de frenar esas catástrofes. Una de sus últimas utilidades es leer los miles de millones de letras del genoma de una persona y recomendar un tratamiento específico para su enfermedad. El padre intelectual de esta máquina es el hijo de dos agricultores de Aragón que tuvieron que dejar el colegio para trabajar el campo. Mateo Valero (Alfamén, Zaragoza, 1952) despuntó en matemáticas desde niño. Le mandaron a estudiar a Zaragoza y después se hizo ingeniero de telecomunicaciones. En los ochenta comenzó a enseñar arquitectura de computadores, una disciplina en auge, en la Politécnica de Cataluña. Desde entonces, dice con tono mafioso, ha creado una "familia" europea con más de 1.000 doctores de esta disciplina cuyos tentáculos llegan "a todas partes" (Nuño Domínguez, 2 de Diciembre del 2019, el PAÍS). El Dr. Valero nos hablará en la XIII edición del CICOS (2020) del desarrollo del BSC en los últimos años y del diseño de las arquitecturas computacionales en el Futuro. .
Existen diversas áreas de trabajo que requieren la optimización de una función en un dominio acotado, y en cuya solución puede existir requisitos adicionales o restricciones. En ocasiones la solución de este problema por métodos analíticos o bien no es posible o si lo es no permiten ser resueltos cumpliendo los requisitos de tiempo necesarios. Para solventar este problema ya hace décadas aparecen algoritmos heurísticos de optimización, cuya solución no puede demostrarse que sea correcta, pero que experimentalmente se demuestra que sí aportan soluciones válidas. Se hablará de las características generales de este tipo de algoritmos, en particular de los más conocidos que requieren parámetros de configuración. Se verán propuestas recientes que no requieren de parámetros de configuración. Se describirán algunas opciones utilizadas para la aceleración computacional de estos algoritmos y para la mejora de las prestaciones de la optimización.
La presentación describe el modelo para la participación de los centros de datos y super cómputo en el mercado eléctrico, como agentes que proveen servicios de respuesta a la demanda. En los mercados eléctricos modernos, un gran consumidor con consumo flexible de energía puede participar en el mercado de diferentes formas. Este concepto es clave para implementar estrategias orientadas a redes inteligentes, asociando a los consumidores con los roles de clientes activos y agentes del mercado. Como cliente activo, el consumidor puede adaptar su demanda a las horas punta, reduciendo el consumo en estos periodos y contribuyendo a aplanar la curva de demanda del sistema, o aprovechando tarifas diferenciales en períodos de tiempo donde es preferible consumir. Se pueden establecer acuerdos diarios (basados en precios anunciado de antemano), o estimular un comportamiento dinámico, cuando el precio de la energía está disponible en tiempo real. Actuando como agente, el consumidor puede participar en el mercado eléctrico y recibir ingresos mediante la aplicación de mecanismos que pueden estar restringidos o impulsados por regulaciones, por ejemplo, mediante el establecimiento de acuerdos bilaterales entre un gran consumidor y una empresa generadora o mediante subastas, ofreciendo un perfil de consumo horario y estableciendo precios máximos a pagar. En este contexto, se necesitan estrategias de planificación de respuesta a la demanda para gestionar el consumo energético y poder participar en el mercado, en diferentes roles. Asimismo, se necesitan técnicas específicas para dimensionar las actividades que consumen energía, adelantar o diferir su ejecución, analizar el impacto en la eficiencia energética global y la posible degradación de la Calidad de Servicio (QoS) ofrecida a los usuarios. La investigación presentada aplica técnicas de inteligencia computacional y simulaciones para la resolución de los problemas de optimización vinculados. El caso de estudio abordado es la planificación de la operación del Centro Nacional de Supercomputación (Cluster-UY), Uruguay. La metodología propuesta puede aplicarse también a otros sistemas planificables.
La computación cuántica es un paradigma de computación que aprovecha algunas de las propiedades de las partículas subatómicas (como la superposición, el entrelazamiento o la interferencia) para desarrollar cálculos de manera más eficiente de lo que es posible con ordenadores tradicionales. En esta charla, se presenta el modelo de la computación cuántica, exponiendo los elementos principales del modelo de circuitos cuánticos (qubits, puertas cuánticas y medidas) y se describen algunas de las principales algoritmos cuánticos existentes, como el método de búsqueda de Grover o el algoritmo de factorización de Grover. Además, se repasan algunas de las principales tecnologías de computación cuántica existentes en la actualidad así como las posibles aplicaciones en campos como la simulación física y química y la inteligencia artificial, haciendo especial hincapié en el campo de la optimización combinatoria, donde destacan el modelo de la computación adiabática (en concreto en su implementación práctica como quantum annealing) y el algoritmo cuántico de optimización aproximada (QAOA). Finalmente, se comentan los resultados obtenidos por Google en la llamada "supremacía cuántica" y las posibles direcciones de futuro de esta nueva forma de computación.