La búsqueda de nuevos materiales ha sido constante desde el inicio de la civilización. Los materiales son tan importantes que las eras de la humanidad están divididas de acuerdo a los materiales descubiertos en ellas.
A pesar de ello, tan solo 10 % de las combinaciones de 3 elementos metálicos de la tabla periódica son conocidos. ¿Cuales las propiedades de las aleaciones desconocidas? ¿Son sustentables ambientalmente? ¿Son superconductoras a temperatura ambiente? ¿Son mas duras que el diamante? Dicha búsqueda de información requiere la combinación de métodos ultra-rápidos de producción de aleaciones con algoritmos genéticos o redes neuronales. En esta presentación primero introducimos un nuevo método para diseñar aleaciones para trenes de aterrizaje a través de explorar el espacio termodinámico; esta estrategia ha dado lugar a la concepción de nuevos materiales. Al definir criterios de optimización claros y las propiedades deseadas, es posible concebir estrategias de muestreo para indicar las direcciones en las que nuevos descubrimientos pueden ser realizados; en dicha búsqueda, las técnicas de inteligencia artificial juegan un papel preponderante. |
In this talk, main international GRID collaborations in LA, individual efforts in some countries, and main current initiatives, national and international, will be addressed. Some background and success stories in the area will be recalled and currently ongoing projects will be described. One of the first regional efforts in LA was the Latin American Grid Initiative, launched in 2005, and sponsored by IBM. It involves several Florida universities and some others from Latin America and Spain, specifically Mexico, Argentina, and Puerto Rico. In the case of Mexico, one of the first national grid initiatives was the GRAMA project (Mexican Academic GRID, 2004-2005) which aimed at the construction of an inter institutional Grid in Mexico, sponsored by CUDI (Mexican NREN) and CONACYT (Mexican Ministry of Science and Technology). After GRAMA, a second national initiative also sponsored by the same actors was the LNGSeC project (GRID National Laboratory for e-Science Support) whose focus was mainly on the development of national infrastructure to support climate model applications.
Simultaneously to several of these efforts, EELA was helping in a very important way in the development of GRID infrastructure, human resources training and in the process of application gridification. EELA initiated the 1st of January 2006, coordinated by CIEMAT (Spain). It was a 2-year project run by 21 institutions of Europe and Latin America under the FP6 Programme. EELA-2 (E-science grid Facility for Europe and Latin America) was approved to continue previous success but ended in March 2010. EELA-2 left behind a high-value legacy of 11 JRU in LA and 61 running applications in different scientific areas.
Today, from a regional perspective, Latin America participation in GISELA (Grid Initiatives for e-Science virtual communities in Europe and Latin America) becomes crucial since after JRUs consolidation in 11 LA countries, the main tasks of GISELA will be to foster the creation of National Grid Initiatives (NGI) at the country level, and of the Latin American Grid Initiative (LGI) at the continental level, in close collaboration with National Research and Education Networks (NRENs) and CLARA. Today´s participation of Latin American countries in EPIKH (Exchange Programme to advance e-Infrastructure Know-How) is very important in terms of reinforcing the impact of e-infrastructure in scientific research, and educational events, such as grid schools and HPC courses.
Finally, it is well known that grid applications depend on connectivity, international and domestic; hence, CLARA is a critical regional infrastructure that needs to find a long term financial model and increase bandwidth to its member countries. The current status of CUDI´s infrastructure will also be discussed as well as a recent federal initiative in Mexico to promote high capacity bandwidth access as a citizen universal right. |
Resumen.Un gran reto que surge con el Gran Colisionador de Hadrones (LHC) es el de contar con los recursos de cómputo necesarios para almancenar y procesar los PetaBytes de información que son generado cada año por los experimento del Gran Colisionador. La capacidad de cómputo requerida no puede ser concentrada en un sólo centro de cómputo por lo que se empleó la tecnología Grid para contruir una infraestructura de cómputo distribuido que de soporte a todos los experimientos del LHC y otras áreas de investigación, entre ellas la bioinformática.
Esta infraestructura Grid esta implementada principalmente con el middleware Glite pero interactua con otros middlewares como OSG, ARC y UNICORE, todos ellos basados en Globus. El middlware esta compuesto por en una serie de componentes de software que permiten distribuir y organizar los datos y la carga de procesamiento alrededor del mundo y por otro lado existe una serie de herramientas de software que permiten administrar, coordinar y administrar la infraestructura organizada en regiones y paises.
Se describirán los componentes principales de la infraestructura Grid basada en el middlware Glite y como interactuan con las herramientas administrativas, tomando como caso práctico la infraestructura Grid en Latino América representada por el Regional Operation Center for Latin America (ROC-LA). |
Resumen. Esta conferencia presenta la naturalidad que tienen los algoritmos iterativos para ser fácilmente paralelizados y como sus características y distributividad permiten aprovechar todas los beneficios de arquitectura en una GPU logrando la posibilidad de paralelizar algoritmos muy complejos y llevándolos al máximo rendimiento como lo es el algoritmo numérico del gradiente conjugado en sistemas lineales y no lineales masivos, al igual se mostrará un proceso de caracterización de arquitecturas tanto en GPU NVIDIA como con GPU AMD-ATI con las diferentes extensiones del lenguaje C que existen para programación GPU CUDA & OpenCL
La vanguardia que las nuevas tecnologías con arquitecturas paralelas como lo son las Tarjetas GPU ofrecen un nuevo desafío en el diseño de algoritmos pese a ello existen varios de estos con hasta 100 años de antigüedad que fueron pensados pero jamás aplicados por las limitantes tecnológicas, a nuestra generación llegó el reto de sacar el máximo performance a los sistemas masivamente paralelos y con ello resolver problemas que difícilmente se lograba con las actuales tecnologías de procesamiento. De entre estos algoritmos sacaremos provecho a los llamados iterativos resolviendo grandes matrices de datos en operaciones paralelas y como se plantean las estrategias para optimizar dependiendo del sistema de cálculos computacionales que nos ofrecen las Tarjetas GPU de NVIDIA y AMD-ATI. |