LABORATORIO DE OPTIMIZACIÓN

 

El Cuerpo Académico Optimización y Software, cuenta con un laboratorio de optimización el cual  es utilizado por los estudiantes de doctorado, maestría y licenciatura. El laboratorio cuenta con el siguiente equipo:

Cantidad Nombre del equipo Características Imagen
1 Computadora DELL Studio XPS 8100 Procesador Intel Core i7-870 (8MB Cache, 2.93 GHz), Windows 7 Ultimate 64 bits, 3GB DDR3 SDRAM a 1066MHz, 320GB HD a 7.2RPM, Panel Plano Dell de 24" ST2410.

1 DELL Precision Workstation T7400 Dos Procesadores Intel Xeon®, cada uno cuadruple 3.16GHz, 2x4MB L2 cache 1333 Mhz, Windows Vista Ultimate X64, 4GB RAM, SDRAM 667 Mhz, 146GB HD a 15k RPM, Panel Plano Dell  de 24" NVIDIA 256MB

1 DELL Precision Workstation 490 Dos Procesadores Intel Xeon®, cada uno dual 3.0GHz, 2x2MB L2 cache 1333 Mhz, WindowsXP PRO, RAM de 2GB, DDR2 SDRAM 533Mhz 2x1GB, 160GB HD, Panel Plano Dell UltraSharp de 20" "Widescreen"

1 Computadora DELL XPS 420 Procesador Intel® Pentium® CORE 2 Duo E6850, 4MB, 3.0GHz, Windows Vista Ultimate, RAM 2GB DDR2 SDRAM a 667MHz, 250GB HD, 7.2k RPM, Panel Plano 22" Ultrasharp

4 Computadora DELL Dimension 5150

Procesador Intel® Pentium® Dual 820 con Tecnología de Doble Núcleo (2.80GHz), WindowsXP, RAM 1GB DDR2 SDRAM a 533MHz, 160GB HD, Panel Plano Digital "Widescreen" de 19"

1 Computadora DELL OptiPlex GX280 Procesador Intel® Pentium 4, 2.80GHz, WindowsXP Home, RAM 504MB DDR2, 80 GB HD, Monitor de 17"

1 VideoProyector Viewsonic PJ402D-2

2000 LUMENES, SVGA 2.1kg,  NEGRO

 

El Cuerpo Académico Optimización y Software de la UAEM en colaboración con el Cuerpo Académico Cómputo Intensivo Aplicado a la Ingeniería, del Instituto Tecnológico de Veracruz y la Universidad Politécnica del Estado de Morelos construyo la MiniGRID Tarántula, para trabajar en sus líneas de investigación.

La GRID, cuenta en la actualidad con 58 nodos CPU (186 cores),  171 GB RAM, 34 Terabytes HD, 2 nodos GPU (1792 cores), 72GB RAM, 2 Terabytes HD. Actualmente esta MiniGRID esta formada por tres clusters de alto rendimiento, uno localizado en Cuernavaca, Morelos (UAEM), el cluster CUEXCOMATE, otro localizado en Veracruz, Veracruz (ITVer), el cluster NOPAL y el último localizado en Jiutepec Morelos (UPEMOR), el cluster TEXCAL.

A futuro, se pretende  crecer la MiniGrid Tarántula con la participación por invitación de otras universidades, para más información consultar la página del proyecto Grid Morelos.

Cada cluster conectado a la MiniGRID Tarántula cuenta actualmente con el siguiente equipo:

 

Tabla 1. Infraestructura Hardware y Software del Cluster de producción CUEXCOMATE.

Ubicación: Laboratorio de Optimización, CIICAp, UAEM, Cuernavaca, Morelos.

ELEMENTO

HARDWARE

SOFTWARE

Comunicaciones

Switch 3COM 24/10/100/1000

Switch Infiniband Mellanox de 18 puertos de 40 Gb/s

 

NODO MAESTRO Y DE CÓMPUTO

  • S.O. Centos 5.5
  • Torque 2.3 con Maui 3.2
  • Ganglia
  • Cluster Instalation and Administration (CIA)
  • Intel Cluster Toolkit compiler edition for linux academia

NODO GPU

  • S.O. Centos 5.5
  • Drivers propietarios Nvidia
  • Compiladores GNU-Linux GCC
  • Compilador Nvidia-CUDA
  • Depuradores: Depuración codigos paralelos en híbrido CPU-GPU. GNU. Front-End gráfico para todo lenguaje. Nativo para GPU de Nvidia.
  • APIs para programación paralela: OpenMP, MPI, OpenCL-Nvidia.
  • Bibliotecas cómputo numérico: para desarrollo de aplicaciones CPU-GPU. Para cómputo científico en varios lenguajes, en sus versiones serial y paralela: BLAS, LAPACK, Científica GNU para C y C++, ATLAS, FFW, CUBLAS, CUFFT, CURAND, CURPARSE.
  • Editor Vim
  • IDE Eclipse Helios
  • Herramientas de monitoreo CUDA: CUDA profiler, CUDA memcheck, nvidia-smi, cudafe, cudafe++.
  • OpenMPI 1.2.8
  • MPICH2-1.0.8
  • OpenVPN

 

Nodo maestro CPU

 

 

Total 12 cores

Total 24 GB RAM

Total 12 TB HD

1 Motherboard:

  • 2 procesadores Intel Xeon  Six Core a 3.06 GHz, 12 MB cache.
  • 2 HD Enterprise, 7200 RPM de 500GB (para S.O.). 
  • 6 HD Enterprise, 7200  RPM, 12 TB en total.
  • 6 modulos RAM de 4GB 1333MHZ DDR3. Total de 24 GB RAM.
  • 1 tarjeta Infiniband 40Gb/s

Nodos de procesamiento

CPU

 

01 al 04

 

Total 48 cores

Total 96 GB RAM

Total 2 TB HD

1 Motherboard:

  • 2 procesadores Intel Xeon  Six Core a 3.06 GHz, 12 MB cache.
  • 1 HD Enterprise, 7200 RPM de 500GB. 
  • 6 modulos RAM de 4GB 1333MHZ DDR3. Total de 24 GB RAM.

1 tarjeta Infiniband 40Gb/s

Nodo  de procesamiento GPU

 

05

 

 

Total 896 cores

Total 36 GB RAM

Total 1 TB HD

1 Motherboard:

  • 1 procesador Intel Xeon  Six Core a 3.06 GHz, 12 MB cache.
  • 2 HD Enterprise, 7200 RPM de 500GB. 
  • 9 modulos RAM de 4GB 1333MHZ DDR3. Total de 36 GB RAM.
  • 2 tarjetas NVIDIA TESLA C2070, arquitectura Fermi,  con 6 GB RAM DDR5 c/u. 448 cores c/u.
  • DVD/RW
  • Lector de memoria

1 tarjeta Infiniband 40Gb/s

 

Tabla 2. Infraestructura Hardware y Software del Cluster de pruebas CIICAp.

Ubicación: Laboratorio de Optimización, CIICAp, UAEM, Cuernavaca, Morelos.

ELEMENTO

HARDWARE

SOFTWARE

Comunicaciones

Switch Cisco C2960 24/10/100

Cableado interno nivel 5

 

Nodo maestro

Pentium 4, 2793 MHz

512 MB Memoria

80 GB disco duro

2 tarjetas 10/100 Mb/s

S.O. Red Hat Enterprise Linux 4

Compilador gcc versión 3.4.3

            OpenMPI 1.2.8

            MPICH2-1.0.8

            Ganglia 3.0.6

            NIS ypserv-2.13-5

            NFS nfs-utils-1.0.6-46

OpenVPN      

 

 

 

 

Nodos de procesamiento

 01 al 18

 

 

Intel® Celeron® Dual  Core, 2000MHz, RAM 2GB RAM, 160GB disco duro, tarjeta 10/100 Mb/s

 

Tabla 3. Infraestructura Hardware y Software del Cluster de producción TEXCAL.

Ubicación: Laboratorio de Cómputo, UPEMOR, Jiutepec, Morelos.

ELEMENTO

HARDWARE

SOFTWARE

Comunicaciones

Switch 3COM 24/10/100/1000

Switch Infiniband Mellanox de 18 puertos de 40 Gb/s

 

NODO MAESTRO Y DE CÓMPUTO

  • S.O. Centos 5.5
  • Torque 2.3 con Maui 3.2
  • Ganglia
  • Cluster Instalation and Administration (CIA)
  • Intel Cluster Toolkit compiler edition for linux academia

NODO GPU

  • S.O. Centos 5.5
  • Drivers propietarios Nvidia
  • Compiladores GNU-Linux GCC
  • Compilador Nvidia-CUDA
  • Depuradores: Depuración codigos paralelos en híbrido CPU-GPU. GNU. Front-End gráfico para todo lenguaje. Nativo para GPU de Nvidia.
  • APIs para programación paralela: OpenMP, MPI, OpenCL-Nvidia.
  • Bibliotecas cómputo numérico: para desarrollo de aplicaciones CPU-GPU. Para cómputo científico en varios lenguajes, en sus versiones serial y paralela: BLAS, LAPACK, Científica GNU para C y C++, ATLAS, FFW, CUBLAS, CUFFT, CURAND, CURPARSE.
  • Editor Vim
  • IDE Eclipse Helios
  • Herramientas de monitoreo CUDA: CUDA profiler, CUDA memcheck, nvidia-smi, cudafe, cudafe++.
  • OpenMPI 1.2.8
  • MPICH2-1.0.8
  • OpenVPN

 

Nodo maestro CPU

 

 

Total 12 cores

Total 24 GB RAM

Total 12 TB HD

1 Motherboard:

  • 2 procesadores Intel Xeon  Six Core a 3.06 GHz, 12 MB cache.
  • 2 HD Enterprise, 7200 RPM de 500GB (para S.O.). 
  • 6 HD Enterprise, 7200  RPM, 12 TB en total.
  • 6 modulos RAM de 4GB 1333MHZ DDR3. Total de 24 GB RAM.
  • 1 tarjeta Infiniband 40Gb/s

Nodos de procesamiento

CPU

 

01 al 04

 

Total 48 cores

Total 96 GB RAM

Total 2 TB HD

1 Motherboard:

  • 2 procesadores Intel Xeon  Six Core a 3.06 GHz, 12 MB cache.
  • 1 HD Enterprise, 7200 RPM de 500GB. 
  • 6 modulos RAM de 4GB 1333MHZ DDR3. Total de 24 GB RAM.

1 tarjeta Infiniband 40Gb/s

Nodo  de procesamiento GPU

 

05

 

 

Total 896 cores

Total 36 GB RAM

Total 1 TB HD

1 Motherboard:

  • 1 procesador Intel Xeon  Six Core a 3.06 GHz, 12 MB cache.
  • 2 HD Enterprise, 7200 RPM de 500GB. 
  • 9 modulos RAM de 4GB 1333MHZ DDR3. Total de 36 GB RAM.
  • 2 tarjetas NVIDIA TESLA C2070, arquitectura Fermi,  con 6 GB RAM DDR5 c/u. 448 cores c/u.
  • DVD/RW
  • Lector de memoria

1 tarjeta Infiniband 40Gb/s

Tabla 4. Infraestructura Hardware y Software del Cluster de producción NOPAL.

Ubicación: Laboratorio de Cómputo Intensivo CI-ITVer1, ITVer, Veracruz, Veracruz.

ELEMENTO

HARDWARE

SOFTWARE

Comunicaciones

Switch 3com 8/10/100

Cableado interno nivel 5

 

Nodo maestro

Pentium 4, 2394 Mhz

512 GB Memoria

60 GB disco duro

2 tarjetas 10/100 Mb/s

S.O. Red Hat Enterprise Linux 4

Compilador gcc versión 3.4.3

            OpenMPI 1.2.8

            MPICH2-1.0.8

            Ganglia 3.0.6

            NIS ypserv-2.13-5

            NFS nfs-utils-1.0.6-46

OpenV PN

 

 

 

Nodo de procesamiento 01 al 07

Pentium 4 Dual Core, 3200 Mhz

1 GB Memoria

80 GB disco duro

1 tarjetas 10/100 Mb/s

 

 

Nodo de procesamiento 08 al 14

Pentium 4 Dual Core, 3201 Mhz

1 GB Memoria

80 GB disco duro

1 tarjetas 10/100 Mb/s

 

El Cuerpo Académico Optimización y Software, a través del laboratorio de optimización tiene acceso a la Supercomputadora de la UAEM para trabajar en sus líneas de investigación.

Nombre del Equipo

Características Imagen

IBM PSeries 690 (Regatta)

Supercomputadora Paralela IBM p690, 32 procesadores 1.3GHz y 32GB RAM

 

ACTIVIDADES EN EL LABORATORIO DE OPTIMIZACIÓN, CIICAp, UAEM

 

Trabajos actuales: Actualmente se realizan pruebas de complejidad, eficacia y eficiencia de nuevas propuestas heurísticas en búsquedas de vecindades para mejorar el desempeño de heurísticas, como son Recocido Simulado, Algoritmos Genéticos, Técnicas de Satisfacción de Restricciones y Colonia de Hormigas. Los problemas de aplicación  que actualmente se utilizan para evaluar las nuevas heurísticas, son problemas del tipo NP-duros, como son la Calendarización de Máquinas en un Taller de Manufactura Flexible, la Calendarización de Horarios de Cursos Universitarios, el Ruteo de Vehículos con Ventanas de Tiempo para la Satisfacción de las Demandas de los Clientes, Máquinas en Paralelo no Relacionadas, Flujo Flexible de Trabajos en un Sistema de Estados en Serie y Redes Hidráulicas. Cada uno de éstos problemas abordan una función objetivo distinta la cual se busca optimizar.

 

16/07/2012