TESLA

  • CUDA Y EL GPU COMPUTING
  • APLICACIONES PARA LA GPU
  • GPUs PARA SERVIDORES Y ESTACIONES DE TRABAJO
Herramientas de gestión de centros de datos
Aplicaciones fundamentales. Herramientas estándar. Ahora aceleradas.
Herramientas de gestión de centros de datos. Aplicaciones fundamentales. Herramientas estándar.  Ahora aceleradas.

Mesos y las GPUs

Mesophere

Gestión de aplicaciones aceleradas en el centro de datos

La plataforma de aceleración computacional Tesla ahora es compatible con Apache Mesos, un conocido administrador de recursos distribuidos que asigna y coordina el uso de las aplicaciones en el centro de datos.

Las GPUs aceleradoras Tesla son recursos nativos de primer orden en Mesos y sus sistemas distribuidos (frameworks) fundamentales, es decir, Marathon y Chronos. Como tales, las diferentes aplicaciones pueden compartirlos con el máximo nivel de eficiencia mientras se ejecutan en paralelo sobre una infraestructura común.

Gestión de aplicaciones aceleradas en el centro de datos
 
 

Más velocidad de proceso de las aplicaciones

La partición dinámica de las GPUs asegura una asignación más eficiente de los recursos por aplicación. La distribución de esos recursos con un alto nivel de granularidad permite aprovecharlos de forma más eficiente y mejorar el rendimiento de las aplicaciones.

Simplicidad operativa

Las aplicaciones aceleradas en la GPU ahora pueden implantarse en un cluster común y compartir recursos con otras aplicaciones, tanto localmente como en la nube. Esto simplifica considerablemente las operaciones en el centro de datos, ya que elimina la carga de mantener múltiples clusters independientes.

 
 
 

Alta disponibilidad

Las aplicaciones aceleradas en la GPU ahora pueden aprovechar la tolerancia a fallos y las funciones de autorrecuperación de Mesos para mejorar su fiabilidad global.

El uso de los sistemas distribuidos Marathon y Chronos también aporta importantes ventajas a las aplicaciones aceleradas:

  • Marathon: soporte de procesos de larga duración con APIs REST para iniciar, detener y escalar aplicaciones.
  • Chronos: ejecución de procesos por lotes basados en cron.
  • Alta disponibilidad, con la opción de ejecutar cualquier número de instancias del planificador (scheduler).
  • Detección de servicios, balanceo de carga y comprobaciones de estado (health).
  • Interfaz de usuario web.
  • Soporte nativo de Docker.

Enlaces de interés

Apache Mesos

 

Blog de Mesos

 
 
 
 
 
 
 
CUDA y el GPU Computing

Qué es el GPU Computing
Hechos sobre el GPU computing
Programación para la GPU
Arquitectura de GPU Kepler
Computación en la nube con las GPUs
Contacto

Qué es CUDA
Escaparate de aplicaciones CUDA
Formación en CUDA
Centros de Excelencia CUDA
Centros de Investigación de CUDA
Centros de Enseñanza de CUDA

Aplicaciones para la GPU

Aplicaciones para GPUs Tesla
Casos de estudio sobre Tesla
Directivas de OpenACC
Prueba de GPUs Tesla

GPUs Tesla para servidores
y estaciones de trabajo

Por qué elegir Tesla
Soluciones Tesla para servidor
Soluciones Tesla para estaciones
de trabajo

Plataforma de desarrollo integrado
Comprar GPUs Tesla

Noticias e información
sobre Tesla

Documentación sobre los
productos Tesla

Características del software
para Tesla

Herramientas de desarrollo de
software para Tesla

NVIDIA y la investigación
Alertas de Tesla

Síguenos en la red

NVIDIA Blog Blog de NVIDIA
Facebook Facebook
Twitter @NVIDIA_ES
YouTube YouTube