Tesla

POWER NEW LEVELS OF USER ENGAGEMENT
Boost throughput and responsive experiences in deep learning inference workloads.
Boost throughput and responsive experiences in deep learning inference workloads

ACELERA LA INFERENCIA DE DEEP LEARNING

En la nueva era de la inteligencia artificial, el deep learning aporta una precisión sobrehumana para resolver tareas complejas y mejorar nuestras experiencias cotidianas. La voz interactiva, la visión computerizada y el análisis predictivo son solo algunos de los campos en los que los modelos de deep learning con entrenamiento en GPUs han demostrado resultados increíbles e inimaginables hasta ahora.

Cuando se implementan redes neuronales modernas en CPUs para tareas de inferencia, los servicios de inteligencia artificial no pueden ofrecer una velocidad de respuesta suficiente para captar a los usuarios. Los aceleradores NVIDIA® Tesla® P40 y P4 aportan la solución perfecta: están diseñados para ofrecer la máxima velocidad de transmisión y de respuesta que requieren las cargas de trabajo de inferencia para deep learning. Gracias a la arquitectura NVIDIA Pascal™, su rendimiento de inferencia es 60 veces superior y les permite ofrecer respuestas en tiempo real incluso con los modelos más complejos de deep learning.

 

ACELERADORES DE INFERENCIA NVIDIA TESLA

Deep Learning Inference Latency

Deep Learning Inference Throughput

 
NVIDIA Tesla P40

MÁXIMA VELOCIDAD DE INFERENCIA PARA DEEP LEARNING

La unidad Tesla P40 está específicamente diseñada para ofrecer la máxima velocidad en inferencia de deep learning. Con un rendimiento de inferencia de 47 TOPS (teraoperaciones por segundo) por GPU, un solo servidor con ocho Tesla P40 tiene la potencia de más de 100 servidores basados en CPU.

Pdf
 

DEEP LEARNING ULTRAEFICIENTE EN SERVIDORES MULTINODO

El sistema Tesla P4 acelera cualquier servidor multinodo y ofrece una eficiencia energética 40 veces superior a la de los sistemas basados en CPU.

Pdf
Hoja de datos de Tesla P4 (PDF – 164KB)
Tesla P4
 

CARACTERÍSTICAS Y VENTAJAS DE LOS ACELERADORES DE DEEP LEARNING

Las GPU permiten obtener predicciones más rápidas que abren la puerte a increíbles experiencias con las aplicaciones de inteligencia artificial.

 
Velocidad multiplicada por 100 para procesar volúmenes de datos en crecimiento exponencial

Velocidad multiplicada por 100 para procesar volúmenes de datos en crecimiento exponencial

En términos económicos, no es viable procesar el volumen de datos generados cada día (información de sensores, imágenes, vídeos y registros) con sistemas basados en CPU. Las GPU con tecnología Pascal aportan a los centros de datos un impresionante rendimiento para procesar cargas de trabajo de deep learning y extraer información útil de este tsunami de datos. Un solo servidor con ocho Tesla P40 puede sustituir a más de 100 servidores basados exclusivamente en CPU para cargas de trabajo de deep learning, con mucha mayor velocidad y un coste de adquisición más reducido.

 
Un motor de descodificación dedicado para los nuevos servicios de vídeo basados en inteligencia artificial

Un motor de descodificación dedicado para los nuevos servicios de vídeo basados en inteligencia artificial

Las unidades Tesla P4 y P40 pueden analizar hasta 39 flujos de vídeo HD en tiempo real gracias a su motor de descodificación dedicado y acelerado por hardware que realiza tareas de inferencia en paralelo con los núcleos NVIDIA CUDA®. Al integrar el deep learning en el procesamiento de vídeo, los clientes pueden ofrecer servicios de vídeo más innovadores e inteligentes a los usuarios.

Eficiencia sin precedentes para servidores multinodo de bajo consumo de energía

Eficiencia sin precedentes para servidores multinodo de bajo consumo de energía

La GPU ultraeficiente Tesla P4 acelera los servidores multinodo de densidad optimizada con un diseño de pequeño formato y 50/75 W de consumo. Ofrece una eficiencia energética 40 veces superior a la de las CPU para cargas de trabajo de inferencia con deep learning. De esta forma, los clientes pueden crecer manteniendo su infraestructura actual y hacer frente al aumento exponencial de la demanda de aplicaciones de inteligencia artificial.


 
Implementación más rápida con NVIDIA TensorRT™ y DeepStream SDK

Implementación más rápida con NVIDIA TensorRT™ y DeepStream SDK

NVIDIA TensorRT es un motor de inferencia de redes neuronales que ofrece alto rendimiento para la implementación de aplicaciones de deep learning. Incluye una librería creada para optimizar los modelos de deep learning en los entornos de producción. Utiliza redes neuronales ya entrenadas, generalmente con datos de 32 o 16 bits, y las optimiza para realizar operaciones de menor precisión (INT8). NVIDIA DeepStream SDK aprovecha la potencia de las GPU Pascal para descodificar y analizar simultáneamente flujos de vídeo.

 

ESPECIFICACIONES DE RENDIMIENTO DE LOS ACELERADORES NVIDIA TESLA P40 Y P4

 
  Tesla P4 para servidores multinodo ultraeficientes Tesla P40 para servidores con máximo rendimiento de inferencia
Rendimiento con precisión simple 5,5 TeraFLOPS 12 TeraFLOPS
Operaciones con enteros (INT8) 22 TOPS* 47 TOPS*
Memoria de la GPU 8 GB 24 GB
Ancho de banda de memoria 192 GB/s 346 GB/s
Interfaz del sistema Formato reducido PCI Express Formato de altura normal PCI Express y dos ranuras
Alimentación eléctrica 50 W/75 W 250 W
Motor de vídeo con aceleración por hardware 1 motor de descodificación, 2 motores de codificación 1 motor de descodificación, 2 motores de codificación

*Teraoperaciones por segundo con frecuencia de reloj aumentada

HOJAS DE DATOS DE NVIDIA TESLA P40 Y P4

Pdf
Pdf
 
 

CONSIGUE HOY MISMO UN NVIDIA TESLA P40 O P4

Las unidades Tesla P40 y P4 ya están disponibles para ofrecer la máxima velocidad en inferencia de deep learning.

DÓNDE COMPRAR

 
CUDA y el GPU Computing

Qué es el GPU Computing
Hechos sobre el GPU computing
Programación para la GPU
Arquitectura de GPU Kepler
Computación en la nube con las GPUs
Contacto

Qué es CUDA
Escaparate de aplicaciones CUDA
Formación en CUDA
Centros de Excelencia CUDA
Centros de Investigación de CUDA
Centros de Enseñanza de CUDA

Aplicaciones para la GPU

Aplicaciones para GPUs Tesla
Casos de estudio sobre Tesla
Directivas de OpenACC
Prueba de GPUs Tesla

GPUs Tesla para servidores
y estaciones de trabajo

Por qué elegir Tesla
Soluciones Tesla para servidor
Soluciones Tesla para estaciones
de trabajo

Plataforma de desarrollo integrado
Comprar GPUs Tesla

Noticias e información
sobre Tesla

Documentación sobre los
productos Tesla

Características del software
para Tesla

Herramientas de desarrollo de
software para Tesla

NVIDIA y la investigación
Alertas de Tesla

Síguenos en la red

NVIDIA Blog Blog de NVIDIA
Facebook Facebook
Twitter @NVIDIA_ES
YouTube YouTube