Descripción del curso
El Certified Infra AI Expert: End-to-End GPU-Accelerated AI Systems Training es un programa práctico y completo diseñado para ingenieros de IA, desarrolladores y arquitectos de sistemas que desean dominar el ecosistema de GPUs NVIDIA y construir soluciones de IA listas para producción. A través de laboratorios guiados, aprenderás a trabajar con GPUs de centro de datos (A100, H100), dispositivos edge (Jetson Orin) y herramientas de simulación como Omniverse, cubriendo todo el ciclo de vida de la IA: entrenamiento, optimización, despliegue e integración cloud/edge.
El curso profundiza en la pila NVIDIA AI Enterprise: configuración de drivers, nodos GPU en Kubernetes, Helm charts, NGC Registry, despliegue de contenedores y uso de modelos preentrenados. Verás herramientas clave como DeepStream para analítica de vídeo en tiempo real, RAPIDS para procesamiento de datos acelerado por GPU, Triton Inference Server para inferencia de alto rendimiento, TAO Toolkit y TensorRT para optimización y cuantización de modelos, además de prácticas de seguridad y licenciamiento empresarial.
Una pieza central del entrenamiento es el proyecto final (Capstone), donde diseñarás y desplegarás una solución completa usando hardware y software NVIDIA —por ejemplo, vigilancia con DeepStream, gemelos digitales con Omniverse o IA en el borde con Jetson e integración de sensores IoT— entregando un informe, pipeline de despliegue y demo en video que potenciarán tu portafolio. Al finalizar obtendrás la credencial Certified NVIDIA AI Expert, validando tu capacidad para llevar modelos desde la investigación hasta implementaciones reales y escalables.
Lo que aprenderás:
- Arquitecturar pipelines de IA acelerados por GPU desde la ingestión de datos hasta el despliegue
- Configurar infraestructuras GPU en AWS, Azure y DGX Cloud y gestionar nodos GPU en Kubernetes
- Optimizar modelos para rendimiento y eficiencia con TensorRT y TAO Toolkit
- Implementar inferencia de alto rendimiento con NVIDIA Triton Inference Server
- Desplegar sistemas de análisis de video en tiempo real con NVIDIA DeepStream
- Acelerar procesamiento de datos con RAPIDS y flujos de trabajo con NGC Registry
- Integrar soluciones cloud-edge y sincronización entre dispositivos Jetson y plataformas en la nube
- Aplicar buenas prácticas de seguridad, licenciamiento y DevOps para entornos AI empresariales
Contenido del curso:
- Secciones: 14
- Clases: 120
- Duración: 35 horas
Requisitos:
- Comprensión básica de conceptos de IA/ML como entrenamiento, inferencia y despliegue de modelos.
- Familiaridad con operaciones de línea de comandos en Linux (se recomienda Ubuntu).
- Conocimientos básicos de Docker y contenedores (útil pero no obligatorio — los conceptos clave se tratan en el curso).
- Acceso a un sistema con GPU (NVIDIA A100, H100, L4, o Jetson Orin/Xavier) o instancia GPU en la nube (AWS, Azure, DGX Cloud).
- Conexión a internet estable para descargar contenedores NGC, modelos preentrenados y SDKs.
- Curiosidad y disposición para aprender de forma práctica mediante laboratorios y proyectos reales.
¿Para quién es este curso?
- Desarrolladores AI/ML que quieren ir más allá del entrenamiento y aprender despliegue y optimización en hardware NVIDIA.
- Ingenieros de Edge AI que trabajan con dispositivos Jetson e integración de sensores IoT para aplicaciones en tiempo real.
- Arquitectos de sistemas y DevOps responsables de infraestructuras AI cloud-native y orquestación con Kubernetes.
- Product Managers técnicos y Solution Engineers que necesitan comprensión práctica de NVIDIA AI Enterprise, DeepStream, RAPIDS, Triton y Omniverse.
- Investigadores que desean desplegar pipelines de IA optimizados en entornos de alto rendimiento o sectores específicos como salud, ciudades inteligentes o manufactura.
¿Qué esperas para comenzar?
Inscríbete hoy mismo y lleva tus habilidades al siguiente nivel. ¡Los cupones son limitados y pueden agotarse en cualquier momento!
👉 Aprovecha el cupón ahora – Cupón
Deja un comentario

Cursos relacionados: