Si quieres reducir el tamaño y la carga computacional de tus modelos sin perder precisión, este curso te ofrece las herramientas prácticas necesarias. Basado en técnicas reales de cuantización, poda y destilación, aprenderás a convertir modelos FP32 a BF16 e INT8, implementar cuantización simétrica y asimétrica en Python y preparar modelos para despliegue en dispositivos móviles y IoT.
El contenido combina teoría y práctica con ejemplos aplicables al mundo real, ideal tanto para desarrolladores como para científicos de datos y entusiastas de machine learning que buscan optimizar e implementar modelos eficientes. ¿Listo para acelerar tus modelos y hacerlos desplegables en edge devices? Inscríbete y comienza a optimizar hoy mismo.
Lo que aprenderás:
- Comprender los conceptos clave de Cuantización, Poda (Pruning) y Destilación.
- Conocer y comparar formatos numéricos: FP32, FP16, BFloat16 e INT8.
- Convertir y downcastear parámetros de modelos de FP32 a BF16 e INT8 para compresión eficiente.
- Implementar cuantización simétrica y asimétrica en Python con aplicaciones reales.
- Optimizar modelos para que sean más rápidos y eficientes energéticamente en dispositivos móviles e IoT.
- Preparar modelos para despliegue en edge devices manteniendo el rendimiento.
Contenido del curso:
- Secciones: 8
- Clases: 30
- Duración: 4 horas aproximadamente
Requisitos:
- Conocimientos básicos de Python (recomendado).
- No se requiere experiencia previa en Inteligencia Artificial.
¿Para quién es este curso?
- Principiantes en machine learning que desean aprender técnicas prácticas de optimización como la cuantización.
- Profesionales y estudiantes de IA que quieren optimizar modelos para despliegue en dispositivos con recursos limitados.
¿Qué esperas para comenzar?
Inscríbete hoy mismo y lleva tus habilidades al siguiente nivel. ¡Los cupones son limitados y pueden agotarse en cualquier momento!
👉 Aprovecha el cupón ahora – Cupón
Deja un comentario

Cursos relacionados: