3.8.4 AIM/Procesamiento de Lenguaje Natural con Transformers
Temas:
Core Tier1
- Arquitectura Transformer y auto-atención
- BERT y modelos de lenguaje pre-entrenados
- Modelos GPT y generación autoregresiva
- Transformers multimodales
- Variantes eficientes de transformers
Objetivos de Aprendizaje (Learning Outcomes):
Core-Tier1:
- Implementar modelos transformer desde cero [Usar]
- Afinar modelos de lenguaje pre-entrenados [Usar]
- Aplicar modelos GPT para generación de texto [Usar]
- Usar transformers multimodales para tareas cross-modales [Usar]
Generado por Ernesto Cuadros-Vargas , Sociedad Peruana de Computación-Peru, basado en el modelo de la Computing Curricula de IEEE-CS/ACM