Presentaciones usadas en el curso
-
El modelo de transformadores (muy fea mis presentación pero no me alcanzó pa más el seso)
-
LagChain: Get your LLM application from prototype to production, su documentación y si repositorio de GitHub
Explicaciones gráficas
-
The Unreasonable Effectiveness of Recurrent Neural Networks (Karpathy, 2015)
-
Using Triplet Loss and Siamese Neural Networks to Train Catalog Item Embeddings (Ramachandran, 2021)
-
BERT 101 🤗 State Of The Art NLP Model Explained (Muller, 2022)
-
A Visual Guide to Using BERT for the First Time (Alammar, 2019)
-
The Illustrated GPT-2 (Visualizing Transformer Language Models) (Alammar, 2019)
-
How GPT3 Works - Visualizations and Animations (Alammar, 2020)
Artículos seminales
-
Neural Machine Translation by Jointly Learning to Align and Translate (Bhadanau et al, 2014)
-
Deep contextualized word representations (Peters et al, 2018)
Sitios y herramientas interesantes
-
La de base si estás en tensorflow: Keras
-
Para NLP, está Keras NLP, la cual es una librería que funciona en forma nativa con Tensorflow, JAX y/o pyTorch. En general ayuda a establecer un flujo de trabajo tanto de entrenamiento como de puesta en producción de procesos de NLP. Muy pensada para el uso y ajuste fino de modelos preentrenados.
-
Si estás haciendo PLN con modelos profundos, no es posible vivir sin conocer a fondo Hugging Face. Es una compañía que mantiene un entorno de desarrollo abierto, una colección de modelos preentrenados, y una librería (la librería de transformadores mñas importante al momento), así como facilidades para poner los modelos en producción.
-
Para recursos específicos en español, Hugging Face mantiene una rama en los países que hablamos español, Somos NLP. Muy recomendable. Incluye una bolsa de trabajo (muy centrada en España por el momento, pero que esperamos crezca).
-
La Sociedad Española para el Procesamiento del Lenguage Natural (SEPLN) es una de las organizaciones científicas en el área de informñatica más antiguas de España, y mantiene una revista desde 1983. Información interesante, acceso gratuito a la revista, congresos, hackatones. Todo muy español, pero con muchos lazos en Latinoamñerica y en espacial con México.