LSTM
El mecanismo de atención
-
Modelo seq-to-seq con LSTM y mecanismo de atención de los ejemplos de uso de la documentación de Tensor Flow
-
Modelo seq-to-seq con transformadores, haciendo los transformadores mas o menos a pie de la guías de ejemplos de la documentación de Keras
Usando modelos preentrenados
-
A Visual Notebook to Using BERT for the First Tme. libreta de Alammar de la entrada de su blog A Visual Guide to Using BERT for the First Time
-
Clasificación de textos con transformers. Modificación de esta libreta que ya no funciona, del curso Curso NLP de 0 a 100 de la Sesión 4: Transformers y Aprendizaje por Transferencia