*Si quieres consultar otras opciones de pago haz clic aquí
¿Qué es NLP?
NLP o Natural Language Processing se traduce a procesamiento del lenguaje natural y se refiere a la rama de la informática, más concretamente, la rama de la inteligencia artificial que se encarga de dar a los ordenadores la capacidad de entender texto de la misma forma que los seres humanos.
Trailer
Más detalles
Horas de formación
La duración estimada del curso es de 12-14 horas.
Se puede acortar o alargar dependiendo de las horas diarias invertidas.
Requisitos
Conocimientos básicos de Python son útiles, pero no excluyentes. El curso se puede seguir perfectamente aún con conocimientos básicos de programación
Online y a tu ritmo
El 100% de los contenidos del curso son online, por lo que podrás aprender desde cualquier sitio del mundo al ritmo que quieras.
Temario
- AI vs ML vs DL (3:01)
- Tipos de aprendizajes (2:33)
- Aplicaciones del Machine Learning (2:17)
- Tipos de atributos en un set de datos (3:31)
- Función de costo (8:55)
- Underfitting vs Overfitting (7:52)
- Sets de entrenamiento, validación, y evaluación (6:10)
- Validación cruzada (6:48)
- Conceptos (2:12)
- Matriz de confusión (4:39)
- Ejemplo con set de datos imbalanceado (7:28)
- Curva ROC y AUC (4:19)
- Métricas para la regresión (5:34)
- Qué es el NLP (6:40)
- Vectorización (2:32)
- One hot encoding (4:09)
- Matriz término-termino y término-documento (BoW) (4:52)
- TF-IDF (5:19)
- Word Embeddings (3:01)
- Word2Vec (9:33)
- Ejemplo práctico con Skip-gram (4:09)
- Pipeline de NLP (5:46)
- Línea de tiempo (2:20)
- Límites de los modelos lingüísticos (2:32)
- Knowledge Graph (4:57)
- Neural Entity Linking (10:45)
- Qué es y cómo utilizar NLTK (4:44)
- Pasos previos (6:33)
- NLTK Downloader y Corpora (10:08)
- Tokenización (3:51)
- Stopwords (4:08)
- Ejemplo utilizando tokenización y removiendo stopwords (5:36)
- Stemming (5:27)
- Part of speech (POS) (1:46)
- Lematización (3:05)
- Chunking (5:13)
- Chinking (3:09)
- Named Entity Recognition (NER) (4:32)
- Concordance (3:50)
- Dispersion plot (1:19)
- Frequency distribution (14:24)
- WordCloud (2:39)
- Collocations (2:08)
- Ejemplo 1: Identificación del género (7:55)
- Ejemplo 2: Identificación de la categoría de una noticia (8:42)
- Ejemplo 3: Sentiment Analysis (5:26)
- Introducción (4:20)
- Hipervínculos y menciones (8:03)
- Hashtags y retweets (4:29)
- Normalización de caracteres repetidos (3:01)
- Emojis y smileys (4:59)
- Puntuación, dígitos, abreviaciones, y tokenización (6:18)
- Normalización con spaCy (7:34)
- Corrección de la ortografía (5:59)
- Data Augmentation con eda_nlp (11:02)
- Data Augmentation con nlpaug (12:08)
- Presentación de la unidad (6:52)
- Carga del set de datos a utilizar (10:10)
- CountVectorizer (8:47)
- Regresión Lineal (Linear Regression)
- Regresión Logística (Logistic Regression)
- Ejemplo de regresión logística (9:42)
- Vectorizador TF-IDF (4:57)
- Support Vector Machine (9:55)
- SVM - Truco del núcleo (Kernel Trick) (5:41)
- Ejemplo de SVM con SGD
- Metodos fit, transform y fit-transform (10:34)
- Naïve Bayes (9:31)
- Ejemplo de Naïve Bayes (2:40)
- Árboles de decisión y bosques aleatorios
- Ejemplo de árboles de decisión y bosques aleatorios (5:05)
- K-Vecinos próximos (K-Nearest Neighbors)
- Ejemplo de K-NN (5:16)
- Función train-test-split (3:02)
- Búsqueda de grilla con validación cruzada (Grid Search CV) (8:03)
- Presentación de la unidad (3:39)
- ¿Qué es el Deep Learning?
- Modelo Perceptrón
- Redes Neuronales
- Multilayer Perceptron (MLP) con Scikit-learn (8:21)
- Funciones de Activación
- Funciones de Activación de Clases Múltiples
- Funciones de Coste y Gradiente Descendiente
- Retropropagación
- Instalación de Pytorch (8:15)
- Introducción a Pytorch: Tensores (7:36)
- Operaciones entre tensores y selección (7:45)
- Dispositivo de cómputo (2:41)
- Autogradiente (9:45)
- Bucle de entrenamiento, función de perdida, y optimizador (12:40)
- Regresión Lineal (8:15)
- Preparación de los datos para la regresión logística (6:06)
- Regresión Logística (10:20)
- Red Neuronal Recurrente (RNN) (6:49)
- Ejemplo de RNN: carga de los datos y GloVe Word Embeddings (7:59)
- Ejemplo de RNN: creación de la matriz de word embeddings (10:57)
- Ejemplo de RNN: creación del modelo (14:32)
- Ejemplo de RNN: funciones de ayuda (9:54)
- Ejemplo de RNN: bucle de entrenamiento (10:28)
- Long Short-Term Memory (LSTM) (12:38)
- Presentación de la unidad (2:27)
- Arquitectura Transformers (9:14)
- Transformers: Input Embedding + Positional Encoding (9:43)
- Transformers: Atención (9:48)
- Ejemplo de atención (10:39)
- Transformers: Últimos comentarios (6:31)
- BERT (6:37)
- BERT: Representación de la entrada y aplicaciones (4:11)
- Comparación entre GPT y BERT (2:51)
- Clasificación de reseñas de yelp (Huggingface, BERT) (9:49)
- Clasificación de tweets (Pytorch, BERT) (4:08)
- Pre-procesamiento de los datos (7:59)
- Creación del modelo (4:07)
- Loop de entrenamiento (5:50)
- Generación de texto con GPT-2 (5:15)
Consigue tu certificado
Al finalizar este curso, obtendrás un certificado que podrás mostrar a futuros empleadores y demostrar que conocimientos tienes.
Otros cursos parecidos
Preguntas frecuentes
¿Qué necesito para empezar?
Solo necesitas una conexión a Internet, un ordenador, una tablet o un teléfono móvil. Para las partes prácticas se recomienda utilizar un ordenador para poder descargarte el software necesario y practicar, ya que es la mejor forma de aprender.
¿Durante cuánto tiempo tengo acceso al curso?
¿Cómo suena acceso de por vida? Después de inscribirte, tendrás acceso ilimitado a este curso.
¿Qué pasa si no estoy satisfecho con el curso?
Nuestro objetivo es que todos nuestros estudiantes esten satisfechos. Por eso, si no lo estas, durante los primeros 14 días te haremos un reembolso completo.