Utiliza el código
PROPOSITOS
en la página de pago para acceder a un
descuento del 50%.
La oferta finaliza en:
Auto reproducción
Autocompletar
Clase Anterior
Completar y continuar
NLP con Python: Procesamiento de Lenguaje Natural con Python
Introducción al curso
Presentación del curso (6:59)
Archivos del curso
¿Qué es Python? (repaso) (3:21)
Conocimientos necesarios
¿Qué es NLP? (3:40)
Conceptos básicos del Machine Learning
AI vs ML vs DL (3:01)
Tipos de aprendizajes (2:33)
Aplicaciones del Machine Learning (2:17)
Tipos de atributos en un set de datos (3:31)
Función de costo (8:55)
Underfitting vs Overfitting (7:52)
Sets de entrenamiento, validación, y evaluación (6:10)
Validación cruzada (6:48)
Conceptos (2:12)
Matriz de confusión (4:39)
Ejemplo con set de datos imbalanceado (7:28)
Curva ROC y AUC (4:19)
Métricas para la regresión (5:34)
Conceptos básicos del Procesamiento Natural del Lenguage
Qué es el NLP (6:40)
Vectorización (2:32)
One hot encoding (4:09)
Matriz término-termino y término-documento (BoW) (4:52)
TF-IDF (5:19)
Word Embeddings (3:01)
Word2Vec (9:33)
Ejemplo práctico con Skip-gram (4:09)
Pipeline de NLP (5:46)
Línea de tiempo (2:20)
Límites de los modelos lingüísticos (2:32)
Knowledge Graph (4:57)
Neural Entity Linking (10:45)
Preprocesamiento del texto con NLTK
Qué es y cómo utilizar NLTK (4:44)
Pasos previos (6:33)
NLTK Downloader y Corpora (10:08)
Tokenización (3:51)
Stopwords (4:08)
Ejemplo utilizando tokenización y removiendo stopwords (5:36)
Stemming (5:27)
Part of speech (POS) (1:46)
Lematización (3:05)
Chunking (5:13)
Chinking (3:09)
Named Entity Recognition (NER) (4:32)
Concordance (3:50)
Dispersion plot (1:19)
Frequency distribution (14:24)
WordCloud (2:39)
Collocations (2:08)
Ejemplo 1: Identificación del género (7:55)
Ejemplo 2: Identificación de la categoría de una noticia (8:42)
Ejemplo 3: Sentiment Analysis (5:26)
Preprocesamiento del texto con spaCy
Pasos previos (7:23)
Pipeline de spaCy (9:25)
Tokenización y selección de componentes (4:41)
Etiquetas de POS, dependencias, y NER (3:54)
Word Embeddings y similaridad (5:40)
DisplaCy (6:47)
Herramientas adicionales para preprocesar texto
Introducción (4:20)
Hipervínculos y menciones (8:03)
Hashtags y retweets (4:29)
Normalización de caracteres repetidos (3:01)
Emojis y smileys (4:59)
Puntuación, dígitos, abreviaciones, y tokenización (6:18)
Normalización con spaCy (7:34)
Corrección de la ortografía (5:59)
Data Augmentation con eda_nlp (11:02)
Data Augmentation con nlpaug (12:08)
Machine Learning con Scikit-learn
Presentación de la unidad (6:52)
Carga del set de datos a utilizar (10:10)
CountVectorizer (8:47)
Regresión Lineal (Linear Regression)
Regresión Logística (Logistic Regression)
Ejemplo de regresión logística (9:42)
Vectorizador TF-IDF (4:57)
Support Vector Machine (9:55)
SVM - Truco del núcleo (Kernel Trick) (5:41)
Ejemplo de SVM con SGD
Metodos fit, transform y fit-transform (10:34)
Naïve Bayes (9:31)
Ejemplo de Naïve Bayes (2:40)
Árboles de decisión y bosques aleatorios
Ejemplo de árboles de decisión y bosques aleatorios (5:05)
K-Vecinos próximos (K-Nearest Neighbors)
Ejemplo de K-NN (5:16)
Función train-test-split (3:02)
Búsqueda de grilla con validación cruzada (Grid Search CV) (8:03)
Introducción a las Redes Neuronales y Pytorch
Presentación de la unidad (3:39)
¿Qué es el Deep Learning?
Modelo Perceptrón
Redes Neuronales
Multilayer Perceptron (MLP) con Scikit-learn (8:21)
Funciones de Activación
Funciones de Activación de Clases Múltiples
Funciones de Coste y Gradiente Descendiente
Retropropagación
Instalación de Pytorch (8:15)
Introducción a Pytorch: Tensores (7:36)
Operaciones entre tensores y selección (7:45)
Dispositivo de cómputo (2:41)
Autogradiente (9:45)
Bucle de entrenamiento, función de perdida, y optimizador (12:40)
Regresión Lineal (8:15)
Preparación de los datos para la regresión logística (6:06)
Regresión Logística (10:20)
Red Neuronal Recurrente (RNN) (6:49)
Ejemplo de RNN: carga de los datos y GloVe Word Embeddings (7:59)
Ejemplo de RNN: creación de la matriz de word embeddings (10:57)
Ejemplo de RNN: creación del modelo (14:32)
Ejemplo de RNN: funciones de ayuda (9:54)
Ejemplo de RNN: bucle de entrenamiento (10:28)
Long Short-Term Memory (LSTM) (12:38)
BERT, GPT-2 y Hugging Face
Presentación de la unidad (2:27)
Arquitectura Transformers (9:14)
Transformers: Input Embedding + Positional Encoding (9:43)
Transformers: Atención (9:48)
Ejemplo de atención (10:39)
Transformers: Últimos comentarios (6:31)
BERT (6:37)
BERT: Representación de la entrada y aplicaciones (4:11)
Comparación entre GPT y BERT (2:51)
Clasificación de reseñas de yelp (Huggingface, BERT) (9:49)
Clasificación de tweets (Pytorch, BERT) (4:08)
Pre-procesamiento de los datos (7:59)
Creación del modelo (4:07)
Loop de entrenamiento (5:50)
Generación de texto con GPT-2 (5:15)
Part of speech (POS)
Contenido bloqueados
Si ya estás inscrito,
tendrá que iniciar sesion
.
Inscriba en el curso para desbloquear