Tabla de Contenidos
Teóricos UBA 2018
1ra Clase: 6 de febrero
2da Clase: 8 de febrero
3ra Clase: 14 de febrero
4ta Clase: 15 de febrero
5ta Clase: 20 de febrero
6ta Clase: 22 de febrero
7ma Clase: 27 de febrero
8va Clase: 1 de marzo
Teóricos UBA 2018
(volver a la página principal)
1ra Clase: 6 de febrero
Presentación de la materia
Introducción al Procesamiento de Lenguaje Natural
Procesamiento básico de texto:
Expresiones regulares
Expresiones regulares aplicadas al PLN
Tokenización de palabras
Normalización, lematización y stemming
Segmentación de oraciones
Parte práctica:
Procesamiento Básico de Texto (Jupyter notebook)
2da Clase: 8 de febrero
Modelado de Lenguaje:
Introducción a n-gramas
Estimando probabilidades de n-gramas
Evaluación de modelos de lenguaje (Michael Collins)
Parte práctica:
Modelado de Lenguaje (Jupyter notebook)
3ra Clase: 14 de febrero
Modelado de Lenguaje:
Generalización y ceros
Suavizado "add one"
Interpolación y otros
Language Modeling (Course notes for NLP by Michael Collins, Columbia University)
Modelado de Lenguaje: Notas Complementarias
Parte práctica:
Modelado de Lenguaje Parte 2 (Jupyter notebook)
4ta Clase: 15 de febrero
Etiquetado de secuencias:
Introducción al Part-of-Speech (POS) tagging
Algunos métodos y resultados
Más sobre etiquetado de secuencias (curso de Collins):
Etiquetado de secuencias
Modelos generativos para el aprendizaje supervisado
Introducción a los Hidden Markov Models (HMMs)
Estimación de parámetros de HMMs
Parte práctica:
Etiquetado de Secuencias (Jupyter notebook)
5ta Clase: 20 de febrero
Modelos log-linear (Michael Collins):
1. Introduction
2. Two Example Problems
3. Features in Log-Linear Models - Part I
4. Features in Log-Linear Models - Part II
5. Definition of Log-Linear Models - Part I
6. Definition of Log-Linear Models - Part II
7. Parameter Estimation in Log-Linear Models - Part I
8. Parameter Estimation in Log-Linear Models - Part II
9. Smoothing Regularization in Log-Linear Models
Modelos log-linear para etiquetado de secuencias (Michael Collins):
1. Introduction
2. Recap of the Tagging Problem
3. Independence Assumptions in Log-linear Taggers
4. Features in Log-Linear Taggers
5. Parameters in Log-Linear Models
6. The Viterbi Algorithm for Log-Linear Taggers
7. An Example Application
8. Summary
Parte práctica:
Etiquetado de Secuencias Parte 2 (Jupyter notebook)
Etiquetado de Secuencias Parte 3 (Jupyter notebook)
6ta Clase: 22 de febrero
Clasificación de texto:
What is Text Classification
Naive Bayes
Formalizing the Naive Bayes Classifier
Naive Bayes- Learning
Naive Bayes- Relationship to Language Modeling
Multinomial Naive Bayes- A Worked Example
Precision Recall and the F measure
Text Classification- Evaluation
Practical Issues in Text Classification
7ma Clase: 27 de febrero
Análisis de Sentimiento:
What is Sentiment Analysis
Sentiment Analysis- A baseline algorithm
Sentiment Lexicons
Learning Sentiment Lexicons
Other Sentiment Tasks
Parte práctica:
Análisis de Sentimiento (Jupyter notebook)
8va Clase: 1 de marzo
PLN con Deep Learning (curso
Socher
):
Introduction to NLP and Deep Learning
(
versión corta
,
videolecture
)
Word Vectors 1
(
videolecture
)
Word Vectors 2
(
versión corta
,
videolecture
)
Dependency Parsing
(
versión corta
,
videolecture
)