Herramientas de usuario

Herramientas del sitio


materias:pln:uba2019:descripcion

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Próxima revisión
Revisión previa
materias:pln:uba2019:descripcion [2019/09/07 22:45] – created francolqmaterias:pln:uba2019:descripcion [2019/09/09 05:07] (actual) francolq
Línea 7: Línea 7:
 El curso será evaluado a través de trabajos prácticos en los que se deben El curso será evaluado a través de trabajos prácticos en los que se deben
 realizar diversos ejercicios de programación de modelos y experimentación con realizar diversos ejercicios de programación de modelos y experimentación con
-datos. Para la aprobación del curso, deben ser aprobados todos los trabajos prácticos.+datos. Para la aprobación del curso, deben ser aprobados todos los trabajos 
 +prácticos.
  
 ===== Programa ===== ===== Programa =====
  
-  * Procesamiento básico de texto: Expresiones regulares, tokenización, segmentación, normalización, lematización y stemming. +  * **Procesamiento básico de texto:** Expresiones regulares, tokenización, segmentación, normalización, lematización y stemming. 
-  * Modelado de lenguaje: N-gramas, suavizado add-one y por interpolación, back-off. Evaluación con perplexity. Aplicaciones: Generación de lenguaje y atribución de autoría. +  * **Modelado de lenguaje:** N-gramas, suavizado add-one y por interpolación, back-off. Evaluación con perplexity. Aplicaciones: Generación de lenguaje y atribución de autoría. 
-  * Etiquetado de secuencias: Etiquetado morfosintáctico (PoS tagging) y Reconocimiento de Entidades Nombradas (NER). Modelos Ocultos de Markov (HMMs). Modelos de Máxima Entropía (MEMMs). Algoritmo de Viterbi y beam search. Ingeniería de features, evaluación y análisis de error. +  * **Etiquetado de secuencias:** Etiquetado morfosintáctico (PoS tagging) y Reconocimiento de Entidades Nombradas (NER). Modelos Ocultos de Markov (HMMs). Modelos de Máxima Entropía (MEMMs). Algoritmo de Viterbi y beam search. Ingeniería de features, evaluación y análisis de error.  
-  * Análisis de sentimiento (sentiment analysis)Detección de polaridadCorpus métricas de evaluación. Pipeline básico: preprocesamientofeatures y clasificadores. Recursos: Lexicones de sentimientorepresentaciones de palabras (word embeddings). +  * **Modelos avanzados:** word embeddings (word2vec, fasttext, GloVe, etc.modelos de lenguaje neuronales (ULMFiTOpenAIELMo, etc.). 
-  * Otros temas: Análisis sintáctico (parsing), extracción de información (information extraction), traducción automática (machine translation), etc.+  * **Otros temas:** Análisis de sentimiento (sentiment analysis), análisis sintáctico (parsing), extracción de información (information extraction), traducción automática (machine translation), etc. 
  
 ===== Bibliografía ===== ===== Bibliografía =====
  
-  * [[http://web.stanford.edu/~jurafsky/|Jurafsky, D]]. and [[http://www.cs.colorado.edu/~martin/|Martin, J. H.]] (2008). [[http://www.cs.colorado.edu/~martin/slp.html|Speech and Language Processing]]. Prentice Hall, Upper Saddle River, NJ, USA, 2nd edition. +  * Daniel Jurafsky and James H. Martin. [[http://www.cs.colorado.edu/~martin/slp.html|Speech and Language Processing]], 2nd Edition . Prentice Hall, 2nd edition, 2008
-    * [[https://web.stanford.edu/~jurafsky/slp3/|Draft de la 3ra edición]] +  * Christopher D. Manning and Hinrich Schtze. [[http://nlp.stanford.edu/fsnlp/|Foundations of statistical natural language processing]]. Hardcover1999
-  * Manning, C. D. and Schütze, H. (1999). [[http://nlp.stanford.edu/fsnlp/|Foundations of Statistical Natural Language Processing]]. The MIT Press1 edition+  * Daniel Jurafsky and James HMartin. [[https://web.stanford.edu/~jurafsky/slp3/|Speech and Language Processing, 3rd Edition Draft]]. 2019
-  * Bird, S., Klein, E., and Loper, E(2009)Natural Language Processing with Python. O'Reilly Media, 1 edition. [[http://www.nltk.org/book/|(online)]] +  * Jacob Eisenstein, [[https://www.cc.gatech.edu/~jeisenst/|Natural Language Processing]]1st editionDraftMIT Press. , 2019
- +  * Yoav Goldberg, [[http://u.cs.biu.ac.il/~yogo/nnlp.pdf|"A primer on neural network models for natural language processing."]] Journal of Artificial Intelligence Research 57 (2016): 345-420. 
-===== Enlaces ===== +  * Ian Goodfellow, Yoshua Bengio, and Aaron Courville. [[http://www.deeplearningbook.org/|Deep Learning]], 2019MIT Press
- +  Proceedings de las principales conferencias y revistas del áreaACL, NAACL, EACL, TACL, EMNLP, COLING, etc.
-Cursos relacionados: +
- +
-  * [[materias:pln|Procesamiento de Lenguaje Natural 2017 (Franco M. Luque, FaMAF)]] +
-  * [[materias:pln2015|Procesamiento de Lenguaje Natural 2015 (Franco M. Luque y Laura Alonso Alemany, FaMAF)]] +
-  * [[https://www.coursera.org/course/nlp|Natural Language Processing (Dan Jurafsky & Christopher Manning, Coursera)]] (link muerto) +
-    * **[[http://web.stanford.edu/~jurafsky/NLPCourseraSlides.html|Lecture Slides]]** +
-    * **[[https://www.youtube.com/playlist?list=PL6397E4B26D00A269|Video Lectures]]** +
-  * [[http://www.cs.columbia.edu/~cs4705/|Natural Language Processing (Michael CollinsColumbia2013)]] +
-    * **[[https://www.youtube.com/user/afigfigueira/playlists?sort=dd&view=50&shelf_id=5|Video Lectures]]** +
-  * [[http://web.stanford.edu/~jurafsky/|JurafskyD]]. and [[http://www.cs.colorado.edu/~martin/|Martin, J. H.]] (2008). [[http://www.cs.colorado.edu/~martin/slp.html|Speech and Language Processing]]. Prentice HallUpper Saddle RiverNJ, USA, 2nd edition+
-    [[https://web.stanford.edu/~jurafsky/slp3/|Draft de la 3ra edición]] +
- +
-Tecnologías:+
  
-  * [[http://git-scm.com/|Git]] 
-  * [[http://www.python.org|Python]] 
-  * [[http://scikit-learn.org/|scikit-learn]] 
-  * [[http://www.nltk.org/|NLTK]] 
materias/pln/uba2019/descripcion.1567896323.txt.gz · Última modificación: 2019/09/07 22:45 por francolq