| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa |
| materias:pln:uba2018:practico2 [2018/02/20 16:43] – francolq | materias:pln:uba2018:practico2 [2025/11/15 13:47] (actual) – editor externo 127.0.0.1 |
|---|
| |
| * Repositorio: https://github.com/PLN-FaMAF/PLN-UBA2018. | * Repositorio: https://github.com/PLN-FaMAF/PLN-UBA2018. |
| * Fecha de entrega: 01/03 a las 23:59. | * Fecha de entrega: 27/02 a las 17:59. |
| |
| |
| Documentación: | Documentación: |
| |
| * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20con%20Feature%20Forge.ipynb|Etiquetado de Secuencias con Feature Forge]] | * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20Parte%203.ipynb|Jupyter notebook: Etiquetado de Secuencias Parte 3]] |
| |
| |
| Documentación: | Documentación: |
| |
| * Introducción a scikit-learn para clasificación de textos: | * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20Parte%202.ipynb|Jupyter notebook: Etiquetado de Secuencias Parte 2]] |
| * http://scikit-learn.org/stable/tutorial/text_analytics/working_with_text_data.html | * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20Parte%203.ipynb|Jupyter notebook: Etiquetado de Secuencias Parte 3]] |
| * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Clasificaci%C3%B3n%20de%20Texto%20con%20scikit-learn.ipynb#|Mi versión del mismo tutorial]] | * [[http://www.cs.columbia.edu/~mcollins/fall2014-loglineartaggers.pdf|Notas de Michael Collins sobre MEMMs]] |
| * Beam inference: | |
| * [[https://class.coursera.org/nlp/lecture/133|video lecture]] (ir al minuto 07:10) | |
| * [[https://d396qusza40orc.cloudfront.net/nlp/slides/04-02-Maximum_Entropy_Sequence_Models-v2.pdf|slides]] | |
| |
| |
| * Beam: En cada paso del Viterbi, guardar sólo los ''k'' taggings más probables, a donde ''k'' es un parámetro de la clase. | * Beam: En cada paso del Viterbi, guardar sólo los ''k'' taggings más probables, a donde ''k'' es un parámetro de la clase. |
| * Evaluar para varios clasificadores (''LogisticRegression'' y ''LinearSVC''), para varios valores de ''n'' (1, 2, 3 y 4), y para varios valores de ''k'' (1, 2 y 3). Reportar los resultados en el README. Reportar también tiempo de evaluación. | * Evaluar para varios clasificadores (''LogisticRegression'' y ''LinearSVC''), para varios valores de ''n'' (1, 2, 3 y 4), y para varios valores de ''k'' (1, 2 y 3). Reportar los resultados en el README. Reportar también tiempo de evaluación. |
| | |
| | |
| | Documentación: |
| | |
| | * [[http://www.cs.columbia.edu/~mcollins/fall2014-loglineartaggers.pdf|Notas de Michael Collins sobre MEMMs]] (Viterbi en sección 8.5) |
| | * Beam inference: |
| | * [[https://www.youtube.com/watch?v=M1BpelGGeMk&index=47&list=PL6397E4B26D00A269|Maximum Entropy Sequence Models]] (ir al minuto 07:10) |
| | * [[https://d396qusza40orc.cloudfront.net/nlp/slides/04-02-Maximum_Entropy_Sequence_Models-v2.pdf|slides]] |
| |