Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa |
materias:pln:uba2018:practico2 [2018/02/20 19:43] – francolq | materias:pln:uba2018:practico2 [2018/08/10 03:03] (actual) – editor externo 127.0.0.1 |
---|
| |
* Repositorio: https://github.com/PLN-FaMAF/PLN-UBA2018. | * Repositorio: https://github.com/PLN-FaMAF/PLN-UBA2018. |
* Fecha de entrega: 01/03 a las 23:59. | * Fecha de entrega: 27/02 a las 17:59. |
| |
| |
Documentación: | Documentación: |
| |
* [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20con%20Feature%20Forge.ipynb|Etiquetado de Secuencias con Feature Forge]] | * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20Parte%203.ipynb|Jupyter notebook: Etiquetado de Secuencias Parte 3]] |
| |
| |
Documentación: | Documentación: |
| |
* Introducción a scikit-learn para clasificación de textos: | * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20Parte%202.ipynb|Jupyter notebook: Etiquetado de Secuencias Parte 2]] |
* http://scikit-learn.org/stable/tutorial/text_analytics/working_with_text_data.html | * [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Etiquetado%20de%20Secuencias%20Parte%203.ipynb|Jupyter notebook: Etiquetado de Secuencias Parte 3]] |
* [[http://nbviewer.ipython.org/url/cs.famaf.unc.edu.ar/~francolq/Clasificaci%C3%B3n%20de%20Texto%20con%20scikit-learn.ipynb#|Mi versión del mismo tutorial]] | * [[http://www.cs.columbia.edu/~mcollins/fall2014-loglineartaggers.pdf|Notas de Michael Collins sobre MEMMs]] |
* Beam inference: | |
* [[https://class.coursera.org/nlp/lecture/133|video lecture]] (ir al minuto 07:10) | |
* [[https://d396qusza40orc.cloudfront.net/nlp/slides/04-02-Maximum_Entropy_Sequence_Models-v2.pdf|slides]] | |
| |
| |
* Beam: En cada paso del Viterbi, guardar sólo los ''k'' taggings más probables, a donde ''k'' es un parámetro de la clase. | * Beam: En cada paso del Viterbi, guardar sólo los ''k'' taggings más probables, a donde ''k'' es un parámetro de la clase. |
* Evaluar para varios clasificadores (''LogisticRegression'' y ''LinearSVC''), para varios valores de ''n'' (1, 2, 3 y 4), y para varios valores de ''k'' (1, 2 y 3). Reportar los resultados en el README. Reportar también tiempo de evaluación. | * Evaluar para varios clasificadores (''LogisticRegression'' y ''LinearSVC''), para varios valores de ''n'' (1, 2, 3 y 4), y para varios valores de ''k'' (1, 2 y 3). Reportar los resultados en el README. Reportar también tiempo de evaluación. |
| |
| |
| Documentación: |
| |
| * [[http://www.cs.columbia.edu/~mcollins/fall2014-loglineartaggers.pdf|Notas de Michael Collins sobre MEMMs]] (Viterbi en sección 8.5) |
| * Beam inference: |
| * [[https://www.youtube.com/watch?v=M1BpelGGeMk&index=47&list=PL6397E4B26D00A269|Maximum Entropy Sequence Models]] (ir al minuto 07:10) |
| * [[https://d396qusza40orc.cloudfront.net/nlp/slides/04-02-Maximum_Entropy_Sequence_Models-v2.pdf|slides]] |
| |