(volver a la página principal)
En este trabajo práctico implementaremos modelos de análisis de sentimientos y haremos algunos experimentos con ellos.
El código base para el proyecto se encuentra en el repositorio de la materia. La entrega del proyecto es a través de github. Por lo tanto, deben hacer un “fork” del repositorio dentro de sus cuentas de github.
Además del código fuente, deben elaborar un README con una breve explicación de lo que hicieron en cada ejercicio. El README puede estar en texto plano (txt), markdown (md) o restrucured text (rst), y debe estar incluído dentro de la carpeta tagging
.
Criterios de Evaluación:
El corpus InterTASS se compone de un conjunto de tweets en español, cada uno anotado con su polaridad general. Los valores posibles para la polaridad son los siguientes:
P
: Polaridad positiva.N
: Polaridad negativa.NEU
: Polaridad neutra.NONE
: Sin polaridad.Puede encontrar una descripción más detallada del significado de cada etiqueta en este documento.
Programar un script stats.py
que muestre las siguientes estadísticas básicas de la sección de entrenamiento del corpus InterTASS, y por separado para la sección de entrenamiento del corpus GeneralTASS:
P
, N
, NEG
y NONE
).Documentación:
Implementar, en el clasificador de sentimientos, cuatro de las seis posibles mejoras descriptas en las siguientes subsecciones. Para cada mejora, reportar:
curve.py
.eval.py
.Para una sola de las mejoras, usando maxent, reportar además:
print_maxent_features
del módulo sentiment.analysis
.pprint_feature_weights_for_item
del módulo sentiment.analysis
.
El tokenizer por defecto del CountVectorizer
filtra toda la puntuación y los emojis. Sin embargo los emojis y algunas puntuaciones son indicadoras de sentimiento (e.g. “!” y “?”). Cambiar el tokenizer por uno que no elimine emojis y puntuación. Una opción posible es el tokenizador de NLTK.
Modificar la configuración del CountVectorizer
para que ignore las repeticiones de palabras.
Preprocesar los textos de los tweets de la siguiente manera:
Modificar el CountVectorizer
para que ignore stopwords del castellano (palabras sin carga semántica como artículos, preposiciones, etc.). Una posible fuente de stopwords es NLTK.
Modificar el tokenizador del CountVectorizer
para que además haga stemming o lematización de las palabras. Una posibilidad es usar el Snowball stemmer que viene con NLTK.
Modificar el tokenizador del CountVectorizer
para que además maneje negaciones.
Al encontrar una negación ('no', 'tampoco', etc.), deben modificarse todas las palabras hasta el siguiente signo de puntuación, agregándoles el prefijo NOT_
.
Ejemplo:
este verano tampoco ha llegado a hacer calor, sobre todo si lo comparamos con el pasado
debe ser reemplazado por:
este verano tampoco NOT_ha NOT_llegado NOT_hacer NOT_calor , sobre todo si lo comparamos con el pasado
eval.py
con la opción -f
.Para los tres tipos de clasificadores, pruebe diferentes combinaciones de parámetros y evalúe sobre el corpus de development. Reporte mejor resultado y configuración para cada clasificador.
Documentación: