materias:pln:practico4
Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
materias:pln:practico4 [2015/11/12 00:42] – francolq | materias:pln:practico4 [2019/02/05 19:46] (actual) – removed francolq | ||
---|---|---|---|
Línea 1: | Línea 1: | ||
- | ====== Trabajo Práctico 4 - Tema Libre ====== | ||
- | |||
- | ===== 1. Desambiguación de Entidades (Entity Linking) ===== | ||
- | |||
- | Propuesto por: Laura | ||
- | |||
- | Linkear menciones de entidades a nodos en una ontología (e.g., freebase). Como sería un PoC (prueba de concepto), usaríamos solamente un subconjunto de la ontología, para que no sea demasiado grande. Una aproximación naïve es armar una caracterización de los nodos de la ontología mediante sus vecinos, una caracterización de los candidatos a linkearse mediante las palabras de su contexto, hacer embeddings de eso y ahí buscar a qué nodo se acerca más cada mención de una entidad. | ||
- | |||
- | Referencia principal: | ||
- | * http:// | ||
- | |||
- | Documentación: | ||
- | * https:// | ||
- | |||
- | |||
- | ===== 2. Extracción de Relaciones Mediante Bootstrapping ===== | ||
- | |||
- | Propuesto por: Laura | ||
- | |||
- | Extracción de relaciones aplicando bootstrapping. Implementación de una versión simplificada de [[http:// | ||
- | |||
- | Referencia principal: | ||
- | * [[http:// | ||
- | |||
- | |||
- | ===== 3. Análisis de Sentimientos como Extracción de Relaciones ===== | ||
- | |||
- | Propuesto por: Laura | ||
- | |||
- | Aspect-based sentiment analysis como extracción de relaciones entre pedazos de texto (que vendrían a ser la primer entidad) que expresan propiedades (que vendría a ser la relación) de un objeto (que vendría a ser la segunda entidad). Aplicando bootstrapping y feature engineering. | ||
- | |||
- | Referencia principal: | ||
- | * http:// | ||
- | |||
- | |||
- | ===== 4. Segmentación de Usuarios de Twitter ===== | ||
- | |||
- | Propuesto por: Laura | ||
- | |||
- | Segmentación (clustering) de usuarios de twitter a partir del texto de sus tweets, y luego visualización de los contenidos de los segmentos usando metadatos demográficos (nombre, ubicación geográfica, | ||
- | |||
- | Referencia principal: | ||
- | * http:// | ||
- | |||
- | |||
- | ===== 5. Traducción Automática Estadística ===== | ||
- | |||
- | Propuesto por: Paula | ||
- | |||
- | Implementación de sistema de TA estadístico por frases usando los paquetes open source | ||
- | Moses (modelo de traducción y decoder), Giza (alineamiento de palabras), KenLM (modelo de | ||
- | lenguaje). | ||
- | |||
- | Referencia principal: | ||
- | * http:// | ||
- | |||
- | Recursos: | ||
- | * http:// | ||
- | |||
- | |||
- | ===== 6. Reconocimiento de Entidades para Mejorar la Traducción Automática ===== | ||
- | |||
- | Propuesto por: Paula | ||
- | |||
- | Una forma de mejorar la TA es reconociendo algunas de las entidades nombradas (NE) en el | ||
- | texto origen. Como se explica en [1] traducir en forma errónea algunas NE (por ejemplo nombres | ||
- | propios, de organizaciones, | ||
- | post-edición (corrección por traductores humanos), lo cual es bastante costoso. | ||
- | En este proyecto se propone: | ||
- | - Identificar las NEs en el texto origen: Para identificar NEs se puede usar NLTK o crear su | ||
- | propio reconocedor de NE. | ||
- | - Marcarlas como “no traducibles”, | ||
- | - Evaluar los resultados con y sin identificación de NEs. | ||
- | |||
- | Referencia principal: | ||
- | * [1] http:// | ||
- | |||
- | |||
- | ===== 7. Evaluación de la Traducción Automática ===== | ||
- | |||
- | Propuesto por: Paula | ||
- | |||
- | Se propone mejorar la evaluación de la TA implementando una nueva métrica que intente | ||
- | captar más que el solapamiento léxico, en particular usando un parser para captar la fluidez a | ||
- | través de la estructura sintáctica de las TA. Hay trabajos que indican que las métricas “syntax-based” | ||
- | correlacionan mejor con las humanas que las “string-based” como BLEU [1]. Acá hay lugar | ||
- | para experimentar con distintas métricas: se pueden probar solapamientos de árboles | ||
- | lexicalizados/ | ||
- | pueden inspirar en [1]. | ||
- | |||
- | Referencia principal: | ||
- | * [1] http:// | ||
- | |||
- | Recursos: | ||
- | * [[ftp:// | ||
- | |||
- | Documentación: | ||
- | * www.aclweb.org/ | ||
- | |||
- | |||
- | ===== 8. POS Tagging del Español con Redes Neuronales ===== | ||
- | |||
- | Propuesto por: Cristian | ||
- | |||
- | Se propone la creación de un PoS-tagger automático del español, mediante el uso de redes neuronales para dicha aplicación. Dicho PoS-tagger se entrenará y evaluará con los corpus: Tibidabo Treebank & IULA Spanish LSP Treebank. | ||
- | La idea será crear un modelo que sirva para predecir el pos tag de la palabra actual dada una ventana de palabras anteriores (y posiblemente posteriores). Opcionalmente, | ||
- | |||
- | Referencia principal: | ||
- | * [[http:// | ||
- | |||
- | Recursos: | ||
- | * Tibidabo Treebank & IULA Spanish Treebank | ||
- | * [[http:// | ||
- | |||
- | Documentación: | ||
- | * Natural Language Processing (almost) from Scratch | ||
- | * Theano Tutorial | ||
- | * Deep Learning Tutorials | ||
- | * Keras: Theano-based Deep Learning library | ||
- | * Stanford' | ||
- | |||
- | |||
- | ===== 9. Evaluación de Word Embeddings para el Español ===== | ||
- | |||
- | Propuesto por: Cristian | ||
- | |||
- | En este proyecto se proponen tareas de evaluación para un modelo de word embeddings (también conocido como vectores de palabras) para el español, entrenado con un corpus de 1.5 mil millones de palabras del español, utilizando el algoritmo Word2Vec con el modelo de Skip-grams. | ||
- | La tarea será una extensión de la forma de evaluación sugerida en la clase de Stanford CS224d: Deep Learning for Natural Language Processing. En este curso se propone el uso de 4-uplas de palabras con alguna relación semántica bien definida, por ejemplo “capital de país” (e.g. Berlin Germany Bangkok Thailand). De cada una de estas 4-uplas, se realizan operaciones de suma y resta sobre 3 de ellas y se espera que el resultado sea un vector lo más cercano posible al vector de la cuarta palabra. | ||
- | El objetivo de este proyecto es encontrar una ontología (como por ejemplo freebase) en la que se encuentren las palabras del recurso de 4-uplas original del curso, identificar qué grafo relaciona a estas palabras en la ontología y extraer todas las 4-uplas que están identificadas con ese mismo grafo de la ontología, para generar una mayor cantidad de 4-uplas equivalentes y en diferentes idiomas. También se explorará cómo se pueden generalizar los grafos identificados para encontrar relaciones comparables y distintas a las del recurso. | ||
- | |||
- | Referencia principal: | ||
- | * [[http:// | ||
- | |||
- | Documentación: | ||
- | * Distributed Representations of Words and Phrases and their Compositionality | ||
- | * Efficient Estimation of Word Representations in Vector Space | ||
- | * From Frequency to Meaning: Vector Space Models of Semantics | ||
- | |||
- | Recursos: | ||
- | * [[http:// | ||
- | * [[http:// | ||
materias/pln/practico4.1447288972.txt.gz · Última modificación: 2018/08/10 03:03 (editor externo)