Estas son las charlas previstas o dadas del ciclo “Contate algo, che!” de la Sección de Computación de FaMAF. Si tenés ganas de dar una charla, avisales a Matias Lee o a Miguel Pagano.
Miercoles 9 de Diciembre
- Título: “Cómo perder el tiempo optimizando código”.
- Expositor: Daniel Moisset.
- Lugar: Laboratorio de Computación de la Especialización en Sistemas y Servicios Distribuidos (tercer piso), FaMAF.
- Día y Hora: miércoles 9 de Diciembre, 17:00hs.
- Resumen:
Aunque se ha escrito mucho (tanto investigación bien fundamentada como 'recetas populares') sobre formas de escribir código optimizado a nivel de hardware, muchos cambios tecnológicos en los últimos 25 años han hecho que muchas prácticas que en su momento fueron buenas ideas hoy sean contraproducentes. En la charla, que más bien es un debate, se discutirán dos disertaciones sobre este problema y sobre los cambios que se han dado.
- La actividad en FB: http://www.facebook.com/event.php?eid=193854967294&ref=ss
- Bibliografía:
- Felix von Leitner, 2009, “Source Code Optimization”, Code Blau GmbH, http://www.linux-kongress.org/2009/slides/compiler_survey_felix_von_leitner.pdf
- Rik van Riel, 2008, “Why computers are getting slower”, Red Hat Summit 2008, http://surriel.com/system/files/summit08-why-computers-are-getting-slower.pdf
Lunes 19 de octubre
- Expositor: Lic. Lee. (aka Chun)
- Título: PlusCal, un lenguaje para describir algoritmos.
- Resumen:
Todo el mundo trabaja con pseudo-códigos para expresar sus algoritmos, pues la implementación y el algoritmo no son la misma cosa. Entonces, ¿por que no estandarizar la notación?¿por que no dar herramientas para estudiar nuestro pseudo-codigo? No es lo mismo tener un algoritmo erróneo que una implementación errónea.
PlusCal es un lenguaje para escribir pseudo-código, el cual soporta teoría de conjunto, lógica de primer orden, no determinismo y la capacidad de expresar distintos grados de atomicidad para distintas acciones, lo cual es útil para expresar algoritmo concurrentes. Además PlusCal cuenta con soporte para realizar model checking sobre nuestro algoritmo, a un costo extra casi nulo.
En esta edición del Contante Algo Che!, vamos a mostrar como funcióna PlusCal analizando un algoritmo secuencial y un algoritmo concurrente con N procesos.
Lunes 5 de octubre
- Expositor: Ing. German Capdehourat.
- Título: Una computadora por gurí
- Resumen:
``MONTEVIDEO.- Pensar un país donde todos los alumnos de las escuelas primarias tengan su propia computadora portátil con conexión a Internet inalámbrica tiene sabor a utopía. Sin embargo, Uruguay se convertirá dentro de dos semanas en el primer país del mundo en lograrlo.
De los 2360 colegios primarios estatales en todo el territorio, sólo resta que reciban su computadora los alumnos de 33 escuelas de Montevideo. Así, el plan Ceibal, que lanzó el gobierno de Tabaré Vázquez hace tres años, está por cumplir la ambiciosa meta de que cada chico y cada maestro de primaria del país tengan su laptop con banda ancha.'' (Laura Casanovas, en La Nación)
En la próxima charla del ciclo ”Contate Algo, Che!” estaremos hablando sobre el Plan Ceibal. Para esto pasaremos un video (de corta duración) con un resumen de como se implemento este plan. Además contaremos con la presencia, vía video-conferencia, del Ing. German Capdehourat. El se encuentra trabajando en el area de conectividad de este proyecto y nos contará sobre su experiencia de campo.
Lunes 28 de septiembre
- Expositora: Paula Estrella
- Título: Using artificially generated data to evaluate statistical machine translation
- Resumen:
Although Statistical Machine Translation (SMT) is now the dominant paradigm within Machine Translation, we argue that it is far from clear that it can outperform Rule-Based Machine Translation (RBMT) on small- to medium-vocabulary applications where high precision is more important than recall. A particularly important practical example is medical speech translation.
We report the results of experiments where we configured the various grammars and rule-sets in an Open Source medium-vocabulary multi-lingual medical speech translation system to generate large aligned bilingual corpora, which were then used to train SMT models based on the common combination of Giza++, Moses and SRILM. The resulting SMTs were unable fully to reproduce the performance of the RBMT and the added robustness of the SMT only yielded a small improvement in recall, with a large penalty in precision.