Programa de Posgrado en Computación
Examinar
Examinando Programa de Posgrado en Computación por Materia "ALGORITMOS (COMPUTADORAS)"
Mostrando 1 - 2 de 2
Resultados por página
Opciones de ordenación
Ítem Extracción de temas emergentes en textos cortos utilizando modelos de temas y discriminación de términos(2017) Quesada Grosso, Minor Eduardo; Leoni de León, Jorge AntonioLa minería y explotación de datos contenidos en las redes sociales no solo ha sido foco de múltiples esfuerzos, sino que a pesar de los recursos y energía invertidos aún queda mucho por hacer dada su complejidad, la cual obliga a adoptar una perspectiva multidisciplinaria (Liu and Zhang, 2012). Concretamente, en lo que respecta a esta investigación, el contenido de los textos publicados regularmente, y a un ritmo muy acelerado, en los sitios de microblogs (por ejemplo, en Twitter) puede ser utilizado para analizar tendencias mundiales y locales como en países específicos. Estas tendencias en microblogs son marcadas por temas emergentes que se distinguen de los demás por un súbito y acelerado índice de citas asociadas a un mismo tema; es decir, por un aumento repentino de popularidad en periodos relativamente cortos, por ejemplo, un día o unas cuantas horas Wanner et al. (2014). El problema, entonces, es doble, primero hay que extraer los temas sobre los cuáles se escribe y, luego, hay que identificar cuales de esos temas son emergentes. Una solución reciente, conocida como Bursty Biterm Tapie Model (BBTM) (Yan et al:, 2015), es un algoritmo para identificación de temas emergentes, con un buen nivel de resultados en Twitter. Este algoritmo utiliza coocurrencias de palabras (bitérminos) para modelar los temas emergentes. De modo que en lugar de procesar cada palabra, el algoritmo debe procesar los múltiples bitérminos formados con ella. Esto provoca un aumento en el tiempo de ejecución necesario. De ahí, que esta investigación busca evaluar la introducción en BBTM de un mecanismo para discriminar los bitérminos con el fin de procesar sólo aquellos que sean más importantes y reducir así el tiempo de ejecución necesario.Ítem Selección de parámetros en máquinas de soporte vectorial para identificación de polaridad(2016) Sanabria Rodríguez, Marco Aurelio; Casasola Murillo, EdgarLa clasificación de texto es una herramienta que permite categorizar la información generada utilizando lenguaje natural, en particular, las redes sociales como facebook o twitter generan gran cantidad de información en tiempo real que puede servir como insumo a una amplia variedad de procesos. Desafortunadamente, convertir la cantidad masiva de información generada por estos medios, aún tiene mucho camino por recorrer. Debido a que esta información es de carácter subjetivo, informal y no estructurada, se recurre a diversas técnicas de inteligencia artificial y Procesamiento del lenguaje natural (NLP) con el fin de identificar y extraer opiniones, y para determinar el valor subjetivo (polaridad positiva o negativa) que carga el texto. Específicamente, para determinar la polaridad de un opinión, se ha recurrido a modelos de clasificación de texto. En particular las máquinas de soporte vectorial (C-SVM) con función de kerifel RBF, gozan popularidad entre los investigadores del área por sus buenos resultados [firmino et al., 2013, Kaya et al., 2012]. Las C-SVM deben ser entrenadas para que aprendan a clasificar textos, lo cuál involucra un proceso de selección de parámetros, el cual posee un impacto significativo en la precisión del modelo. En investigación comparamos, utilizando las métricas de precisión, exhaustividad y valor-F, el uso de valores por defecto de la herramienta LIBSVM contra dos algoritmos de selección automatizada de parámetros: El algoritmo de búsqueda en malla: de amplio uso entre los investigadores [Carrizosa et al., 2014, Devos et al.,, 2009, Li et al., 2010b, Li et al., 2010a, Lin and Liu, 207, Lin et al., 2008, Muan nandi, 2007, Wei-Chih and Yu, 2009], se caracteriza por ser exhaustivo y brindar una alta precisión pero con una cantidad significativa de cálculos que implica un alto consumo de tiempo y recursos computacionales. El algoritmo de lobo gris: creado en 2014 por Mirjalili [Mirjalili, et al., 2014]...