Spelling suggestions: "subject:"conocimiento.""
141 |
Investigación en Tecnología de Reconocimiento de Voz Aplicada a Enseñanza de Segundo Idioma con Adaptación y Cancelación no Supervisada de RuidoMolina Sánchez, Carlos January 2010 (has links)
En esta Tesis se aborda el problema de la evaluación automática de pronunciación para sistemas de
enseñanza de idioma asistidos por computadoras (CAPT, computer aided pronunciation training) basada
en tecnología de reconocimiento de voz (ASR, automatic speech recognition). El evaluador automático de
pronunciación presentado aquí está previsto para ambientes de sala de clases y para grabaciones realizadas
con distintos tipos de micrófonos de baja calidad. De este modo, se deducen dos enfoques para desarrollar
el problema: introducir de manera eficiente la metodología de ASR en CAPT y hacer más robusto el
proceso de ASR aplicado en CAPT.
La inserción de la tecnología ASR en CAPT mostrada aquí está basada en la generación de hipótesis
competitivas para componer el modelo de lenguaje. Se destaca asimismo, que la metodología propuesta es
independiente del texto a entrenar y no requiere de información a priori sobre los errores más comunes
dada una lengua madre. Además, en esta Tesis se plantea el uso de la teoría de Bayes para fusión de
múltiples clasificadores y para la asociación de métricas objetivas con evaluaciones subjetivas. En
términos de robustez en ASR se propone un mecanismo de aprendizaje reforzado basado en medidas de
confiabilidad para corregir o adaptar la probabilidad de observación en el dominio logarítmico de forma
no-supervisada y con datos limitados. Este método de adaptación para ASR es aplicado en CAPT y
comparado con las clásicas técnicas presentes en la literatura como MLLR y VTLN.
La efectividad del método propuesto para la generación de léxico competitivo se refleja en que puede
alcanzar correlaciones promedio entre puntajes subjetivos-objetivos iguales a 0.67 y 0.82 con cinco y dos
niveles de calidad de pronunciación, respectivamente. Además, el mecanismo de fusión de múltiples
clasificadores presentado puede alcanzar un incremento de 2.4% en la correlación promedio y una
reducción del 10.2% en el error de clasificación entre puntajes subjetivos-objetivos con dos niveles de
calidad de pronunciación. Por otro lado, utilizando la metodología de aprendizaje reforzado basado en
medidas de confiabilidad para robustez en ASR se obtienen reducciones significativas en WER entre 3% y
18% dependiendo de la base de datos de prueba, de las condiciones de entrenamiento-test y del método
usado para optimizar una combinación lineal de métricas. Finalmente, al aplicar el esquema de robustez en
CAPT se logran mejoras de 10% y 30% en términos de correlación promedio entre evaluaciones
subjetivas-objetivas, dependiendo del clasificador usado para evaluar la calidad de pronunciación y con
micrófonos de baja calidad en ambiente de sala de clases.
|
142 |
El tratamiento contable de los intangibles: estudio exploratorio en el sector de tecnologías de la información / The accounting treatment of intangibles: an exploratory study in Information TechnologyPontet Ubal, Norma, López Ávila, César Omar, Volpi Suárez, Lourdes Yvonne 10 April 2018 (has links)
In the new economy, intangible assets have become the main creators of value to many firms. However, the valuation of these assets in the accounting framework raises several issues with respect to identification, measurement and control. In this paper the valuation, measurement and recognition of intangible assets and their impact on the financial statements are presented, analyzing the asymmetry in the allocation of resources in the equity market, the growth of investments in intangible assets and the market value of the digital economy. In a group of uruguayan companies arriving at a set of initial findings for the cases. We understand the need to review and amend the rules for the treatment of intangibles, seeking to integrate more sophisticated in IT. We also understand that the rules should provide more detailed guidance on disclosure for intangible and costs-benefits for companies (from the perspective of the capital market and investors). / En la nueva economía, los activos intangibles se han convertido en los principales creadores de valor para un gran número de empresas. Sin embargo, la valoración de estos activos en el marco contable plantea varios problemas con respecto a su identificación, medición y control. En el presente trabajo, se exponen los criterios de valuación de activos intangibles y sus consecuencias en los estados financieros, para lo cual se ha analizado la asimetría en la asignación de recursos en el mercado de capitales, el crecimiento de las inversiones en intangibles y el valor de mercado de las empresas en la economía digital. Se explora en un grupo de empresas uruguayas las cuestiones discutidas, a partir de lo cual se arriba a un conjunto de conclusiones iniciales para los casos de estudio. Entendemos que es necesario revisar y modificar las normas para el tratamiento de intangibles, de modo que se integre aspectos más sofisticados en cuanto a TI. Asimismo, entendemos que las normas deben proporcionar una orientación más detallada sobre revelación de información para intangibles y de su relación costo-beneficio para las empresas (desde la perspectiva del mercado de capitales y de los inversores).
|
143 |
Justicia social en clave de capacidades y reconocimiento / Justicia social en clave de capacidades y reconocimientoFascioli, Ana 09 April 2018 (has links)
Social Justice in Terms of Capabilities and Recognition”. Axel Honneth’sTheory of Recognition is an attempt to create a widened vision of social justice.This theory interprets distributive problems as problems of recognition. Thepresent paper analyses, however, the laws of Honneth’s theory when addressingdistributive justice and claims that this theory can be complemented by theinformational basis proposed by Amartya Sen and Martha Nussbaum’s CapabilityApproach. Furthermore, it suggests how such approach can be enriched byHonneth’s Theory of Recognition and offers a theoretical strategy that allows forboth models to work together in the assessment of justice. / La teoría del reconocimiento de Axel Honneth es un intento de crearuna visión ampliada de la justicia social e interpreta los problemas distributivoscomo problemas de reconocimiento. Este artículo analiza, sin embargo, las insuicienciasde la teoría de Honneth al momento de abordar la justicia distributiva,y propone que la misma puede ser complementada con la base informacionalque propone el enfoque de las capacidades de Amartya Sen y Martha Nussbaum.A su vez, se sugiere cómo tal enfoque puede ser enriquecido por la teoría delreconocimiento de Honneth y se ofrece una estrategia teórica para que ambosmodelos puedan operar juntos en la evaluación de la justicia.
|
144 |
Apreciaciones respecto a los criterios de reconocimiento, medición y revelación del nuevo Régimen de Contabilidad Pública en Colombia / Apreciações com relação aos critérios de reconhecimento, medição e revelação do novo regime de contabilidade pública na Colômbia / Theoretical Approach to Differences in the Criteria for Recognition, Measurement and Disclosure of the New Public Accounting RegimeRojas Molina, Leidy Katerine 10 April 2018 (has links)
In the last 30 years in Colombia the accounting applied to the public sector has experienced changes that had improve the accounting in government agencies, the accounting criteria of measurement, recognition and disclosure applied in Colombia during the years of existence of this, form an important focus of study is analyzed in this research, considering the importance acquired by the entry into force of international financial reporting standards applied to public sector entities (IPSAS), compared with the RCP, issued in the year 2007. The methodology used in this study is descriptive with a qualitative approach, which allows us to determine the main changes in the new regime of public accounting. / La contabilidad aplicada al sector público en Colombia ha vivido cambios interesantes en los últimos 30 años, dando vuelcos que han perfeccionado el ejercicio contable en las entidades gubernamentales. Los criterios contables de reconocimiento, medición y revelación aplicados en Colombia durante los años de existencia de esta forman un importante eje de estudio que es analizado en esta investigación, considerando la importancia adquirida por la entrada en vigencia de normas internacionales de información financiera, aplicada a entidades del sector público (IPSAS), en comparación con el Régimen de Contabilidad Pública, expedido en el año 2007. La metodología empleada en este estudio es de carácter descriptivo con un enfoque cualitativo, lo cual nos permite determinar los cambios principales presentados en el nuevo Régimen de Contabilidad Pública. / A contabilidade aplicada ao setor público na Colômbia tem tido mudanças interessantes nos últimos 30 anos, dando algumas viradas que têm aperfeiçoado o exercício contábil nas entidades governamentais. Os critérios contábeis de reconhecimento, medição e revelação aplicados na Colômbia, durante os anos de existência dela, conformam um importante item de estudo que é analisado nesta pesquisa, considerando a importância adquirida pela entrada em vigor de normas internacionais de informação financeira, aplicada a entidades do setor público (IPSAS), em comparação com o regime de contabilidade pública, do ano de 2007. A metodologia utilizada neste estudo é de caráter descritivo com uma visão qualitativa que nos permite determinar as principais mudanças havidas no novo regime de contabilidade pública.
|
145 |
Clasificación de Vinos Tintos Chilenos de Acuerdo a su Origen Geográfico Utilizando Máquinas de Soporte VectorialMuñoz Tapia, Ricardo Esteban January 2008 (has links)
No description available.
|
146 |
Optimización y paralelización de un algoritmo de generación de Skeletons a partir de mallas geométricas aplicado a estructuras biológicasRojas Hernández, Iván Yerko January 2014 (has links)
Ingeniero Civil en Computación / El estudio cuantitativo de estructuras microscópicas 3D requiere de herramientas computacionales, tanto para realizar mediciones como para su visualización, dada su complejidad y gran volumen. Una de las herramientas para medir y visualizar estas estructuras es el skeleton. Un skeleton es la representacion simplificada de la estructura en forma de grafo, compuesta por nodos y segmentos. Si bien existen múltiples algoritmos para su generación, estos buscan generalmente mantener propiedades topológicas y geométricas del objeto de estudio.
Actualmente se cuenta con la implementación de un algoritmo de generación de skeletons [2], basado en el algoritmo propuesto por Au et al [3]. Esta implementación, si bien entrega resultados satisfactorios, presenta tiempos de cálculo muy extensos. Dado lo anterior, es que esta memoriam tiene como objetivo analizar y optimizar el tiempo de ejecución de esta implementación.
En este trabajo se realizaron optimizaciones seriales y la paralelización del cálculo. La optimización serial incluyó: (1) implementación del algoritmo con una nueva estructura de datos: Halfedge, (2) optimización en la actualización de costos de arcos, (3) optimización en el uso de la cola de costos y (4) optimización de estructuras de datos. La paralelización fue realizada sobre una de las etapas más demandantes del algoritmo usando la unidad de procesamiento gráfico (GPU).
Para validar las optimizaciones y paralelización, se realizaron pruebas de la correctitud y speed-up alcanzado en: (1) modelos 3D creados simples, (2) modelos sintéticos de estructuras biológicas y (3) modelos de estructuras biológicas obtenidas de imágenes de microscopía.
Con las optimizaciones y paralelización implementados, se logró una mejora sustancial en el tiempo, pasando de días a minutos o incluso segundos. Además, se verificó que estas mejoras mantienen los skeletons resultantes bien definidos, vale decir, mantienen las propiedades que deben cumplir.
|
147 |
Indexamiento en espacios no-métricosSepúlveda Benitez, Víctor Hugo January 2012 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / La mayoría de los sistemas de recuperación de información multimedia utilizan algún esquema de indexamiento para acelerar las búsquedas por similitud en una colección de datos, evitando un análisis detallado de grandes porciones de la colección. Estos enfoques suelen utilizar la desigualdad triangular para descartar elementos. Esto requiere que la distancia de comparación satisfaga los postulados métricos. Sin embargo, estudios recientes muestran que para ciertas aplicaciones resulta apropiado el uso de distancias no métricas, que pueden entregar mejores juicios de la similitud de dos objetos. En esos casos, la falta de la desigualdad triangular hace imposible el uso de los enfoques tradicionales para el indexamiento.
En esta tesis se estudian, implementan y prueban las principales técnicas del estado del arte para indexar espacios no métricos genéricos, en un ambiente que permite concluir acerca de varios aspectos y las ventajas de las diferentes estrategias probadas. Las técnicas consideradas fueron DynDex, LCE, QIC y TriGen, aunque la técnica QIC no es comparada con las demás pues falla en ser adecuadamente aplicable a los diferentes espacios en estudio. Se utilizan varios espacios no métricos con distintas características tanto en el índice de fallo de la desigualdad triangular, como en la capacidad de indexamiento.
Adicionalmente, se propone e implementa CP-Index, una técnica de indexamiento aproximado original. Esta técnica hace uso de Clustering y de Pivotes para acelerar las búsquedas en espacios no métricos, sin comprometer significativamente la calidad de la respuesta. CP-Index se adapta dinámicamente a las condiciones del espacio no métrico, usando pivotes cuando la fracción de tríos que rompen la desigualdad triangular es pequeña, pero buscando secuencialmente los candidatos más prometedores cuando el uso de pivotes se vuelve inútil para descartar elementos.
Una conclusión importante de esta investigación es que la mayoría de las técnicas que tratan de generar un resultado exacto durante las búsquedas por similitud resultan ser demasiado costosas para los conjuntos de datos utilizados. En su lugar, las técnicas aproximadas tienden a generar un mucho mejor trade-off de trabajo y calidad. Por ejemplo, LCE resulta ser una técnica excesivamente costosa tanto en tiempo de construcción como en tiempo de consulta pues modifica la distancia reduciendo mucho el poder de descarte de los índices tradicionales. Por otro lado, CP-Index obtiene resultados ligeramente superiores a los de DynDex y TriGen, pero con la ventaja de no necesitar exhaustivas pruebas y ajustes para adaptarse a las características del espacio. De este modo, en aquellos espacios en los que DynDex supera a TriGen, CP-Index se comporta igual o mejor que el primero, mientras que en los espacios en los que TriGen funciona mejor, CP-Index también obtiene resultados ligeramente superiores.
|
148 |
Detección de Anomalías en Procesos Industriales Usando Modelos Basados en SimilitudLeón Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea.
El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección.
El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada.
Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros.
Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea.
La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.
|
149 |
Reconocimiento Automático de Bordes en Imágenes Aplicado a Anillos de ÁrbolesAguilar Vergara, Pablo Agustín January 2009 (has links)
No description available.
|
150 |
Sistema automático de reconocimiento de rostrosVilla Palacios, Sandra María 07 August 2015 (has links)
El presente proyecto propone un sistema automático de reconocimiento de rostros, a partir de la captura de imágenes faciales por medio de una cámara web. El sistema compara la imagen obtenida con aquellos de usuarios registrados, los cuales se encuentran en una base de datos.
Para poder comprender detalladamente el funcionamiento del sistema, el contenido del presente trabajo ha sido dividido en cinco capítulos: los tres primeros describen los fundamentos teóricos utilizados para el desarrollo del software, el cuarto explica con detalle el desarrollo del hardware y del software del sistema; el quinto capítulo contiene las pruebas que se realizaron y los resultados obtenidos.
Finalmente, se muestran las conclusiones y las recomendaciones para futuras mejoras.
|
Page generated in 0.3673 seconds