Spelling suggestions: "subject:"conocimiento.""
91 |
Las mujeres en la Independencia de Chile: Acciones y contribuciones.Mella Lizana, Tania January 2004 (has links)
Informe de Seminario para optar al grado de Licenciado en Historia. / La presente investigación busca demostrar que existió un cometido, una participación y una manera de vivir la independencia por parte de las mujeres chilenas que es digno de ser estudiado, ya que difiere de la imagen estereotipada de la mujer pasiva que se nos ha pretendido legar por generaciones.
|
92 |
Desarrollo de Aplicación Remota de Biometría por Voz para Telefonía CelularHerrada Bañados, Alvaro Francisco January 2011 (has links)
No autorizada por el autor para de publicada a texto completo / El área de procesamiento de voz estudia diversos temas uno de los cuales es la verificación de identidad del locutor a través de la huella vocal. Un servidor de este tipo fue desarrollado en el Laboratorio de Procesamiento y Transmisión de Voz (LPTV) de la U. de Chile.
El objetivo principal de la memoria es implementar y evaluar una aplicación de verificación de locutor ocupando una arquitectura cliente-servidor con un celular smartphone como terminal de usuario. El procesamiento de la señal grabada debe ser centralizado y el acceso a internet realizado por Wi-Fi. Para conseguir los objetivos propuestos se creó un programa cliente en un smartphone con sistema operativo Android que se comunica con el servidor de verificación de locutor del LPTV. El usuario tiene acceso a la aplicación mediante una interfaz touchscreen que también se diseñó e implementó en esta memoria.
Inicialmente se explican los sistemas de verificación de huella vocal, las arquitecturas de reconocedores de voz ocupadas en telefonía, así como la plataforma de desarrollo Android. Posteriormente se realiza una descripción de las soluciones creadas para cumplir con los requisitos del servidor: creación de audio muestreado a una tasa de 8KHz con 16 bit por muestra y formación de un string codificado en formato UTF-8 (8-bit Unicode Transformation Format) base 64.
Como resultado de este proyecto se obtiene una aplicación demo que permite verificar la identidad del usuario compatible con el sistema operativo Android 1.5 o posterior. Su evaluación se realizó con una base de datos de 40 personas (20 hombres y 20 mujeres). Se obtuvo un EER (Equal Error Rate) o porcentaje de error igual a 2.5% en modo de teléfono normal y 5.0% en modo altavoz. Como trabajo futuro se sugiere optimizar la aplicación con acceso a Internet vía 3G e implementar parte del procesamiento localmente con el fin de reducir el número de bytes a transmitir.
|
93 |
Reconocimiento de Bordes en Imágenes Aplicado a Anillos de ArbolesAguilar Vergara, Pablo Agustín January 2008 (has links)
No description available.
|
94 |
Optimización de proceso de detección de partículas a partir de imágenes de video mediante paralelizaciónSilva Leal, Juan Sebastián January 2012 (has links)
Ingeniero Civil en Computación / La detección de objetos a partir de imágenes se ha convertido en una herramienta muy poderosa para diferentes disciplinas. El Laboratorio de Materia Fuera del Equilibrio del Departamento de Física de la Facultad cuenta con una implementación en C del Método χ^2 usando bibliotecas ad-hoc compatibles con Mac OSX para detectar partículas en sistemas granulares cuasi-bidimensionales compuestos por miles de partículas de acero de 1 mm de diámetro, pudiendo detectar partículas en una imagen de 1 MegaPixel en alrededor de 10 segundos. Sin embargo, estas imágenes provienen de videos que se desean analizar y en una sesión de trabajo se puede requerir analizar alrededor de unas 100.000 imágenes en total, por lo cual el procesamiento y posterior análisis de estas imágenes de video tiene una duración de varios días. Es por esto que fue necesario agilizar de alguna manera este procesamiento de imágenes y generar una solución robusta.
El objetivo principal de la memoria consistió en reducir los tiempos de detección de partículas generando un nuevo software basado en el anterior, facilitando extensiones futuras, y utilizando el máximo poder de cómputo disponible en el laboratorio.
El alumno ideó como solución un sistema distribuido haciendo uso de todos los computadores disponibles para el procesamiento de imágenes, reimplementando el código del software, en ese entonces utilizado, de C a C++ utilizando patrones de diseño para facilitar futuras extensiones del software y threads con el fin de aumentar el rendimiento de este. También se agregó tecnología CUDA para el procesamiento de datos reduciendo de forma considerable los tiempos de ejecución.
Como resultado final de la memoria, se logró obtener un speedup de alrededor de 5x haciendo uso de distribución de carga computacional, uso de procesos en paralelo, hilos de ejecución y tecnología CUDA, además se logró una solución más robusta y extensible para futuros cambios o generación de nuevos algoritmos de procesamiento.
Todo el proceso de investigación, desde la obtención de datos hasta la validación de la hipótesis, lleva mucho tiempo, en donde la detección de partículas es solo una parte de todo el calculo computacional que se debe realizar, por lo que se aconseja implementar en lenguajes no interpretados y más rápidos, como por ejemplo C++, otras etapas de cálculo de datos y además, en lo posible, distribuir el computo y usar CUDA.
|
95 |
Segmentación de iris en imágenes digitales en condiciones reales con oclusiones de pestañas y parpadosContreras Schneider, Daniel Alfonso January 2012 (has links)
Ingeniero Civil Electricista / El reconocimiento de personas ha sido un área de estudio importante en el último siglo y se ha intentado utilizar todos los rasgos característicos humanos posibles para este propósito, dando paso a la ciencia de la biometría. En el último tiempo se han desarrollado varios trabajos que utilizan el iris como medida biométrica, lo que se ha visto posibilitado gracias al avance de la tecnología relacionada a la fotografía digital. Un sistema de reconocimiento de iris se compone de tres procesos esenciales: adquisición de imagen, segmentación del iris y clasificación del sujeto.
La gran mayoría del estudio del iris se ha realizado utilizando imágenes adquiridas bajo condiciones muy ideales de iluminación y cooperación del usuario. Sin embargo en los últimos años esto se ha ampliado a considerar condiciones más reales de trabajo. Este trabajo tiene como objetivo el diseño de un método de segmentación de iris, que considere condiciones menos cooperativas.
El método desarrollado se divide en seis procesos que se enfocan en segmentar diferentes secciones del ojo dentro de la imagen. Primero se eliminan todos los reflejos especulares que puedan haber y se busca la ubicación del centro del iris en la imagen. Luego se segmentan el límite límbico y la pupila, aprovechando su forma normalmente circular, finalizando con la segmentación del párpado y las pestañas. El resultado es una máscara binaria que muestra la posición del iris dentro de la imagen de entrada.
Se utiliza la base de datos UBIRIS v.2 para el diseño y prueba de este método. Calculando la cantidad de pixeles mal detectados (FP+FN) sobre la cantidad total de pixeles de la imagen, se obtiene un error promedio de 1,68%. Mientras que a partir del promedio de los valores de FPR y FNR de cada imagen, el error se establece en 10%. Estos resultados son comparables con las mejores publicaciones enviadas al concurso NICE.I relativo al mismo tema. Un promedio de 2[s] requiere el algoritmo en procesar cada imagen, lo que permite creer que podrá ser utilizado en situaciones de tiempo real como parte de un sistema de reconocimiento automático de iris.
|
96 |
Aplicación de Tecnologías de Robustez en Reconocimiento de Voz a la Enseñanza de Segundo IdiomaRavest Catalán, Pablo Andrés January 2009 (has links)
El objetivo principal de esta memoria es mejorar el rendimiento de un sistema de evaluación de pronunciación automático basado en ASR (Automatic Speech Recognition) frente a cambios de locutor. Para lograr esto se propone la implementación de dos técnicas de robustez existentes en la literatura especializada: MLLR (Maximum Likelihood Linear Regression), que realiza una transformación lineal de los parámetros del modelo acústico para adaptarlo a un locutor específico; y VTLN (Vocal Tract Length Normalization), que normaliza el banco de filtros de Mel utilizado en la parametrización de las señales para compensar por diferencias en el tracto vocal de los locutores. Estos métodos se aplican de forma no supervisada y considerando una cantidad de información de adaptación limitada, debido a las exigencias que presentan los sistemas de CAPT (Computer Aided Pronunciation Training).
Este documento presenta experimentos con estas técnicas en ASR y CAPT considerando señales de locutores con distinto manejo del inglés y bajo variadas condiciones de ruido. En ASR se obtienen disminuciones del WER (Word Error Rate) de hasta un 30,56 % con MLLR de 25 señales y 16,23 % con VTLN de 1 señal. Los métodos muestran ser eficaces incluso al considerar pocas señales de adaptación, obteniéndose mejoras promedio del WER de 19,4 % y 6,34 % en MLLR con 5 señales y VTLN con 1 señal respectivamente. En evaluación de pronunciación, VTLN produce mejoras promedio del coeficiente de correlación entre los resultados entregados por el sistema y la evaluación esperada de 3,1 % y 5,01 % para dos bases de datos probadas. MLLR fue incapaz de aumentar la correlación debido a problemas con el modelo competitivo del CAPT y al modo de aplicación no supervisado.
|
97 |
Object Detection Using Nested Cascades of Boosted Classifiers. A Learning Framework and Its Extension to The Multi-Class CaseVerschae Tannenbaum, Rodrigo January 2010 (has links)
No description available.
|
98 |
El Bono de ReconocimientoOrellana Baltra, Bárbara January 2004 (has links)
Memoria (licenciado en ciencias jurídicias y sociales) / La presente Memoria consta de cuatro capítulos, en ellos se expone el tratamiento jurídico del Bono de Reconocimiento.
En el Primer capítulo se abordan temas relativos a la Institución Jurídica del Bono de Reconocimiento, tanto en su aspecto sustantivo como formal.
En el capítulo segundo se abordan aspectos más subjetivos del Bono de Reconocimiento, temas tales como quienes tienen derecho a solicitar el Bono de Reconocimiento como derecho previsional y los requisitos con los cuales deben cumplir para solicitarlo, cuales son las fórmulas matemáticas aplicables a cada clase de afiliado para la obtención del monto nominal del Bono de Reconocimiento, entre otro aspectos.
El Capítulo tercero estudia todos los Procedimientos administrativos relativos al documento en estudio
El capítulo final aborda un tema de índole doctrinario y que se relaciona íntimamente con la naturaleza jurídica del Bono de Reconocimiento y se explaya sobre a posibilidad de solicitar por el propio Instituto emisor la declaración de nulidad del Bono de Reconocimiento.
|
99 |
Evaluación de estrategias de fusión para un sistema de identificación de personas multimodal utilizando imágenes de rostro y zona periocularSmith Albornoz, Felipe Eduardo January 2015 (has links)
Ingeniero Civil Eléctrico / La biometría corresponde al estudio de medidas en base a diferentes características humanas,
tales como huellas digitales, iris, rostro y voz, entre otros. Un gran campo de aplicación de esta
corresponde al reconocimiento de rostro para seguridad y control de identidad. Recientemente, se han realizado estudios que indican que la zona peri-ocular, segmento que rodea al ojo, puede ser usado en un sistema de reconocimiento con buenos resultados.
Este trabajo de título propone como objetivo estudiar la fusión de información entre dos
sistemas de reconocimiento, basado en imágenes de rostro e imágenes de zona peri-ocular, a nivel de características, puntaje y decisión. Para ello se usan las bases de datos AT&T de rostro y una base propia de imágenes de zona peri-ocular pertenecientes al laboratorio de procesamiento de imágenes del Departamento de Ingeniería Eléctrica de la Universidad de Chile.
Se implementan sistemas de reconocimiento basándose en 3 métodos de extracción de
características diferentes, PCA, LDA y LBP, en C++ utilizando la librería FaceRecognizer de
OpenCV. Se implementa además un sistema de fusión para cada nivel de información: característica, puntaje y decisión.
Se realizan pruebas de desempeño a los sistemas de reconocimiento de forma individual,
fusionados por nivel e integrados totalmente y se comparan mediante el área bajo la curva ROC
y la curva de Precision-Recall. Se crea además un sistema fusionado por puntaje válido y moda de decisión llegando a un 98.57% de clasificación correcta.
Finalmente se concluye que el mejor tipo de fusión es en el nivel de decisión, considerando el
costo computacional de los algoritmos, y se entregan detalles sobre las direcciones a seguir en una posible investigación futura.
|
100 |
Diseño e implementación de una técnica para la detección intrínseca de plagio en documentos digitalesOberreuter Gallardo, Gabriel Ignacio León January 2013 (has links)
Magíster en Gestión de Operaciones / En este trabajo se describe el problema de plagio en documentos digitales, y se exploran diferentes técnicas utilizadas para detectar tales casos de copia haciendo uso de teoría de recuperación de información y modelos de procesamiento de lenguaje natural. A continuación se propone un nuevo algoritmo, que analiza un texto usando características lingüísticas del mismo, donde se modela el estilo de escritura presente en busca de anomalías, donde estas últimas pueden indicar la participación de más de un autor. El objetivo principal de esta tesis es el estudio de la mencionada aproximación al problema, comparando su eficiencia y eficacia con otras técnicas existentes y evalu andolo en el marco de una competición internacional en el área.
Mediante el acto de plagiar uno incurre en una falta ética donde el autor original no recibe los créditos correspondientes. En el caso de documentos escritos, uno puede incurrir en esta falta incluyendo fragmentos sin las citas adecuadas, utilizando las mismas ideas, o copiando el texto en su totalidad.
Ahora bien, con el auge del uso de las tecnologias de información, como Internet, una gran cantidad de información de fácil acceso se encuentra disponible, siendo constantemente actualizada con generación de nuevos contenidos. Este fenómeno permite al plagio ser llevado a cabo con mayor facilidad y presenta una opción más tentativa a los estudiantes.
La detección de dichos casos de plagio es compleja, principalmente debido a las prácticamentes infinitas fuentes de información. Es por ello que sistemas automáticos de detección son necesarios, mecanismos que se basan en técnicas de procesamiento de lenguaje natural y algoritmos de secuenciamiento. Estas herramientas son habitualmente desarrolladas sobre técnicas de detección de patrones comunes, de recuperación de información y en la teoría de la información.
El en campo de la detección automática de plagio, la aproximación habitual involucra la comparasión de documentos. Un documento sospechoso es comparado con la o las posibles fuentes, apuntando a detectar los segmentos potencialmente plagiados y sus fuentes respectivas. Esta aproximación se denomina "detección externa de plagio", y mientras provee las fuentes de la copia, depende fuertemente de contar con las fuentes posibles a disposición. Este hecho es de vital importancia, donde la fuente ideal de búsqueda es la Web, pero tener acceso a ella en su totalidad se encuentra lejos de ser algo práctico.
En años recientes una nueva forma de atacar el problema se ha introducido. Consisteen analizar el estilo de escritura presente en un documento, y determinar segmentos cuyo estilo sea considerablemente distinto del estilo general. Si se asume que un documento fue escrito por un autor, y que el estilo del autor permanece estable, variaciones importantes del mismo podrían indicar a otro autor involucrado.
El objetivo principal de esta tesis fue diseñar e implementar un método que modele y cuantfique el estilo de escritura. El modelo fue construido para detectar desviaciones en el estilo de los documentos, otorgando un punto de partida para inferir casos de plagio.
La propuesta se basa en la teoría de que diferentes autores poseen diferentes preferencias sobre el uso de palabras. En este sentido, la propuesta se basa en la cuantificación de las diferencias de las frecuencias de las palabras de todos los segmentos de un documento. Se evalúa el desempeño de la propuesta en un workshop y competición internacional del área, PAN@CLEF, donde se determina su eficacia y eficiencia.
Los resultados son mixtos. Mientras que la propuesta alcanza los mejores resultados en las categorías de puntaje general y de precisión, obteniendo el primer lugar en la competición, los puntajes en general son bajos: una precisión de 0.3 refleja lo inmaduros que están aun los avances en el área. Por otro lado, se puede decir con seguridad que el uso de palabras representa una característica importante para analizar el estilo de escritura. Finalmente, los experimentos fueron realizados para el idioma Inglés, pero el método no utiliza catacterísticas propias del lenguaje, lo cual permite que el método sea estudiado con otros lenguajes.
|
Page generated in 0.0521 seconds