• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1094
  • 101
  • 7
  • 1
  • Tagged with
  • 1204
  • 519
  • 382
  • 382
  • 382
  • 382
  • 382
  • 337
  • 330
  • 315
  • 270
  • 238
  • 169
  • 150
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Cálculo de reflexiones, refracciones y sombras

Eveleens, Mariana, Goya, Silvia Isabel January 1998 (has links)
No description available.
322

Registros en cristales fotorrefractivos BSO

Lasprilla Álvarez, María del Carmen January 1996 (has links)
Uno de los principales objetivos de este trabajo es estudiar el empleo de un cristal BSO como medio de registro de imágenes iluminadas incoherentemente. En el proceso de descodificación o reconstrucción de las imágenes registradas se analiza la variación de la polarización del haz de lectura producida por la modulación de la birrefringencia inducida en el medio. El interés principal en el estudio de la polarización del haz de lectura es controlar el contraste y así optimizar la imagen reconstruida a la salida del sistema. Para ello, se empleó un conversor óptico incoherente a coherente sin soporte holográfico y en configuración transversal, el cual puede considerarse como un subsistema óptico de algún procesador más general. Mediante un sencillo modelo fenomenológico que toma en cuenta la interacción flujo-molécula, se discutirán luego las principales características observadas ya sea con o sin sintonía. Finalmente, se analizan los resultados obtenidos así como las ventajas y desventajas del método utilizado y sus posibles aplicaciones. <i>(Párrafo extraído del texto a modo de resumen)</i>
323

La granularidad óptica: aplicaciones a la visión tridimensional y al procesamiento de imágenes

Trivi, Marcelo Ricardo January 1986 (has links)
El trabajo de Tesis se enmarca dentro de las aplicaciones de los diagramas de speckle al procesamiento de imágenes. El mismo está orientado a la obtención de un "display" (exhibición) de información a través de un registro de múltiples diagramas de speckles modulados. La modulación está dada por la pupila del sistema óptico utilizado para registrar los diagramas, la cual codifica cada uno de ellos de manera tal que se comporten como frecuencias portadoras de la información óptica. En la mayoría de las técnicas que se propondrán se empleará una pupila que consiste en dos sectores circulares opuestos por su vértice común. En el proceso de codificación de la información, se obtiene un diagrama de speckle en un medio de registro utilizando un sistema óptico cuya pupila es la descripta. Luego de revelada la placa, la figura de difracción del diagrama almacenado tiene ciertas propiedades de selectividad angular y uniformidad que hacen que la información contenida en él solo sea observada en un ángulo sólido restringido. Si se registran en un único medio varios diagramas de speckle con una orientación diferente de la pupila para cada caso, luego es posible decodificar la información por separado. Dicha información puede ser, por ejemplo, las distintas perspectivas de una escena tridimensional, diferentes componentes cromáticos de una transparencia, etc. Uno de lo trabajos que se presentará utiliza dos ranuras como pupila del sistema óptico, la cual modula con franjas de Young al diagrama de speckle. Este tipo de codificación se emplea en una técnica para obtener la derivada óptica de una transparencia.
324

Procesamiento de señales de radar en presencia de clutter dinámico

Pascual, Juan Pablo January 2014 (has links)
El radar es un sistema de sensado remoto que utiliza técnicas de procesamiento estadístico de señales para obtener información de la señal recibida. Los radares convencionales son sistemas activos que operan transmitiendo energía en forma de ondas electromagnéticas y recibiendo las señales reflejadas por el entorno y el objeto iluminado. Una de las dificultades a tener en cuenta en los sistemas de radar es que la señal de interés suele encontrarse obscurecida por las reflexiones producidas por el ambiente, fenómeno al que se denomina {\it clutter}. Generalmente, y dependiendo de la aplicación, el clutter es considerado una fuente de interferencia y perturbaciones cuyos efectos se deben eliminar o reducir. Por lo tanto, en vista de su naturaleza aleatoria, es importante el desarrollo de métodos estadísticos de procesamiento de señales para poder detectar objetivos y estimar sus propiedades en situaciones de clutter intenso y dinámico. Para obtener algoritmos eficientes, es fundamental utilizar modelos realistas de las señales recibidas por el radar. Estos modelos deben enfatizar las diferencias entre el objeto de interés y el clutter. De esta forma, los métodos de procesamiento de señal son usados para separar el objetivo del clutter y reducir el efecto degradante de este último. En esta tesis se aborda el problema de detección en presencia de clutter dinámico para aplicaciones de radar. En especial se desarrollan modelos que contemplan las variaciones del escenario y utilizan la historia del clutter para mejorar su caracterización en el instante actual y las predicciones a tiempo futuro. La primera alternativa considera el clutter como una serie temporal que presenta heteroscedasticidad condicional autorregresiva generalizada, utilizando los denominados procesos GARCH. Este tipo de procesos poseen la característica de ser impulsivos, pero presentan la desventaja de que no cuentan con una expresión explícita para su función densidad de probabilidad. Por este motivo, se analizan alternativas para estimar sus parámetros y determinar la calidad de la estimación. Asimismo, se adaptan los test de hipótesis usuales para deducir un esquema de detección basado en el modelo GARCH. Con el fin de incorporar información de múltiples pulsos en los instantes de decisión, se extiende el modelo anterior combinando un proceso GARCH en dos dimensiones (GARCH-2D) con un proceso autorregresivo (AR) y se deriva el detector correspondiente para este modelo de clutter. La parte GARCH-2D del modelo preserva la propiedad impulsiva de los procesos GARCH y la AR en las innovaciones permite modelar la correlación pulso a pulso que existe en los datos. En ambos casos se deducen expresiones para las probabilidades de falsa alarma y, dada su complejidad matemática, la probabilidad de detección se evalúa por medio de simulaciones numéricas. Además, se analiza la sensibilidad del desempeño de los detectores ante errores en la estimación de sus parámetros. A pesar de que no resultan de tasa de falsa alarma constante, muestran un comportamiento robusto en situaciones prácticas. Por último, el desempeño de los detectores propuestos es comparado con algoritmos de detección existentes en la literatura utilizando mediciones reales de clutter marítimo. Los resultados muestran que presentan un mejor desempeño respecto de los demás detectores, es decir, una probabilidad de detección mayor para una tasa de falsa alarma menor, independientemente de la relación señal a clutter. Finalmente se estudia el problema de estimación secuencial de los parámetros de los procesos GARCH. Si bien de los análisis de sensibilidad se concluye que en los detectores porpuestos no es necesaria una actualización frecuente de los mismos, su estimación es la etapa de mayor costo computacional en los esquemas de detección propuestos. Siguiendo el enfoque de estimación Bayesiano se deduce un estimador lineal de mínimo error cuadrático medio para la varianza condicional de los procesos GARCH, que es el parámetro del cual depende el estadístico de los detectores desarrollados. La deducción del algoritmo es análoga a la del filtro de Kalman, pero en este caso las matrices del sistema son aleatorias.
325

Programming and Image Processing in a Compact Production Cell

Arias Ramos, Ceferino January 2012 (has links)
In recent years, control system in the automation industries has become more and more useful, covering a wide range of fields, for example, industrial instrumentation, control and monitoring systems. Vision systems are used nowadays to improve products quality control, saving costs, time, and obtaining a better accuracy than a human operator in the manufacturing process of companies. Combining a vision system with a suitable automated system allow companies to cover a wide range of products and rapid production. All these factors are considered in this project. The aim of this project is to upgrade the functionality of a Nokia-Cell, which was used in a quality control process for the back shells of Nokia cell phones. The project includes design, upgrade and implementation of a new system in order to make the cell work properly. The Nokia-Cell is composed of the following basic modules: vision and image recognition system, automation system devices (PC and PLC, robot), and other mechatronics devices. The new system will consist of a new camera, due to the poor connectivity and quality of the old camera. For the same reason, a new PC will replace two older ones for communication and vision recognition. The new system will also include a new PLC of Beckhoff to replace the aging one of Omron so as to facilitate the connections using the same language. In addition, IEC-61499 Function Blocks standard is adopted for programming the Nokia-Cell. It is expected that the results of this project will contribute to both research and education in the future. In addition, it would be correctly to apply the results to industries in vision-based quality control systems. / Programming and Image Processing in a Compact Production Cell
326

Calidad de las anotaciones de enfermería en el servicio de neonatología del Hospital II Ramón Castilla - EsSalud

Roldán Molina, Zahedaa Marisol January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Determina la calidad de las anotaciones de enfermería en el servicio de neonatología del Hospital II Ramón Castilla EsSalud 2017. El estudio es de nivel aplicativo, tipo cuantitativo, método descriptivo de corte transversal. La población comprende todos los registros de enfermería, la técnica es el análisis documental y el instrumento la hoja de registro. Encuentra que del 100% (80), 57% (46) es adecuada y 43% (34) inadecuada. En la dimensión estructura 59% (47) es adecuada y 41% (33) inadecuada; en la dimensión contenido 59% (47) es inadecuada y 41% (33) adecuado. Los ítems referidos a adecuado en la dimensión estructura 80% (64) está referido a que registra la hora del procedimiento, 80% (64) realiza el diagnóstico de la enfermería según NANDA, y 80% (64) registra la hora del turno de trabajo; mientras que en la dimensión contenido 80% (64) registra reacciones derivadas del tratamiento; los ítems inadecuado en la dimensión estructura 21% (17) existen borrones, 21% (17) omite el uso de abreviaturas aceptadas internacionalmente y 20% (16) el número de colegiatura; y en la dimensión contenido 21% (17) registra inadecuadamente las funciones vitales durante el turno. Concluye que el mayor porcentaje de las anotaciones de enfermería en cuanto a la calidad es adecuado en la dimensión estructura, el registro de la hora del procedimiento, el diagnóstico de la enfermería según NANDA, y la hora del turno de trabajo, mientras que en la dimensión contenido registra reacciones derivadas del tratamiento, los ítems inadecuados en la dimensión estructura se determinan porque existen borrones, omite el uso de abreviaturas aceptadas internacionalmente y el número de colegiatura, y en la dimensión contenido las funciones vitales durante el turno. / Trabajo académico
327

Una Metodología para sectorizar pacientes en el consumo de medicamentos aplicando Datamart y Datamining en un hospital nacional

Tapia Rivas, Iván Gildo, Tapia Rivas, Iván Gildo January 2006 (has links)
La Minería de Datos (Data Mining) es la búsqueda de patrones interesantes y de regularidades importantes en grandes bases de datos. La minería de datos inteligente utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. Una forma para describir los atributos de una entidad de una base de datos es utilizar algoritmos de segmentación o clasificación. El presente trabajo, propone un método para el análisis de datos, para evaluar la forma con la que se consumen los medicamentos en un hospital peruano, poder identificar algunas realidades o características no observables que producirían desabastecimiento o insatisfacción del paciente, y para que sirva como una herramienta en la toma de decisión sobre el abastecimiento de medicamentos en el hospital. En esta investigación, se utilizan técnicas para la Extracción, Transformación y Carga de datos, y para la construcción de un Datamart, para finalmente un algoritmo de minería de datos adecuado para el tipo de información que se encuentra contenida. / The Mining of Data (Mining Data) is the search of interesting patterns and important regularities in great data bases. The intelligent mining of data uses methods of automatic learning to discover and to enumerate present patterns in the data. A form to describe the attributes of an organization of a data base is to use algorithms of segmentation or classification. The present work, proposes a method for the analysis of data, to evaluate the form with which the medicines in a Peruvian hospital are consumed, to be able to identify some non-observable realities or characteristics which they would produce shortage of supplies or dissatisfaction of the patient, and so that it serves as a tool in the decision making on the medicine supplying in the hospital. In this investigation, techniques for the Extraction, Transformation and Load of data are used, and for the construction of a Datamart, finally an algorithm of mining of data adapted for the type of information that is contained. / Tesis
328

Visualización para documentos en producción

Pérez Messina, Ignacio Baltazar January 2017 (has links)
Ingeniero Civil en Computación / Gracias a los avances tecnológicos, hoy es posible preservar los diferentes borradores y etapas por los que transita el proceso de escritura de un documento. Un buen ejemplo de ello es el servicio de almacenamiento web Google Drive y su procesador de texto Docs, que permite almacenar diferentes datos del proceso de escritura que están siendo generados masivamente por los mismos usuarios mientras escriben. Un documento en Docs es más que un texto versionado, es un fino registro de cada cambio ocurrido, al cual se ha llamado documento-en-producción para distinguirlo del primero. A pesar de que hoy contamos con ese material invaluable para la investigación del proceso de escritura, para los investigadores de la escritura eso no es suficiente pues exige avanzados conocimientos computacionales. Por ello aparece la necesidad de presentar esa valiosa información de manera más amigable para el usuario. En esta Memoria se diseña una visualización para documentos-en-producción y se implementa un prototipo funcional para los datos que se pueden obtener de Google Drive. Fue necesario desarrollar una nueva estructura de datos para su preprocesamiento. La efectividad de la visualización se muestra por medio de casos de estudio de documentos en un dataset que fue obtenido del proceso de escritura de tareas de estudiantes de la Facultad de Ciencias Físicas y Matemáticas. El análisis de estos casos sugiere que la visualización se muestra adecuada para estudiar el proceso de escritura de textos expositivos, permitiendo observar la estructura jerárquica y/o tópica del texto final, y diferentes características de su proceso de producción. La visualización sigue un paradigma de diseño orgánico, contiene elementos de interactividad y basa su efectividad principalmente en las microdecisiones del usuario a nivel de movimientos del puntero. Se generó un marco de evaluación teórico que arrojó luz sobre las funcionalidades faltantes y las tensiones en el diseño, que muestra, entre otras cosas, que aún no se ha explotado por completo la información disponible y señala el camino para nuevas visualizaciones y futuras exploraciones del documento-en-producción.
329

Diseño de un sistema de visión artificial para la clasificación de chirimoyas basado en medidas

Valdivia Arias, César Javier 15 February 2017 (has links)
El desarrollo de este trabajo, presenta el diseño de un sistema de visión artificial, capaz de medir Annona Cherimola Mill (Chirimoya) del ecotipo Aurora, las cuales provienen de la comunidad de Callahuanca, para posteriormente clasificar aquellas que cumplan con una dimensión de 10 x 12 cm empleando para la etapa de procesamiento: Ajuste de contraste y para la etapa de segmentación, Cierre, Apertura y Código Cadena; los métodos seleccionados cumplen con los tiempos de computo de diseño. Fue posible clasificar exitosamente 91 de 91 Chirimoyas de Categorías Extra y Primera estudiadas con un 100% de efectividad, una precisión de medida de 0,35mm y un error permisible de 2,18mm. Las pruebas se efectuaron en un prototipo diseñado para tal motivo y no en el equipo final; el error obtenido durante las pruebas es menor al establecido en los requerimientos en cuanto a la selección del fruto. En la memoria descriptiva, se presentan los cálculos referentes a la selección del dispositivo de captura, lentes y requerimientos de la iluminación empleando la metodología de diseño VDI-2221. El control del banco de pruebas, empleado para validar los algoritmos realizados, se realizó con un PLC y para realizar el procesamiento de imágenes, se optó por un computador de escritorio con procesador Intel R Core i5 CPU 2.53GHz junto con una cámara con comunicación USB 3.0. El diseño mecánico-eléctrico no es motivo de estudio en la presente investigación. / Tesis
330

Implantación de la Oficina de Gestión de Proyectos PMO de TI en una empresa de Telecomunicaciones bajo el enfoque metodológico PMI – PMBOK

Caballero Macavilca, Daniel Jesús, Caballero Macavilca, Daniel Jesús January 2017 (has links)
Busca implantar una estructura orgánica de control de proyectos PMO con enfoque metodológico, orientado a gobernar proyectos de negocios, con liderazgo para mejorar la eficiencia de la dirección de proyectos de sistemas de información y TI, en una empresa de telecomunicaciones. Presenta un modelo que promueva la gestión de los proyectos de sistemas de los negocios, estandarizar procesos y certificar el cumplimiento y la entrega de productos, alineado con la demanda de la empresa. Propone los lineamientos de organización, roles y normativa para una oficina de gerenciamiento de proyectos PMO, con el propósito de establecer monitoreo y control sobre los compromisos establecidos con las unidades de negocio, para que los procesos y procedimientos controlados por la PMO no sean vistos por los gestores de TI como una carga operativa, a la que se le dedica tiempo y esfuerzo solo por cumplir la norma. Busca que el modelo facilite procesos y componentes para gestionar la alineación entre los objetivos de la dirección de TI y del negocio y de toda actividad de índole económica, además de alertar las desviaciones en inversiones y gastos, y toda información que afecte la continuidad de los proyectos. Uniformiza los procedimientos normativos y relaciones contractuales con los proveedores, centralizar el seguimiento y control, y mejorar la valoración de las prestaciones de servicios. / Tesis

Page generated in 0.06 seconds