• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 37
  • 3
  • Tagged with
  • 174
  • 41
  • 36
  • 31
  • 26
  • 24
  • 19
  • 18
  • 17
  • 16
  • 14
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Seguimiento de una persona con robot de servicio de recursos limitados

Hormazabal Correa, Eduardo Andrés January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / Los robots de servicio son cada vez más frecuentes dado su potencial para realizar diversos tipos de tareas. Una actividad con gran potencial es la de seguir a una persona, ya que se puede utilizar para ejecutar acciones más complejas, como aprender un recorrido predeterminado, ayudar a transportar objetos, monitorear a una persona, etc. Luego, el objetivo de este trabajo es el de implementar un sistema de seguimiento de una persona con el robot de servicio Pepper de SoftBank Robotics, que implica ser capaz de funcionar en tiempo real, con la presencia de múltiples personas, entre otros. Tras investigar en la literatura distintos métodos relacionados con este trabajo, se propone e implementa un sistema modular que basa su funcionamiento en imágenes de color y profundidad adquiridas por el robot. Primero se obtienen candidatos de personas utilizando la nube de puntos generada por la imagen de profundidad para reducir el costo computacional, y luego se detectan utilizando la imagen de color. Posteriormente se asocian las detecciones de todas las personas a lo largo del stream de video. A continuación se entrena un clasificador adaptativo capaz de diferenciar a la persona que se está siguiendo de las demás, mediante un conjunto de características elegidas previamente. Por último, se tiene un módulo encargado de accionar al robot para realizar la rutina de movimiento, que permite seguir a la persona. El sistema se evaluó en un conjunto de videos generados específicamente para la tarea de seguimiento. Los resultados obtenidos indican que el sistema sí se puede ejecutar en tiempo real, con una tasa aproximada de 12 fps. Por otro lado, la detección de la persona a seguir alcanzó una media del 90.49%, además de ser capaz de reencontrarla la mayoría de las veces con una tasa promedio del 92.01%. Estos resultados compiten con métodos tradicionales utilizados en la literatura, pero que no logran ejecutarse en tiempo real en una máquina de las mismas características a la utilizada en este trabajo. Se concluye que el sistema cumple con los objetivos planteados, y también da la posibilidad de realizar una mejora continua de éste por la naturaleza modular de la solución propuesta. Aún así, existe un conjunto de problemáticas no resueltas que se esperan resolver con métodos modernos y hardware especializado, como por ejemplo las redes neuronales convolucionales.
52

Detección automática de objetos espaciales usando imágenes capturadas con cámaras all-sky

San Martín Vásquez, Felipe Ignacio January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / Detectar, clasificar y caracterizar los objetos espaciales son tareas relevantes para diversas áreas de investigación. La detección de los objetos espaciales tiene importantes aplicaciones, tales como predecir colisiones en órbitas cercanas a la Tierra provocadas por basura espacial o satélites que, a su vez, pueden convertirse en peligros latentes para nuevos satélites o misiones espaciales. En el presente trabajo de tesis, se desarrolla un sistema flexible capaz de detectar objetos espaciales de manera automática utilizando imágenes obtenidas con cámaras del tipo all-sky, las que poseen un campo de visión muy amplio. El sistema propuesto se compone de dos módulos principales: el primero, un módulo de mejoramiento de imágenes, incluye en una serie de procesamientos que se aplican de forma secuencial con el fin de mejorar la visibilidad de los objetos espaciales; el segundo, un módulo de detección de objetos, considera métodos para detectar los objetos espaciales automáticamente. Más detalladamente, el módulo de mejoramiento de las imágenes está compuesto por las siguientes etapas: corrección de la distorsión geométrica, filtrado para reducir el ruido, gene- ración de un modelo de fondo para ser restado a las imágenes, fusión de imágenes que fueron capturadas de forma simultánea, borrado de estrellas usando un catálogo y mejoramiento de contraste adaptivo por zonas. Para el módulo de detección automática de objetos espaciales, se estudiaron dos metodo- logías. Una de ellas usa un detector de bordes Canny junto con un detector de segmentos Progressive Probabilistic Hough Transform. La segunda metodología está basada en el uso de la Transformada de Radon para detectar los segmentos correspondientes a los objetos espaciales. El sistema desarrollado se aplicó a un conjunto de 22×3 imágenes obtenidas desde el Om- nidirectional Space Situational Awareness (OmniSSA) del Instituto de Tecnología de Georgia en la ciudad de Atlanta. El OmniSSA posee tres sensores que capturan imágenes de alta re- solución simultáneamente (3352×2532 pixeles) con un amplio campo de visión para cada cámara. Para evaluar la etapa de mejoramiento de las imágenes se definió la Intensidad Escalada sobre el Ruido (I SN ). Además, para evaluar las detecciones obtenidas se generó un ground- truth utilizando información obtenida desde el catálogo Space-Track y validada por expertos. Los resultados muestran que el sistema desarrollado fue capaz de detectar prácticamente todos los objetos espaciales considerados visibles a una altura menor a 900 kilómetros. / AFOSR #FA9550-16-1-0027, a través del proyecto RG458-G1: “All-Sky Image Fusion for a Synoptic Survey”, del Instituto de Tecnología de Georgia, Estados Unidos, y el proyecto FONDECYT 1161034 de CONICYT, Chile
53

Validación y detección del efecto de textura sparkle mediante evaluaciones visuales

Gómez Lozano, Omar 14 July 2017 (has links)
No description available.
54

Identificación de factores para el desarrollo del talento deportivo en jóvenes triatletas

Ferriz Valero, Alberto 08 June 2018 (has links)
El triatlón es un deporte joven en el que, actualmente, se ha incrementado notablemente la participación en todos los grupos de edad, así como el nivel de rendimiento. Por eso, es necesario la identificación de factores relevantes para el óptimo desarrollo deportivo en jóvenes triatletas. Un total de 353 triatletas alevines, infantiles, cadetes y juniors participaron voluntariamente en el estudio y que se clasificaron en tres grupos según sendos programas de entrenamiento (Club, Tecnificación Valenciana y Desarrollo Europeo). Datos relacionados con la edad relativa, factores morfológicos, físicos y fisiológicos, técnicos y tácticos; y psico-sociales fueron analizados mediante diversos análisis estadísticos univariantes. Parece que un óptimo programa de desarrollo del talento deportivo específico de triatlón debería contar, por un lado, con factores relevantes como la edad relativa y la composición corporal, especialmente en chicas. Por otro, parece que los test de rendimiento en natación (100m y 400m) parecen correlacionar con el rendimiento global en triatlón a corto plazo, así como el test 3 minutos all-out en ciclismo, con el rendimiento mostrado en competición en el segundo segmento. Finalmente, la familia y el entrenador son figuras relevantes para el desarrollo del talento en jóvenes triatletas, por tratarse de un deporte de iniciación temprana pero especialización tardía, y destacar los contenidos de programas de desarrollo a largo plazo.
55

Selección de variables y descubrimiento causal a partir de textos de artículos periodísticos

Maisonnave, Mariano 22 October 2021 (has links)
La existencia de relaciones o dependencias estadísticas en los datos (correlaciones) se puede estudiar mediante herramientas estadísticas que se han desarrollado en los últimos dos siglos. Sin embargo, una pregunta tan simple de formular como: “¿Existe un vínculo causal entre estas dos variables correlacionadas?'' presenta un desafío diferente que escapa a las respuestas que pueden brindar herramientas estadísticas clásicas, ya que, como se suele enseñar en todos los cursos de estadística: “correlación no es causalidad''. La necesidad por parte de la comunidad científica de responder preguntas causales (¿El fumar causa cáncer? ¿Este medicamento es efectivo para tratar esta enfermedad?, etc.) generó un esfuerzo para la creación de herramientas formales que permitan descubrir y cuantificar efectos causales. Algunos ejemplos son la técnica basada en la Causalidad de Granger (GC por sus siglas en inglés) y la técnica de descubrimiento de estructuras causales PC (que recibe el nombre por las iniciales de sus autores). Por otro lado, existe un gran interés por parte de la comunidad de procesamiento de lenguaje natural (NLP por sus siglas en inglés) en el descubrimiento de relaciones causales a partir de textos. Sin embargo, la mayoría de los esfuerzos están enfocados en recuperar información causal ya explícita en el texto. Por ejemplo, en la siguiente frase sobre la crisis argentina del 2001: “Sucedió en el marco de una crisis mayor que se extendió entre 1998 y 2002, causada por una larga recesión que disparó una crisis humanitaria'' se tendría por objetivo extraer los dos vínculos causales que relacionan los tres eventos descritos (la recesión, una crisis económica y otra humanitaria). Estos trabajos, si bien tienen por objetivo el descubrimiento causal, utilizan herramientas más cercanas al área de NLP que a las herramientas usuales en la literatura sobre descubrimiento causal (tales como GC o PC). Esta tesis propone un marco de trabajo (framework) en el que, a través de la utilización de herramientas como GC o PC, se plantea como objetivo el descubrimiento causal entre variables extraídas de textos de artículos periodísticos cuya relación causal no necesariamente está explícita en el texto. De este modo se obtiene una red causal, donde cada nodo es una variable relevante y cada arco un vínculo causal. Para alcanzar este objetivo primero se proponen soluciones al desafío de extraer y filtrar variables relevantes a partir de textos. Este problema se resuelve mediante el uso de dos enfoques tomados de NLP: (1) una técnica de pesaje de términos y (2) un modelo de detección de menciones de eventos en curso a partir de textos de artículos periodísticos. Se crea un conjunto de datos utilizando las variables extraídas usando estas herramientas de NLP ((1) y (2)). Este conjunto de datos es usado en el paso posterior de extracción de relaciones causales. Se estudian nueve técnicas de descubrimiento causal, y se lleva a cabo un estudio comparativo de la aplicación de las técnicas en más de sesenta conjuntos de datos sintéticos y en un conjunto de datos real de demanda de energía eléctrica. Finalmente, un caso de uso es presentado donde se aplican las mejores técnicas de descubrimiento causal sobre los conjuntos de datos de variables extraídas de los textos de artículos periodísticos, dando lugar así a una demostración completa de la funcionalidad del framework (extracción de variables de textos y descubrimiento causal a partir de las mismas). Los resultados obtenidos muestran la gran flexibilidad del framework, permitiendo la combinación de variables de diferentes tipos, con diferentes procesos de construcción, posibilitando la extracción causal posterior. Más aún, dando evidencia que información no textual podría ser incorporada al framework (por ejemplo, precios de materias primas, precios de acciones de la bolsa, indicadores socioeconómicos, entre otros). Este framework permitiría a un experto partir de un dominio, que puede ser un conjunto de textos periodísticos sobre algún episodio del mundo real, y obtener de manera automática un conjunto de variables relevantes a ese dominio (de las cuales puede elegir visualizar solo algunas, o todas). Posteriormente, se le mostraría al experto un conjunto de vínculos causales extraídos de manera automática, que vincularía a las diferentes variables relevantes al dominio. El grafo causal resultante (variables y vínculos relevantes a un dominio) puede representar una herramienta de gran interés para permitir a un experto tener una visión procesada y resumida de las interdependencias, permitiéndole un mejor entendimiento del dominio o posibilitando sacar conclusiones o explicaciones sobre eventos que se sucedieron o están sucediendo. Las primeras dos contribuciones de esta tesis están enfocadas en la propuesta de técnicas novedosas de NLP para la etapa de extracción de variables. En esta etapa se propone, primero, una herramienta nueva para pesaje de términos y estimación de puntajes de relevancia de términos asignados por usuarios. Segundo, se propone una tarea de NLP, de detección de eventos en curso (OED por sus siglas en inglés) para ser usados como variables en el framework. Se muestran los resultados de diferentes modelos para la tarea de OED, alcanzando un modelo superador con respecto a modelos existentes para tareas similares. Estas dos contribuciones permitieron la extracción de variables relevantes para ser usadas como nodos del grafo. Finalmente, la tercera contribución principal es la presentación de un análisis comparativo de nueve técnicas de extracción de causalidad y la posterior aplicación de las mejores para un ejemplo de un caso de uso del framework completo. / The existence of statistical relationships or dependencies in the data (correlations) can be studied using well-known statistical tools that have been developed over the last two centuries. However, a question as simple to pose as “Is there a causal link between these two correlated variables?'' entails a whole set of different challenges that escape from the answer that classical statistical tools can provide, since, as is usually taught in statistical courses: “correlation is not causation''. The need by the scientific community to answers to causal questions (such as: “does smoking cause cancer?'' or “is this drug effective in treating this disease?'') generated an effort to create formal tools for detecting and quantifying causal effects. Some examples are the methods based on the Granger Causality (GC) test and the PC causal structure learning algorithm. On the other hand, there is great interest from the natural language processing (NLP) community in discovering causal relationships from texts. However, most efforts are focused on recovering causal information already explicit in the text. For example, in the following sentence about the Argentine crisis of 2001: “It happened in the context of a bigger crisis that lasted between 1998 and 2002, caused by a long recession that triggered a humanitarian crisis'' the goal would be to extract the two causal links that relate the three events described (the recession, an economic crisis, and a humanitarian crisis). In that literature, although the goal is also to detect causal relations, tools closer to the NLP field are used, instead of the usual tools in the literature of causal discovery (such as GC-based techniques or PC). This thesis proposes a framework that aims at performing causal discovery between variables extracted from texts of newspaper articles using tools like GC and PC. In contrast to other approaches, the causal relationships do not need to be explicit in the texts. Using this framework, a causal network is obtained, where each node is a relevant variable and each edge is a causal link. To achieve this goal, the first challenge addressed is to extract and select relevant variables from texts. This is achieved by the use of two NLP approaches: (1) a term weighting technique and (2) a model for detecting ongoing event mentions in news articles. A data set is built using these two types of variables extracted from texts using these two NLP approaches ((1) and (2)). This data set is used in the following stage of causal discovery. Nine causal discovery techniques are analyzed, and a comparative study of the application of these techniques is carried out in sixty-four synthetic data sets and in one real-world electricity demand data set. Finally, a use case is presented where the best causal discovery techniques are applied to the data sets of variables extracted from the texts of newspaper articles, thus giving rise to a complete demonstration of the functionality of the framework (extraction of text variables and causal discovery from them). The results obtained show the great flexibility of the framework, which allows the combination of variables of different types (potentially with different generative processes), enabling the subsequent causal extraction. Furthermore, they provide evidence that non-textual information could be incorporated into the framework (for example, commodity prices, stock prices, and socioeconomic indicators, among others). This framework would allow an expert to start from a domain, which can be defined as a set of newspaper texts about some real-world episode, and automatically obtain a set of variables relevant to that domain (from which the expert could choose to visualize either a subset or the entire set). Subsequently, the expert would be shown a set of causal links extracted automatically, linking the relevant variables of the domain. The resulting causal graph (variables and edges relevant to a domain) can become a tool of great interest for an expert to process and summarize the variables and interdependencies in a domain, allowing a better understanding and making it possible to draw conclusions or find explanations for events that happened or are happening in the domain. The first two contributions of this thesis are focused on the proposal of novel NLP techniques to be applied at the variable extraction stage. First, a new tool for weighing terms and estimating relevance scores of terms assigned by users is proposed. Secondly, an NLP task consisting of the detection of ongoing events (OED) from texts is proposed to use those events as variables in the framework. The results for different instances of the OED task are shown, indicating that the model outperforms state-of-the-art models for similar tasks. These two contributions allow the extraction of relevant variables to be used as nodes of the graph. Finally, the third main contribution is the presentation of a comparative analysis of nine causality extraction techniques and the subsequent application of the best ones on a use case of the complete framework.
56

Extracción y caracterización de microsacádicos durante la lectura

Arriola, Juan M. 19 December 2022 (has links)
La visión involucra diferentes mecanismos fisiológicos y cerebrales. Abarca el sistema oculomotor, que se encarga de mover los ojos para situarlos sobre lo que se quiere observar, las células fotorreceptoras que convierten los estímulos lumínicos en señales eléctricas, y el lóbulo occipital encargado de interpretar dichas señales y formar la imagen en el cerebro. Demanda, además, que entren en juego funciones cognitivas del cerebro como la memoria semántica, la memoria a largo plazo y la memoria de trabajo. La lectura es una actividad cotidiana en la que resultan más evidentes y fáciles de manipular estos procesos. Por lo tanto, entender cómo leemos permite comprender, en parte, cómo funcionan estas áreas, y una manera de lograr dicha comprensión es mediante el análisis de la información provista por los movimientos oculares durante la lectura. Una técnica no invasiva para detectar dicho movimientos para su análisis posterior es la utilización del eye-tracker. Tanto en la observación libre como durante la lectura, los ojos realizan fijaciones y sacadas entre las fijaciones, y durante éstas se producen pequeños movimientos balísticos llamados microsacádicos. En diferentes trabajos se muestra que estos movimientos están asociados a procesos cognitivos y a la tarea de mantener la imagen en la retina, aunque no hay un criterio unificado sobre cómo detectarlos. Por otro lado, el envejecimiento suele traer consigo un deterioro del tejido cerebral, en ocasiones normal y en otras patológico, que repercute principalmente en las áreas cerebrales asociadas a la memoria y a diferentes procesos cognitivos. En esta tesis analizamos los movimientos microsacádicos presentes en las fijaciones registradas con un eye-tracker durante lecturas realizadas por grupos de adultos jóvenes, de adultos mayores sanos y de adultos mayores con deterioro cognitivo incipiente. Presentamos un método diferente de detección de los movimientos microsacádicos, combinando la Transformada Wavelet Continua que explota su naturaleza balística, junto con la localización de outliers en el espacio de velocidades. Una vez extraídos los movimientos microsacádicos mostramos, utilizando Modelos Lineales Mixtos, de qué manera estos movimientos se ven afectados por diferentes estímulos para cada uno de los grupos de sujetos. Los estímulos considerados son los tipos de oraciones y la predictibilidad, frecuencia y largo de las palabras. También examinamos la función que cumplen los microsacádicos durante la lectura mediante el análisis de la orientación que éstos presentan en los distintos tipos de fijaciones. Para ello, clasificamos previamente las fijaciones sobre la lectura, y realizamos histogramas angulares para los distintos tipos de fijaciones y para cada uno de los diferentes grupos de sujetos. / Vision involves different physiological and cerebral mechanisms. It involves the ocu- lomotor system, which is responsible for moving the eyes to place them on what the observer wants to observe, the photoreceptor cells that convert light stimuli into electrical signals, and the occipital lobe responsible for interpreting these signals and forming the image in the brain. It also requires the cognitive functions of the brain such as semantic memory, long-term memory and working memory to come into play. Reading is a daily activity in which these processes are most evident and easier to manipulate. Therefore, understanding how we read, partially allows us to understand how these areas works, and one way to achieve this understanding is by analyzing the information provided by eye movements during reading. A non-invasive technique to detect such movements for later analysis is the use of the eye-tracker. Both in free observation and during reading, the eyes perform fixations and saccades between the fixations and, during these ones, occur small ballistic movements called microsaccadic movements. Different works show that these movements are associated with cognitive processes and with the task of maintaining the image on the retina, although there is no unified criterion on how to detect them. On the other hand, aging usually brings with it a deterioration of brain tissue, someti- mes normal and sometimes pathological, which mainly affects the brain areas associated with memory and different cognitive processes. In this thesis we analyze the microsaccadic movements present in the fixations recorded with an eye-tracker during reading, performed by groups of young adults, healthy older adults and elder adults with early cognitive impairment. We present a different method for detecting microsaccadic movements, combining the Continuous Wavelet Transform that exploits their ballistic nature, together with the localization of outliers in velocity space. Once the microsaccadic movements are extracted we show, using Linear Mixed Models, how they are affected by different stimuli for each one of the groups of subjects. The considered stimuli are the types of sentences and the predictability, frequency and length of words. We also examined the role of microsaccades during reading by analyzing their orientation during different types of fixations. For this purpose, we previously classified the fixations during reading, and we made angular histograms for the different kind of fixations and for each one of the different groups of subjects
57

Técnicas de detección radar en escenarios marítimos heterogéneos

Gálvez, Nélida B. 04 May 2018 (has links)
Durante las últimas décadas se ha realizado mucho esfuerzo para encontrar soluciones eficientes al problema de detección de los radares marítimos modernos. La probabilidad de detección de objetos de interés depende altamente de los esquemas de detección seleccionados y sus distribuciones de clutter y señal. Se han desarrollado diferentes estrategias de detección con el objetivo de discriminar el retorno marino de la señal de interés. Estas estrategias establecen un umbral que depende de la potencia del retorno marino local basada en un test de hipótesis para una determinada falsa alarma. En esta tesis, se presentan algunos detectores radar con el propósito de encontrar soluciones eficientes al problema de discriminar entre los objetos de interés y el ambiente marino, especialmente para el caso de condiciones no homogéneas que usualmente acaecen en el escenario marino. Con ese propósito, se describen algunos modelos del entorno marino por medio de sus distribuciones estadísticas para baja y alta resolución. Por ejemplo, para el caso de baja resolución y ángulos de incidencia altos, el clutter generalmente se modela por medio de la distribución Gaussiana. Sin embargo, para el caso de radares modernos de alta resolución, donde las celdas de rango son pequeñas con muy pocos dispersores, el retorno radar se aleja de las distribuciones Gaussianas y el ambiente marino se representa muy bien mediante distribuciones de cola larga, tales como las distribuciones Weibull y K. En este trabajo, se discuten los principios básicos de la detección radar. Se realiza una descripción detallada de algunos esquemas clásicos, tales como el detector de Neyman Pearson, el GLRT, y algunos esquemas de detección, como el CA CFAR, el GO CFAR, el SO CFAR, el OS CFAR y el detector propuesto por [60] . Teniendo en cuenta que la detección radar se puede interpretar como un problema de reconocimiento de patrones, las redes neuronales son apropiadas para tratarlo, por consiguiente, se consideraron algunas soluciones por medio de varios algoritmos tales como el ANN CFAR, el CANN CFAR y el NNCAOS CFAR. Finalmente, se presenta un nuevo detector radar en el contexto de los sistemas no-coherentes que operan en ambientes marinos no homogéneos. Se considera el caso especial de un radar de alta resolución con un ángulo de incidencia bajo, que funciona en condiciones de mar adversas. El esquema de detección que se plantea, se basa en la propuesta de un nuevo modelo del ambiente marino. Los objetivos de diseño de esta distribución fueron introducir grados de libertad adicionales (parámetros) con respecto a la distribución K para modelar los casos de colas pesadas y también obtener un detector en forma cerrada que aproxime la propiedad CFAR cuando trabaja en condiciones extremas. / During the last decades much effort has been done to find efficient solutions to the problem of detection for modern maritime radar. The probability of detection of a target highly depends on the selected detection scheme and its signal and clutter distributions. Different detection strategies have been developed in order to discriminate the clutter from the signal of interest. These detection strategies set a threshold that depends on the local clutter power based on a hypothesis test for an expected false alarm rate. In this thesis, several radar detectors were introduced with the purpose of finding efficient solutions to the problem of discriminating between targets and the clutter environment, especially for the case of non-homogeneous situations that usually happen in the sea scenario. To that purpose some clutter models are described by means of their statistical distributions for low and high resolution. For example, for the case of low resolution and high grazing angles the clutter is generally modeled by means of the Gaussian distribution. However, for the case of the modern high resolution radars, where the range cells are small with only few scatterers, the clutter models depart from the Gaussian distributions and the sea environments are well represented by means of long tailed distributions, like the Weibull and the K. In this work, the basic radar detection principles are discussed. A detailed description of some classic detection schemes are given, like the Neyman Pearson Detector, the GLRT, and some CFAR detection schemes, like the CA CFAR, the GO CFAR, the SO CFAR, the OS CFAR and the detector proposed by [60] . Considering that the radar detection may be interpreted as a pattern recognition, the Neural Networks are suitable to deal with the problem. Some solutions were considered by means of several algorithms like the specialized ANN CFAR, the CANN CFAR and the NNCAOS CFAR. Finally, a new radar detector in the context of non-coherent radar systems operating under non-homogeneous sea clutter and the special case of a high resolution radar at low grazing angles under adverse sea conditions, is presented. The novel detection scheme is based on a new clutter distribution model. The design objectives of this clutter distribution were to introduce additional degrees of freedom (parameters) with respect to the K distribution to model heavy tailed cases and also to obtain a closed-form detector that approximates the CFAR property when working under very stringent detection conditions.
58

Métodos para la detección de daño en estructuras de hormigón pretensado

Ercolani, Germán Darío 13 September 2019 (has links)
El uso del hormigón pretensado en estructuras resistentes, ha sido difundido ampliamente desde mediados del siglo pasado. En general, se trata de estructuras proyectadas para cumplir sus funciones, durante una vida útil de varias décadas. En consecuencia, es frecuente la necesidad de llevar a cabo tareas de mantenimiento en dichas estructuras, debido a que pueden encontrarse afectadas por diversas patologías. Es evidente que, será deseable la detección de los posibles daños estructurales, con la mayor antelación posible, de manera tal de facilitar las medidas de intervención, antes de que los daños se generalicen y corra riesgo la estabilidad de la estructura. Para ello, surge la necesidad de contar con técnicas adecuadas, que permitan la detección de daños, en inspecciones realizadas con cierta periodicidad. La investigación de metodologías para la detección de da~no en estructuras, es una materia en permanente actualización. En esta tesis, se aborda el estudio particular de métodos de diagnóstico, para ser implementados en estructuras de hormigón pretensado, dominadas por solicitaciones de exión. Las patologías consideradas, consisten en típicas fisuras que podrían generarse bajo dichas solicitaciones, por distintas causas, como pueden ser: la subestimación de las pérdidas de pretensado, un tesado real inferior al nominal, excesos en las solicitaciones de servicio, asentamientos diferenciales en estructuras hiperestáticas, entre otras. Para la identificación de los posibles daños, se estudia la aplicación de distintos métodos capaces de, primero detectar la presencia de daño en la estructura, luego localizarlo y en lo posible, cuantificarlo. Dichos métodos, fundamentalmente se basan en el estudio del comportamiento estático y/o dinámico de la estructura. Las técnicas estudiadas en esta tesis son, el Método de Variación de los Desplazamientos, el Método de Curvatura de la Elástica, el Método Inverso y el uso de la Transformada Wavelet Continua. Estas metodologías, en principio han sido implementadas a partir de datos obtenidos de modelos numéricos, analizados con el Método de los Elementos Finitos; luego han sido realizadas diversas aplicaciones experimentales, sobre vigas construidas en laboratorio. Además, se ha incluido en los ensayos experimentales, la identificación de fisuras en el hormigón, mediante estudios de imágenes termográficas y técnicas de ultrasonido. Los resultados obtenidos, han permitido determinar las condiciones necesarias, para que las metodologías de diagnóstico implementadas, respondan adecuadamente sobre estructuras de hormigón pretensado. Además, ha sido posible la comparación de los distintos métodos entre sí, notando las ventajas y desventajas de cada uno de ellos. / Prestressed concrete has been widely used in civil structures since the middle of the 20th century. In general, these structures are designed to keep their functions over a lifespan of several decades. Consequently, the need to carry out maintenance tasks in the prestressed concrete structures is frequent, since they may be affected by several pathologies. It is evident that the detection of possible structural damages will be desirable as soon as possible, in order to facilitate the intervention measures, before the stability of the structure is at risk. For this reason, there is a need to have adequate techniques, which allow the detection of damage in inspections carried out with a certain periodicity. The study of methodologies for the detection of damage in structures is a subject in constant updating. This thesis deals with the study of diagnostic methods, to be implemented in prestressed concrete structures dominated by bending stresses. The pathologies considered consist of typical cracks that could be generated, for different reasons under those solicitations, such as the underestimation of prestress losses, a real prestressing lower than the nominal, excessive loads and differential settlements in hyperstatic structures, among others. For the identification of possible damages, is studied the application of different methods capable of first detecting the presence of damage in the structure, then locating it and, where possible, quantifying it. These methods are fundamentally based on the study of the static and/or dynamic behavior of the structure. The techniques studied in this thesis are, the Method of Variation of the Displacements, the Method of the Elastic Curvature, the Inverse Method and the use of the Wavelet Continuous Transform. These methodologies have been implemented, on the one hand, from data obtained from numerical models, analyzed with the Finite Element Method; on the other hand, several experimental applications have been performed, on beams built in the laboratory. In addition, it has been included in the experimental tests, the identification of cracks in the concrete, through thermographic imaging studies and ultrasound techniques. The results of these investigations have allowed determining the necessary conditions so that the diagnostic methodologies work appropriately for the prestressed concrete structures. In addition, it has been possible to compare the different methods among themselves, noting the advantages and disadvantages of each of them.
59

Silica nanoparticles as inorganic scaffolds for the preparation of hybrid materials for the optical detection of anions

CALERO RODRIGUEZ, MARÍA PILAR 04 May 2016 (has links)
[EN] The PhD Thesis entitled "Silica nanoparticles as inorganic scaffolds for the preparation of hybrid materials for the optical detection of anions" deals with the combination of supramolecular and material chemistry concepts to prepare hybrid sensing materials with the ability to detect selected ions through color and emission changes. The first hybrid material prepared is based in the use of silica nanoparticles as inorganic scaffold functionalized with spirobenzopyrans (signaling unit) and with thiourea moieties (binding unit). In the final nanoparticles the spirobenzopyran signaling unit is in its open polar conformation (red color merocyanine structure). Coordination of long chain carboylates (octanoate, decanoate and dodecanoate) with the thiourea moieties induced the formation of a dense hydrophobic monolayer around the signaling unit. This non-polar monolayer induced a change in the conformation of the spirobenzopyran to the closed spirocyclic form with a subsequent color change. The second part of this PhD Thesis was related with the preparation of silica nanoparticles functionalized with anthracene, as signalling subunit, and two different thioureas, as anion binding sites. Acetonitrile suspensions of the bifunctionalized nanoparticles showed the typical structured emission band of the anthracene fluorophore. Addition of certain anions to acetonitrile suspensions of the nanoparticles induced an enhancement of the emission intensity (Cl-, Br-, H2PO4-, acetate and benzoate) or a marked quenching (F- and CN-). Finally, the last part of this PhD Thesis deals with the preparation of silica nanoparticles functionalized with terpyridine binding sites and sulforhodamine B as signaling subunit. Coordination of transition metal cations (Fe3+, Hg2+, Cu2+, Ni2+ and Pb2+) with the terpyridine bindind sites induced a marked quenching of the emsission intensity (ca. 95%) of the sulforhodamine B fluorophore. The prepared materials were used for the fluorogenic recognition of anions. At this respect, addition of H2PO4-, HSO4-, F-, Cl-, Br-, I- and NO3-anions induced different degrees of cation displacements with the subsequent enhancement of the emission intensity of the fluorophore. Principal component analysis (PCA) allowed the discrimination of all the anions tested. Besides, only H2PO4- anion was able to induce the displacement of Pb2+ cation with the subsequent emission enhancement. / [ES] La presente Tesis Doctoral titulada "Nanopartículas de sílice como soporte inorgánico para la preparación de materiales híbridos para la detección óptica de aniones" se basa en el empleo de conceptos de química supramolecular y de química de materiales para la preparación de sistemas sensores híbridos con capacidad para reconocer iones mediante cambios de color y de fluorescencia. El primer material sensor desarrollado esta basado en nanopartículas de sílice funcionalizadas con espirobenzopiranos (unidad indicadora) y con tioureas (unidad coordinante). En las nanopartículas bifuncionalizadas el espiropirano está en su forma polar abierta (merocianina de color rojo). Cuando coordinan las tioureas con carboxilatos de cadena larga (octanoato, decanoato y dodecanoato) se forma un entorno apolar alrededor de la unidad indicadora que favorece su transformación de la forma abierta a la apolar espirocíclica cerrada con el consiguiente cambio de color. En la segunda parte de la Tesis se han preparado nanoparticulas de sílice funcionalizadas con antraceno, como unidad indicadora, y con dos diferentes tioureas, como unidades coordinantes de aniones. Suspensiones de las nanopartículas bifuncionalizadas en acetonitrilo muestran la típica emisión estructurada del antraceno. Al añadir diferentes aniones a la suspensión de las nanoparticulas se obiene un aumento de fluorescencia (con Cl-, Br-, H2PO4-, acetato y benzoato) o una desactivación de la misma (F- y CN-). Por último se prepararon nanopartículas de sílice funcionalizadas con terpiridinas, como unidad coordinante, y con sulforodamina B, como unidad indicadora. La coordinación de cationes metálicos de transición (Fe3+, Hg2+, Cu2+, Ni2+ y Pb2+) con las terpiridinas dio lugar a una desactivación importante de la emisión de la sulforodamina B anclada (95% de la inicial). En un segundo paso se estudio la capacidad de ciertos aniones (H2PO4-, HSO4-, F-, Cl-, Br-, I- y NO3-) de desplazar al metal coordinado con la subsiguiente regeneración de la emisión de la sulforodamina. Aplicando el análisis de componentes principales (PCA) se consiguió la discriminación de todos los aniones empleados. Además, las nanopartículas tratadas con el catión Pb2+ dieron una respuesta selectiva con el anión H2PO4-. / [CAT] La present Tesi Doctoral titulada "Nanopartícules de sílice com a suport inorganic en la preparació de materials hibrids per a la detecció optica de anions" es basa en l'ús de conceptes de química supramolecular i de química de materials per a la preparació de sistemes sensors híbrids amb capacitat per a reconèixer ions mitjançant canvis de color i de fluorescència. El primer material sensor desenvolupat està basat en nanopartícules de sílice funcionalitzades amb espirobenzopirans (unitat indicadora) i amb tiourees (unitat coordinant). A les nanopartícules bifuncionalitzades l'espiropirà està en la seua forma polar oberta (merocianina de color vermell). Quan coordinen les tiourees amb carboxilats de cadena llarga (octanoat, decanoat i dodecanoat) es forma un entorn apolar al voltant de la unitat indicadora que afavoreix la seua transformació de la forma oberta a l'apolar espirocíclica tancada amb el conseqüent canvi de color. A la segona part de la Tesi s'han preparat nanoparticules de sílice funcionalitzades amb antracè, com a unitat indicadora, i amb dos tiourees diferents, com unitats coordinants d'anions. Suspensions de les nanopartícules bifuncionalitzades en acetonitril mostren la típica emissió estructurada del'antracè. En afegir diferents anions a la suspensió de les nanoparticules s'obté un augment de fluorescència (amb Cl-, Br-, H2PO4-, acetat i benzoat) o una desactivació de la mateixa (F- i CN-). Finalment es prepararen nanopartícules de sílicie funcionalitzades amb terpiridines, com a unitat coordinant, i amb sulforodamina B, com a unitat indicadora. La coordinació de cations metàl¿lics de transició (Fe3+, Hg2+, Cu2+, Ni2+ i Pb2+) amb les terpiridines va donar lloc a una desactivació important de l'emissió de la sulforodamina B unida covalentment al material (95% de la inicial). En un segon pas, es va estudiar la capacitat de certs anions (H2PO4-, HSO4-, F-, Cl-, Br-, I- i NO3-) de desplaçar al metall coordinat amb la subsegüent regeneració de l'emissió de la sulforodamina. Aplicant l'anàlisi de components principals (PCA) es va aconseguir la discriminació de tots els anions estudiats. A més, les nanopartícules tractades amb el catió Pb2+ van donar una resposta selectiva amb l'anió H2PO4-. / Calero Rodriguez, MP. (2016). Silica nanoparticles as inorganic scaffolds for the preparation of hybrid materials for the optical detection of anions [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63459 / TESIS
60

On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism

Barrón Cedeño, Luis Alberto 08 June 2012 (has links)
Barrón Cedeño, LA. (2012). On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16012 / Palancia

Page generated in 0.0559 seconds