• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 73
  • 31
  • 29
  • 18
  • 9
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 486
  • 194
  • 190
  • 185
  • 184
  • 183
  • 183
  • 183
  • 183
  • 183
  • 98
  • 64
  • 50
  • 36
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Privacy-preserving and data utility in graph mining

Casas Roma, Jordi 24 November 2014 (has links)
En los últimos años, ha sido puesto a disposición del público una gran cantidad de los datos con formato de grafo. Incrustado en estos datos hay información privada acerca de los usuarios que aparecen en ella. Por lo tanto, los propietarios de datos deben respetar la privacidad de los usuarios antes de liberar los conjuntos de datos a terceros. En este escenario, los procesos de anonimización se convierten en un proceso muy importante. Sin embargo, los procesos de anonimización introducen, generalmente, algún tipo de ruido en los datos anónimos y también en sus resultados en procesos de minería de datos. Generalmente, cuanto mayor la privacidad, mayor será el ruido. Por lo tanto, la utilidad de los datos es un factor importante a tener en cuenta en los procesos de anonimización. El equilibrio necesario entre la privacidad de datos y utilidad de éstos puede mejorar mediante el uso de medidas y métricas para guiar el proceso de anonimización, de tal forma que se minimice la pérdida de información. En esta tesis hemos trabajo los campos de la preservación de la privacidad del usuario en las redes sociales y la utilidad y calidad de los datos publicados. Un compromiso entre ambos campos es un punto crítico para lograr buenos métodos de anonimato, que permitan mejorar los posteriores procesos de minería de datos. Parte de esta tesis se ha centrado en la utilidad de los datos y la pérdida de información. En primer lugar, se ha estudiado la relación entre las medidas de pérdida de información genéricas y las específicas basadas en clustering, con el fin de evaluar si las medidas genéricas de pérdida de información son indicativas de la utilidad de los datos para los procesos de minería de datos posteriores. Hemos encontrado una fuerte correlación entre algunas medidas genéricas de pérdida de información (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient y transitivity) y el índice de precisión en los resultados de varios algoritmos de clustering, lo que demuestra que estas medidas son capaces de predecir el perturbación introducida en los datos anónimos. En segundo lugar, se han presentado dos medidas para reducir la pérdida de información en los procesos de modificación de grafos. La primera, Edge neighbourhood centrality, se basa en el flujo de información de a través de la vecindad a distancia 1 de una arista específica. El segundo se basa en el core number sequence y permite conservar mejor la estructura subyacente, mejorando la utilidad de los datos. Hemos demostrado que ambos métodos son capaces de preservar las aristas más importantes del grafo, manteniendo mejor las propiedades básicas estructurales y espectrales. El otro tema importante de esta tesis ha sido los métodos de preservación de la privacidad. Hemos presentado nuestro algoritmo de base aleatoria, que utiliza el concepto de Edge neighbourhood centrality para guiar el proceso de modificación preservando los bordes más importantes del grafo, logrando una menor pérdida de información y una mayor utilidad de los datos. Por último, se han desarrollado dos algoritmos diferentes para el k-anonimato en los grafos. En primer lugar, se ha presentado un algoritmo basado en la computación evolutiva. Aunque este método nos permite cumplir el nivel de privacidad deseado, presenta dos inconvenientes: la pérdida de información es bastante grande en algunas propiedades estructurales del grafo y no es lo suficientemente rápido para trabajar con grandes redes. Por lo tanto, un segundo algoritmo se ha presentado, que utiliza el micro-agregación univariante para anonimizar la secuencia de grados. Este método es cuasi-óptimo y se traduce en una menor pérdida de información y una mejor utilidad de los datos. / In recent years, an explosive increase of graph-formatted data has been made publicly available. Embedded within this data there is private information about users who appear in it. Therefore, data owners must respect the privacy of users before releasing datasets to third parties. In this scenario, anonymization processes become an important concern. However, anonymization processes usually introduce some kind of noise in the anonymous data, altering the data and also their results on graph mining processes. Generally, the higher the privacy, the larger the noise. Thus, data utility is an important factor to consider in anonymization processes. The necessary trade-off between data privacy and data utility can be reached by using measures and metrics to lead the anonymization process to minimize the information loss, and therefore, to maximize the data utility. In this thesis we have covered the fields of user's privacy-preserving in social networks and the utility and quality of the released data. A trade-off between both fields is a critical point to achieve good anonymization methods for the subsequent graph mining processes. Part of this thesis has focused on data utility and information loss. Firstly, we have studied the relation between the generic information loss measures and the clustering-specific ones, in order to evaluate whether the generic information loss measures are indicative of the usefulness of the data for subsequent data mining processes. We have found strong correlation between some generic information loss measures (average distance, betweenness centrality, closeness centrality, edge intersection, clustering coefficient and transitivity) and the precision index over the results of several clustering algorithms, demonstrating that these measures are able to predict the perturbation introduced in anonymous data. Secondly, two measures to reduce the information loss on graph modification processes have been presented. The first one, Edge neighbourhood centrality, is based on information flow throw 1-neighbourhood of a specific edge in the graph. The second one is based on the core number sequence and it preserves better the underlying graph structure, retaining more data utility. By an extensive experimental set up, we have demonstrated that both methods are able to preserve the most important edges in the network, keeping the basic structural and spectral properties close to the original ones. The other important topic of this thesis has been privacy-preserving methods. We have presented our random-based algorithm, which utilizes the concept of Edge neighbourhood centrality to drive the edge modification process to better preserve the most important edges in the graph, achieving lower information loss and higher data utility on the released data. Our method obtains a better trade-off between data utility and data privacy than other methods. Finally, two different approaches for k-degree anonymity on graphs have been developed. First, an algorithm based on evolutionary computing has been presented and tested on different small and medium real networks. Although this method allows us to fulfil the desired privacy level, it presents two main drawbacks: the information loss is quite large in some graph structural properties and it is not fast enough to work with large networks. Therefore, a second algorithm has been presented, which uses the univariate micro-aggregation to anonymize the degree sequence and reduce the distance from the original one. This method is quasi-optimal and it results in lower information loss and better data utility.
272

Segmentation et indexation d’objets complexes dans les images de bandes déssinées

Rigaud, Christophe 11 December 2014 (has links)
Nacido en el siglo 19, los historietas se utilizan para la expresión de ideas a través de secuencias de imágenes, a menudo en combinación con el texto y los gráficos. El cómic esta considerado como un noveno arte, arte secuencial, salida con los avances en la impresión y la Internet en todo el mundo en periódicos, libros y revistas. Hoy en día, el creciente desarrollo de las nuevas tecnologías y la World Wide Web (el lienzo Internet) da lugar a nuevas formas de expresión que lleva el papel a disfrutar de la libertad del mundo virtual. Sin embargo, el cómic tradicional persiste y es un patrimonio cultural importante en muchos países. A diferencia de la música, el cine o la literatura clásica, que aún no ha encontrado son homólogos en el mundo digital. El uso de tecnologías de la información y de las telecomunicaciones podría facilitar la exploración de bibliotecas en línea, la traducción y acelerar su permiso de exportación a la mayor lectura (enriquecimiento de los contenidos durante la reproducción, a la carta y personalizado ) o permitir la escucha de texto y efectos de sonido para los estudiantes con discapacidad visual o allumnos. Agencias de la preservación del patrimonio cultural como CIBDI en Angouleme (Centro Internacional del Cómic y de imagen), el Museo Internacional de Manga en Kioto (Kyoto International Manga Museum) o el sitio digitalcomicmuseum.com de los Estados Unidos han digitalizado cientos de álbumes, algunos son públicos. Pese a la creciente cuota de mercado de los cómics digitales en los países desarrollados, poca investigación se ha llevado a cabo hasta la fecha para desarrollar estos contenidos a través de las nuevas tecnologías. El análisis de documentos es un tema de investigación que se ocupa de este problema. Una de estas características es la dependencia del tipo de documento que a menudo requiere un tratamiento específico. El proceso de creación de un cómic es exclusivo de este arte que puede ser considerado como un nicho en el campo de análisis de documentos. En realidad, este nicho está en la intersección de varios documentos de investigación que cuenta consiste en un fondo complejo, contenido semi-estructurada y variada. La intersección de varias investigaciones combina sus dificultades. En esta tesis de doctorado, se describen e ilustran los diversos retos científicos de esta investigación con el fin de dar al lector toda la evidencia acerca de los últimos avances científicos en el campo, así como las barreras científicas actuales. Proponemos tres enfoques de análisis de imagen cómica compuesta por diferentes tratamientos que mejora algunos trabajos previos y otros que son nuevas vías de exploración. El primer enfoque se denomina \secuencial" porque los contenidos de la imagen se describe gradualmente y de manera intuitiva. Simples artículos como cajas y texto y las burbujas se extraen primero y luego siguen la cola de las burbujas y los personajes de los cuadros de acuerdo a la dirección apuntada por las colas. El segundo método ofrece extracciones independientes unos de otros a fin de evitar la propagación del error entre aplicaciones, que es la principal desventaja del primer método. En este enfoque, los diversos extractores se pueden utilizar en paralelo, ya que no tienen la interdependencia. Otros elementos como la clasificación del tipo de burbuja y el reconocimiento de texto están asociados. El tercer enfoque introduce un sistema basado en un conocimiento a priori del contenido de las imágenes de dibujos animados que interactúa entre los tratamientos bajos y altos niveles para construir una descripción semántica de la imagen. Proponemos un sistema experto consiste en un sistema de inferencia y dos modelos de la forma de ontologías, un modelo para el campo de los cómics y el otro para modelar el procesamiento de imágenes asociado. Este sistema experto combina las ventajas de ambos enfoques anteriores y proporciona un alto nivel de descripción semántica puede incluir información como el orden de lectura de los cuadros, el texto y las burbujas, burbujas relaciones entre habladas y sus altavoces y el distinción entre los caracteres. Además, se describen los primeros cómics públicas basadas en imágenes y la realidad sobre el terreno que incluye que se han propuesto a la literatura científica, la información espacial y semántica. Un experimento de todos los métodos propuestos y una comparación de los enfoques de la literatura también se detallan en este manuscrito. / Born in the 19th century, comics is a visual medium used to express ideas via images, often combined with text or visual information. It is considered as a sequential art, spread worldwide initially using newspapers, books and magazines. Nowadays, the development of the new technologies and the World Wide Web is giving birth to a new form of paperless comics that takes advantage of the virtual world freedom. However, traditional comics still represent an important cultural heritage in many countries. They have not yet received the same level of attention as music, cinema or literature about their adaptation to the digital format. Using information technologies with classic comics would facilitate the exploration of digital libraries, faster theirs translations, allow augmented reading, speech playback for the visually impaired etc. Heritage museums such as the CIBDI (French acronym for International City of Comic books and Images), the Kyoto International Manga Museum and the digitalcomicmuseum. com have already digitized several thousands of comic albums that some are now in the public domain. Despite the expending market place of digital comics, few researches have been carried out to take advantage of the added value provided by these new media. Document analysis is the corresponding eld of research which is relatively application-dependent. The design process of comics is so typical that their automated analysis may be seen as a niche research eld within document analysis, at the intersection of complex background, semi-structured and mixed content documents. Being at the intersection of several fields combine their dificulties. In this thesis, we review, highlight and illustrate the challenges in order to give to the reader a good overview about the last research progress in this eld and the current issues. We propose three diferent approaches for comic book image analysis relying on previous work and novelties. The first approach is called \sequential" because the image content is described in an intuitive way, from simple to complex elements using previously extracted elements to guide further processing. Simple elements such as panel text and balloon are extracted first, followed by the balloon tail and then the comic character position in the panel from the direction pointed by the tail. The second approach addresses independent information extraction to recover the main drawback of the rst approach: error propagation. This second method is called \independent" because it is composed by several specific extractors for each elements of the image content. Those extractors can be used in parallel, without needing previous extraction. Extra processing such as balloon type classification and text recognition are also covered. The third approach introduces a knowledge-driven system that combines low and high level processing to build a scalable system of comics image understanding. We built an expert system composed by an inference engine and two models, one for comics domain and an other one for image processing, stored in an ontology. This expert system combines the benefits of the two first approaches and enables high level semantic description such as the reading order of panels and text, the relations between the speech balloons and their speakers and the comic character identification. Apart from that, in this thesis we have provided the first public comics image dataset and ground truth to the community along with an overall experimental comparison of all the proposed methods and some of the state-of-the-art methods.
273

Modelling, control and supervision for a class of hybrid systems

Esteva Payet, Santiago 13 March 2003 (has links)
The aim of this thesis is to narrow the gap between two different control techniques: the continuous control and the discrete event control techniques DES. This gap can be reduced by the study of Hybrid systems, and by interpreting as Hybrid systems the majority of large-scale systems. In particular, when looking deeply into a process, it is often possible to identify interaction between discrete and continuous signals. Hybrid systems are systems that have both continuous, and discrete signals. Continuous signals are generally supposed continuous and differentiable in time, since discrete signals are neither continuous nor differentiable in time due to their abrupt changes in time. Continuous signals often represent the measure of natural physical magnitudes such as temperature, pressure etc. The discrete signals are normally artificial signals, operated by human artefacts as current, voltage, light etc.Typical processes modelled as Hybrid systems are production systems, chemical process, or continuos production when time and continuous measures interacts with the transport, and stock inventory system. Complex systems as manufacturing lines are hybrid in a global sense. They can be decomposed into several subsystems, and their links. Another motivation for the study of Hybrid systems is the tools developed by other research domains. These tools benefit from the use of temporal logic for the analysis of several properties of Hybrid systems model, and use it to design systems and controllers, which satisfies physical or imposed restrictions.This thesis is focused in particular types of systems with discrete and continuous signals in interaction. That can be modelled hard non-linealities, such as hysteresis, jumps in the state, limit cycles, etc. and their possible non-deterministic future behaviour expressed by an interpretable model description. The Hybrid systems treated in this work are systems with several discrete states, always less than thirty states (it can arrive to NP hard problem), and continuous dynamics evolving with expression: with Ki ¡ Rn constant vectors or matrices for X components vector. In several states the continuous evolution can be several of them Ki = 0.In this formulation, the mathematics can express Time invariant linear system. By the use of this expression for a local part, the combination of several local linear models is possible to represent non-linear systems. And with the interaction with discrete events of the system the model can compose non-linear Hybrid systems.Especially multistage processes with high continuous dynamics are well represented by the proposed methodology. Sate vectors with more than two components, as third order models or higher is well approximated by the proposed approximation. Flexible belt transmission, chemical reactions with initial start-up and mobile robots with important friction are several physical systems, which profits from the benefits of proposed methodology (accuracy).The motivation of this thesis is to obtain a solution that can control and drive the Hybrid systems from the origin or starting point to the goal. How to obtain this solution, and which is the best solution in terms of one cost function subject to the physical restrictions and control actions is analysed. Hybrid systems that have several possible states, different ways to drive the system to the goal and different continuous control signals are problems that motivate this research.The requirements of the system on which we work is: a model that can represent the behaviour of the non-linear systems, and that possibilities the prediction of possible future behaviour for the model, in order to apply an supervisor which decides the optimal and secure action to drive the system toward the goal.Specific problems can be determined by the use of this kind of hybrid models are: - The unity of order.- Control the system along a reachable path.- Control the system in a safe path.- Optimise the cost function.- Modularity of controlThe proposed model solves the specified problems in the switching models problem, the initial condition calculus and the unity of the order models. Continuous and discrete phenomena are represented in Linear hybrid models, defined with defined eighth-tuple parameters to model different types of hybrid phenomena. Applying a transformation over the state vector : for LTI system we obtain from a two-dimensional SS a single parameter, alpha, which still maintains the dynamical information. Combining this parameter with the system output, a complete description of the system is obtained in a form of a graph in polar representation.Using Tagaki-Sugeno type III is a fuzzy model which include linear time invariant LTI models for each local model, the fuzzyfication of different LTI local model gives as a result a non-linear time invariant model. In our case the output and the alpha measure govern the membership function.Hybrid systems control is a huge task, the processes need to be guided from the Starting point to the desired End point, passing a through of different specific states and points in the trajectory. The system can be structured in different levels of abstraction and the control in three layers for the Hybrid systems from planning the process to produce the actions, these are the planning, the process and control layer.In this case the algorithms will be applied to robotics ¡V a domain where improvements are well accepted ¡V it is expected to find a simple repetitive processes for which the extra effort in complexity can be compensated by some cost reductions. It may be also interesting to implement some control optimisation to processes such as fuel injection, DC-DC converters etc.In order to apply the RW theory of discrete event systems on a Hybrid system, we must abstract the continuous signals and to project the events generated for these signals, to obtain new sets of observable and controllable events. Ramadge & Wonham¡¦s theory along with the TCT software give a Controllable Sublanguage of the legal language generated for a Discrete Event System (DES). Continuous abstraction transforms predicates over continuous variables into controllable or uncontrollable events, and modifies the set of uncontrollable, controllable observable and unobservable events. Continuous signals produce into the system virtual events, when this crosses the bound limits. If this event is deterministic, they can be projected. It is necessary to determine the controllability of this event, in order to assign this to the corresponding set, , controllable, uncontrollable, observable and unobservable set of events.Find optimal trajectories in order to minimise some cost function is the goal of the modelling procedure. Mathematical model for the system allows the user to apply mathematical techniques over this expression. These possibilities are, to minimise a specific cost function, to obtain optimal controllers and to approximate a specific trajectory.The combination of the Dynamic Programming with Bellman Principle of optimality, give us the procedure to solve the minimum time trajectory for Hybrid systems. The problem is greater when there exists interaction between adjacent states.In Hybrid systems the problem is to determine the partial set points to be applied at the local models. Optimal controller can be implemented in each local model in order to assure the minimisation of the local costs. The solution of this problem needs to give us the trajectory to follow the system. Trajectory marked by a set of set points to force the system to passing over them.Several ways are possible to drive the system from the Starting point Xi to the End point Xf. Different ways are interesting in: dynamic sense, minimum states, approximation at set points, etc. These ways need to be safe and viable and RchW. And only one of them must to be applied, normally the best, which minimises the proposed cost function. A Reachable Way, this means the controllable way and safe, will be evaluated in order to obtain which one minimises the cost function.Contribution of this work is a complete framework to work with the majority Hybrid systems, the procedures to model, control and supervise are defined and explained and its use is demonstrated. Also explained is the procedure to model the systems to be analysed for automatic verification.Great improvements were obtained by using this methodology in comparison to using other piecewise linear approximations. It is demonstrated in particular cases this methodology can provide best approximation.The most important contribution of this work, is the Alpha approximation for non-linear systems with high dynamics While this kind of process is not typical, but in this case the Alpha approximation is the best linear approximation to use, and give a compact representation.
274

Cooperación entre la aplicación y el kernel para la planificación de flujos, en sistemas multiprocesadores, como soporte al paralelismo

Gil Gómez, Maria Luisa 04 July 1994 (has links)
El objetivo de nuestro trabajo ha sido defender la tesis de que, para los entornos de trabajos actuales, multiprocesador, una opción válida para obtener el mejor rendimiento de las aplicaciones paralelas de propósito general es conseguir que el kernel y la propia aplicación cooperen en la gestión de los recursos.El estudio abarca a la aplicación en su conjunto, con todas sus partes, en cuya ejecución el sistema operativo toma una parte activa y decisoria. Y nos hemos centrado en aplicaciones paralelas multiflujo de granularidad media.Hemos diseñado y realizado un entorno de trabajo basándonos en la tecnología microker-nel en el que ofrecemos un nuevo sistema de planificación.A partir de políticas de planificación de particionado de la máquina, hemos aislado a las aplicaciones, unas de otras, y hemos habilitado que en cada partición el usuario pueda decidir qué política de planificación y qué quantums y recálculo de prioridades quiere. Con ello conseguimos, por un lado, que cada aplicación pueda ajustar la planificación que mejor rendimiento le suponga.Por otro, que no queden afectadas unas por el funcionamiento de otras.A partir de la abstracción de procesador virtual, dotamos a la aplicación de la capacidad de gestionar la planificación de sus propios flujos, mediante la nueva abstracción "contexto de eje-cución" (eXc) que el kernel ofrece a la aplicación para que pueda ejecutar un flujo en cada uno de los procesadores físicos que le ha asignado. En este nuevo entorno el kernel puede comunicar de manera asíncrona con la aplicación, transmitiéndole los eventos que puedan afectar a ésta para decidir una replanificación en sus flujos. En concreto, el bloqueo/desbloqueo de flujos, la asigna-ción/desasignación de procesadores físicos y un temporizador para poder disponer del dispositivo reloj a nivel de aplicación. Se han resuelto los problemas de desbanque de flujos dentro de exclusiones mutuas gracias a unas nuevas primitivas de sincronización que evitan el abrazo mortal.Con nuestra realización de paso de gestión de flujos del kernel a la aplicación, además de aumentar el throughput en un orden de magnitud, ganamos tiempo de ejecución para otros flujos de la aplicación.La plataforma de desarrollo ha sido un multiprocesador de memoria compartida sobre el que hemos modificado el microkernel Mach 3.0, con el entorno operativo OSF/1 MK y la librería de threads de usuario CThreads, modificada igualmente para enriquecer y potenciar la parte de planificación de flujos. / The goal of this thesis is to show that it is possible to achieve a better parallel application perfor-mance in multiprocessor operating environments when the kernel and the application cooperate in the resource management.The study includes the whole application, in addition to the components whose manage-ment is mainly supported by the operating system. The selected applications for study are medium grain parallelism applications (ie. servers, subsystems, virtual machines,...).Our work includes a design and implementation of an operating environment in the micro-kernel technology with a new scheduling approach.We have implemented space sharing scheduling policies to isolate applications insidemachine partitions; each partition has its own scheduling policy and the user can modify priorities, quantums and policies in his application partition. This approach allows each application to adjust and tune its own scheduling to achieve the better performance it would. Also it permits to protect applications from the other applications faults.We propose a new abstraction: the eXecution context (eXc) as the processor virtual object that allows the application to manage its threads. The eXc are offered by the kernel to the application to run threads in the physical processors that the kernel gives to the application.The kernel communicates to the application, in an asynchronous way, the events thatcould lead to a rescheduling of its threads. This events are: thread blocked/unblocked, physical processor allocated/deallocated and the clock, to have the possibility of timeouts at application level.New synchronization primitives prevent the deadlock problem when there may be a thread preemption in a mutex area.Our implementation overcomes throughput in one order of magnitude and also has a gain in the execution time for the other application threads.This work has been implemented in a shared memory multiprocessor. We have modified the Mach 3.0 microkernel, the OSF/1 MK operating environment and the CThreads library. This library has been also modified to offer more complete scheduling policies and synchronization mechanisms.
275

Explorando los límites de la microscopía de fuerzas : ruido térmico y ruido e la interacción punta-muestra

González Martínez, Juan Francisco 25 November 2015 (has links)
En esta tesis se analizan y discuten los aspectos que determinan los límites de la microscopía de fuerzas (SFM). Para tal fin, se han expuesto un conjunto de modelos de diversa complejidad (oscilador armónico, modelo continuo). Además, se ha descrito con detalle el origen y significado físico de las señales electrónicas en las que convertimos el desplazamiento físico (amplitud, fase, frecuencia y fuerza normal) y el sistema electrónico encargado de su adquisición y procesado (Capítulos 1 y 2). El comportamiento dinámico del fleje no puede limitarse a un oscilador armónico ya que constituye un sistema más complejo: es necesario considerar el fleje como un conjunto de osciladores, excitados en mayor o menor medida, donde cada uno de ellos, se ve afectado por disipaciones (internas, despreciables en este contexto) y externas (de tipo hidrodinámico) que, a su vez, tienen una dependencia en función de la distancia punta-muestra. Desde el punto de vista hidrodinámico, se analiza dicha disipación a través del factor de calidad del oscilador (Capítulo 6). Dicho análisis parte de la descomposición del sistema físico (el fleje) en sus diversas partes (el fleje, propiamente dicho, la punta y el vértice de la punta) y permite la optimización de la geometría del sistema fleje-punta para conseguir la máxima sensibilidad posible. El ruido térmico es uno de los límites fundamentales en las aplicaciones desarrolladas en esta tesis y es pues, el eje central que ha permitido su confección. Las fluctuaciones térmicas afectan a la posición del fleje y limitan la determinación de la frecuencia de resonancia del sistema. Se desarrolla una relación precisa (Capítulo 3) para el ruido térmico en frecuencia en función del ancho de banda y de la amplitud de oscilación del fleje, que rectifica la relación clásica empleada en la literatura. La diferente composición química de los compuestos presentes en una superficie se refleja en la existencia de una contribución adicional al ruido térmico, y, por tanto, a los límites de las medidas en microscopía de fuerzas. Se han realizado experimentos que evidencian la presencia de este ruido y explican cómo es posible extraer información del mismo (Capítulo 5). Además, justificamos su existencia a raíz de las diferentes interacciones hidrófobica e hidrofílica presentes en la superficie. La variación de la amplitud de oscilación está relacionada con la disipación del sistema punta-muestra. Además, sólo para pequeñas amplitudes el sistema dinámico puede considerarse armónico. Es necesario desarrollar un método de calibración de la amplitud de oscilación que permita conocer con precisión cuánto varía la posición del fleje. Esto es posible mediante una calibración correcta de la señal de la amplitud de oscilación y para tal fin, se proponen dos métodos (Capítulo 4): uno de ellos está basado en el cálculo de la desviación cuadrática media de la señal de salida de la electrónica; el segundo método se basa en el análisis del espectro de la señal correspondiente y en el cálculo del factor de calidad, la frecuencia de resonancia y la intensidad de la señal. Ambos métodos son también aplicables a la calibración de la fuerza normal. En este caso la importancia radica en que es posible calibrar la sensibilidad en fuerza normal sin que la punta del fleje sufra daños. Finalmente, en los experimentos expuestos se ha hecho uso de un sistema de reposicionamiento preciso (Capítulo 7). Este sistema, permite la manipulación ex-situ de las muestras y el reposicionamiento preciso en el microscopio de fuerzas sin ayuda de un microscopio óptico o marcas de posición. / This thesis analyses and describes the fundamental and experimental limits of Scanning Force Microscopy. To this end, a set of models for the dynamical behaviour of the system are proposed. In addition, the origin and physical meaning of the electronic signals generated by the motion of the cantilever (amplitude, phase, frequency and normal force) and the electronics involved in its acquisition and processing have been described in detail (Chapters 1 and 2). The dynamic behaviour of the cantilever cannot be described correctly by the harmonic oscillator. It is necessary to consider the cantilever as a set of oscillators, excited in different modes, each of them being affected by dissipations (internal, negligible in this context) and external (hydrodynamic) that, in turn, depends on the tip-sample distance. From the hydrodynamic point of view, this dissipation is analysed through the quality factor of the oscillator (Chapter 6). This analysis is based on the decomposition of the system (the cantilever) in its components (the lever, the tip and the apex of the tip) and allows the optimization of the geometry of the system (cantilever) in order to obtain the maximum sensitivity possible. The thermal noise is one of the fundamental limits of Scanning Force Microscopy. Temperature fluctuations affect the position of the cantilever and limit the resolution of the frequency measurements. A precise relationship (Chapter 3) for thermal frequency noise as a function of the bandwidth and amplitude of oscillation of the cantilever has been developed. This result rectifies the classic relationship from the scientific literature. We have found that the chemical composition of a surface induces an additional contribution to noise, and therefore to the limits in SFM. To show and analyse in more detail the presence of this noise and the information it contains, various experiments have been developed (Chapter 5). Furthermore, we justify the nature of this noise from the different hydrophobic and hydrophilic interactions on the surface. The fluctuations in the amplitude of oscillation is related to the dissipation of the tip-sample system. Only for small amplitudes, the dynamic system can be considered harmonic. It is important to develop a calibration method for the oscillation amplitude. For this purpose, two methods (Chapter 4) are proposed: one based on the mean square deviation calculus of the output signal of the electronics; the second method, based on spectral analysis and the calculation of the quality factor, resonant frequency and signal strength. Both methods are also applicable to the calibration of the normal force. In this case, the importance lies in the calibration of the sensitivity of normal force without tip damage. Finally, for some of the experiments reported along this thesis, a precise repositioning system (Chapter 7) has been developed. This system allows the ex-situ sample handling and the precise repositioning of the sample in the SFM without the aid of an optical microscope or position marks.
276

Adaptive control for wearable robots in human-centered rehabilitation tasks

Rajasekaran, Vijaykumar 22 December 2015 (has links)
Robotic rehabilitation therapies have been improving by providing the needed assistance to the patient, in a human-centered environment, and also helping the therapist to choose the necessary procedure. This thesis presents an adaptive "Assistance-as-needed" strategy which adheres to the specific needs of the patient and with the inputs from the therapist, whenever needed. The exertion of assistive and responsive behavior of the lower limb wearable robot is dedicated for the rehabilitation of incomplete spinal cord injury (SCI) patients. The main objective is to propose and evaluate an adaptive control model on a wearable robot, assisting the user and adhering to their needs, with no or less combination of external devices. The adaptation must be more interactive to understand the user needs and their volitional orders. Similarly, by using the existing muscular strength, in incomplete SCI patients, as a motivation to pursue the movement and assist them, only when needed. The adaptive behavior of the wearable robot is proposed by monitoring the interaction and movement of the user. This adaptation is achieved by modulating the stiffness of the exoskeleton in function of joint parameters, such as positions and interaction torques. These joint parameters are measured from the user independently and then used to update the new stiffness value. The adaptive algorithm performs with no need of external sensors, making it simple in terms of usage. In terms of rehabilitation, it is also desirable to be compatible with combination of assistive devices such as muscle stimulation, neural activity (BMI) and body balance (Wii), to deliver a user friendly and effective therapy. Combination of two control approaches has been employed, to improve the efficiency of the adaptive control model and was evaluated using a wearable lower limb exoskeleton device, H1. The control approaches, Hierarchical and Task based approach have been used to assist the patient as needed and simultaneously motivate the patient to pursue the therapy. Hierarchical approach facilitates combination of multiple devices to deliver an effective therapy by categorizing the control architecture in two layers, Low level and High level control. Task-based approaches engage in each task individually and allow the possibility to combine them at any point of time. It is also necessary to provide an interaction based approach to ensure the complete involvement of the user and for an effective therapy. By means of this dissertation, a task based adaptive control is proposed, in function of human-orthosis interaction, which is applied on a hierarchical control scheme. This control scheme is employed in a wearable robot, with the intention to be applied or accommodated to different pathologies, with its adaptive capabilities. The adaptive control model for gait assistance provides a comprehensive solution through a single implementation: Adaptation inside a gait cycle, continuous support through gait training and in real time. The performance of this control model has been evaluated with healthy subjects, as a preliminary study, and with paraplegic patients. Results of the healthy subjects showed a significant change in the pattern of the interaction torques, elucidating a change in the effort and adaptation to the user movement. In case of patients, the adaptation showed a significant improvement in the joint performance (flexion/extension range) and change in interaction torques. The change in interaction torques (positive to negative) reflects the active participation of the patient, which also explained the adaptive performance. The patients also reported that the movement of the exoskeleton is flexible and the walking patterns were similar to their own distinct patterns. The presented work is performed as part of the project HYPER, funded by Ministerio de Ciencia y Innovación, Spain. (CSD2009 - 00067 CONSOLIDER INGENIO / Las terapias de rehabilitación robóticas han sido mejoradas gracias a la inclusión de la asistencia bajo demanda, adaptada a las variaciones de las necesidades del paciente, así como a la inclusión de la ayuda al terapeuta en la elección del procedimiento necesario. Esta tesis presenta una estrategia adaptativa de asistencia bajo demanda, la cual se ajusta a las necesidades específicas del paciente junto a las aportaciones del terapeuta siempre que sea necesario. El esfuerzo del comportamiento asistencial y receptivo del robot personal portátil para extremidades inferiores está dedicado a la rehabilitación de pacientes con lesión de la médula espinal (LME) incompleta. El objetivo principal es proponer y evaluar un modelo de control adaptativo en un robot portátil, ayudando al usuario y cumpliendo con sus necesidades, en ausencia o con reducción de dispositivos externos. La adaptación debe ser más interactiva para entender las necesidades del usuario y sus intenciones u órdenes volitivas. De modo similar, usando la fuerza muscular existente (en pacientes con LME incompleta) como motivación para lograr el movimiento y asistirles solo cuando sea necesario. El comportamiento adaptativo del robot portátil se propone mediante la monitorización de la interacción y movimiento del usuario. Esta adaptación conjunta se consigue modulando la rigidez en función de los parámetros de la articulación, tales como posiciones y pares de torsión. Dichos parámetros se miden del usuario de forma independiente y posteriormente se usan para actualizar el nuevo valor de la rigidez. El desempeño del algoritmo adaptativo no requiere de sensores externos, lo que favorece la simplicidad de su uso. Para una adecuada rehabilitación, efectiva y accesible para el usuario, es necesaria la compatibilidad con diversos mecanismos de asistencia tales como estimulación muscular, actividad neuronal y equilibrio corporal. Para mejorar la eficiencia del modelo de control adaptativo se ha empleado una combinación de dos enfoques de control, y para su evaluación se ha utilizado un exoesqueleto robótico H1. Los enfoques de control Jerárquico y de Tarea se han utilizado para ayudar al usuario según sea necesario, y al mismo tiempo motivarle para continuar el tratamiento. Enfoque jerárquico facilita la combinación de múltiples dispositivos para ofrecer un tratamiento eficaz mediante la categorización de la arquitectura de control en dos niveles : el control de bajo nivel y de alto nivel. Los enfoques basados en tareas involucran a la persona en cada tarea individual, y ofrecen la posibilidad de combinarlas en cualquier momento. También es necesario proporcionar un enfoque basado en la interacción con el usuario, para asegurar su participación y lograr así una terapia eficaz. Mediante esta tesis, proponemos un control adaptativo basado en tareas y en función de la interacción persona-ortesis, que se aplica en un esquema de control jerárquico. Este esquema de control se emplea en un robot portátil, con la intención de ser aplicado o acomodado a diferentes patologías, con sus capacidades de adaptación. El modelo de control adaptativo propuesto proporciona una solución integral a través de una única aplicación: adaptación dentro de la marcha y apoyo continúo a través de ejercicios de movilidad en tiempo real. El rendimiento del modelo se ha evaluado en sujetos sanos según un estudio preliminar, y posteriormente también en pacientes parapléjicos. Los resultados en sujetos sanos mostraron un cambio significativo en el patrón de los pares de interacción, elucidando un cambio en la energía y la adaptación al movimiento del usuario. En el caso de los pacientes, la adaptación mostró una mejora significativa en la actuación conjunta (rango de flexión / extensión) y el cambio en pares de interacción. El cambio activo en pares de interacción (positivo a negativo) refleja la participación activa del paciente, lo que también explica el comportamiento adaptativo.
277

Millores en un crioconcentrador per plaques de pel.licula descendent : dissenys de nous prototips per liquids industrials i residuals

Rodríguez Barraguer, Vicenç 22 December 2015 (has links)
One of the techniques for separating soluble solids in an aqueous solution, is for freezing of water that contains, which is known as cryoconcentration It relates to systems of crystallization of ice by layer (Flesland, 1995) because the principle is the same, although the model presented is significantly different, both in terms of geometry and the equipment that incorporates. The experimental work, the basis of this thesis, has gone through two machines cryoconcentration, semi - industrial, known as first and second prototype, where have been developed tests with food liquids wine, orange juice and coffee; use of second products industrial liquids and liquids waste to reduce water and subsequent treatment of concentrated. They have been expressly built, one after the other, as a result of the improvements that have been incorporated to watching trials and with the aim of achieving, in the second prototype,a cryoconcentrator of film descendant, semi-industrial, to between 35 and 40 l of liquid, more effective, in energy efficiency and make good concentrates. Explains the key points of the machine, as for example, how to get a good liquid distribution to be focus and having a good evaporation - condensation in the entire cooling system. Everything revolves to make concentrated quality, which can give added value to the food liquids, this method of descending film, with the application of the techniques of cold. In fact, intends to reveal that this method, based on physical principles, is better than classical distillation for heat, if you want to get concentrated rich in original content. In the preparation of fruit juices, it has the advantage of preserving their vitamins and flavors. In a commercial orange juice 100% fruit juice got a 45% concentrate juice fruit rest water with trace amounts of 1% fruit juice without degradation of aromas. And in the category of coffee, was achieved in the process of concentrate, reduce it by up to 55% of concentrated coffee the rest water with trace amounts of 1% without losing the aromas and taste. It also wants to extend to industrial fluids as needed to focus. It is at this point, in the treatment of industrial and sewage waste, where it has insisted more than experimentation, by the good results obtained and as evidence that in many areas they have not finished making. For the specific case of a multinational cosmetics, sample which was, went from having a content of dissolved solids, with cod = 27500 ppm, to a cod = 27 ppm water. The last phase of this work wants to reflect experience with the experimentation carried out and that also serve to extrapolate and sizing designs of other models, based on the same technology. The technique is quite simple and innovative in its application; working at atmospheric pressure and temperatures that rarely move from - 5 ° C, providing a concentration more advantageous, and as an alternative to the classical distillation for heat. A brief review of existing models, known by different names, which are used to make concentrated, to complete with an innovative model and energy saving considered of freeze concentration by plates of film descendant, through cold generation systems, which can be 'tailor-made' is made. The work has a history of work and experimentation, made in the past six years, with the two real prototypes, which have been improving day by day, where all tests and experimental trials have been done. It does not leave out that one of the objectives is also to make a cold efficient to improving the COP and system with a view to incorporating in the industrial sector You can say contributions highlighted in this thesis are: Resolution of the uniform distribution of liquid concentrate on cold plates. Application of this process of concentration for industrial waste / Una de les tècniques per separar sòlids solubles d'una solució aquosa, és per congelació de l'aigua que conté, practica que es coneix com crioconcentració. Es relaciona amb sistemes de cristal.lització de gel per capa, Flesland,1995 perquè el principi és el mateix encara que el model que es presenta és significativament diferent, tant per la geometria com pels equips que incorpora. El treball experimental, fonament d'aquesta tesis, ha passat per dues màquines crioconcentradores semiindustrials, denominades primer i segon prototip on s'han desenvolupat proves amb líquids alimentaris, vi, suc de taronja i cafè; en líquids industrials, aprofitament de segons productes i en líquids residuals per reduir l'aigua i posterior tractament del concentrat. Han estat expressament construïdes, una després de l'altre, com conseqüència de les millores que s'han anat incorporant en veure els assajos i amb l'objectiu de aconseguir, en el segon prototip, un crioconcentrador per pel·lícula descendent, semi industrial per tractar entre 35 i 40 l de líquid, més eficaç, en rendiment energètic i en fer bons concentrats. S'expliquen els punts claus de la màquina, com per exemple com aconseguir un bon repartiment del fluid que es vol concentrar i que hagi una bona evaporació condensació en tot el sistema frigorífic. Tot gira a fer concentrats de qualitat, que pugin donar un valor afegit als líquids alimentaris, per aquest mètode de pel·lícula descendent, amb l'aplicació de les tècniques conegudes de fred. De fet es pretén revelar que aquest mètode, basat en principis físics, és millor que la destil·lació clàssica per calor, si es vol obtenir concentrats rics en els seus continguts originals. En l'elaboració de sucs de fruites, te l'avantatge de preservar els seus sabors i vitamines. En un suc de taronja comercial 100% suc fruita es va obtenir un concentrat del 45% suc fruita resta aigua amb traces de suc fruita del 1% sense degradació d'aromes. I en l'especialitat del cafè, es va aconseguir en el procés del concentrat, reduir-lo al 55% de cafè concentrat, resta aigua amb traces del 1% sense perdre els aromes ni el sabor. També es vol estendre'l als líquids industrials que es necessitin concentrar .És en aquest punt, del tractament de líquids industrials i residuals, on s'ha insistit més de l'experimentació, pels bons resultats obtinguts i per ser proves que en molts àmbits no s'han acabat de fer. Pel cas concret d'una multinacional de cosmètica, la mostra que es va tractar, va passar de tenir un DQO=27500 ppm, fins un aigua amb DQO=27 ppm. La darrera fase d'aquest treball vol reflectir l'experiència amb l'experimentació feta i que serveixi a més, per poder extrapolar i dimensionar dissenys d'altres models, basats en la mateixa tecnologia. Es treballa a pressió atmosfèrica i temperatures de -5ºC, oferint una concentració més avantatjosa i com alternativa a la destil·lació clàssica per calor. Es fa un breu repàs dels models existents, coneguts amb diferents nomenclatures, que s`utilitzen per fer concentrats, per completar amb un model innovador i d'estalvi energètic considerat, de crioconcentració per plaques de pel·lícula descendent, sistemes de generació de fred, que es poden fer a mida. El treball té un recorregut de feina i experimentació, fet en els darrers sis anys, amb els dos prototips reals, que s'han anat millorant dia a dia, on s'han fet totes les proves i assajos experimentals. No es deixa de banda que també un dels objectius és fer un sistema de fred eficient millorant el COP i amb vistes d'incorporar-lo al sector industrial. Es pot dir que les aportacions destacades en aquesta tesis són: Resolució de la distribució uniforme del líquid a concentrar en les plaques fredes. Aplicació d'aquest procés de concentració per a residus industrials / Una de las técnicas para separar los sólidos solubles de una solución acuosa, es por congelación del agua que contiene, práctica que se conoce como crioconcentració. Se relaciona con sistemas de cristalización de hielo por capa Flesland, 1995 porque el principio es el mismo, aunque el modelo que se presenta es significativamente diferente, tanto en términos de geometría como por el equipamiento que incorpora. El trabajo experimental, la base de esta tesis, ha pasado por dos máquinas crioconcentradoras, semi-industriales, denominadas primer y segundo prototipo, donde se han desarrollado pruebas con líquidos alimentarios,vino, zumo de naranja y café; en líquidos industriales, aprovechamiento de segundos productos y en líquidos residuales para reducir el agua y posterior tratamiento de concentrado. Han sido expresamente construidas, una después de la otra, como resultado de las mejoras que se han incorporado viendo los ensayos y con el objetivo de alcanzar, en el segundo prototipo, un crioconcentrador de película descendiente, semi-industrial, para tratar entre 35 y 40 l de líquido, más eficaz, en eficiencia energética y en hacer buenos concentrados. Se explican los puntos clave de la máquina, como por ejemplo, cómo conseguir una buena distribución de líquido que se desea concentrar y que tenga una buena evaporación condensación en todo el sistema frigorífico. Todo gira en hacer concentrados de calidad, que puedan dar un valor añadido a los líquidos alimentarios, por este método de película descendiente, con la aplicación de las técnicas conocidas de frío. De hecho, se pretende revelar que este método, basado en principios físicos, es mejor que la clásica destilación por calor, si se quiere obtener concentrados ricos en sus contenidos originales. En la elaboración de zumos de frutas, tiene la ventaja de preservar sus vitaminas y sabores. En un zumo de naranja comercial 100% zumo de fruta se consiguió un concentrado del 45% zumo de fruta resto agua con trazas de zumo de fruta del 1% sin degradación de aromas. Y en la categoría de café se consiguió en el proceso de concentrado, reducirlo hasta el 55% de café concentrado resto agua con trazas del 1% sin perder los aromas ni el sabor. También se quiere extender a fluidos industriales que se necesiten concentrar. Es en este punto, del tratamiento de residuos industriales y residuales, donde se ha insistido más de la experimentación, por los buenos resultados obtenidos y por ser pruebas que en muchas ámbitos no se han acabado de hacer. Para el caso específico de una multinacional cosmética, la muestra que se trató, pasó de tener un DQO = 27500 ppm, hasta un agua con DQO = 27 ppm, La última fase de este trabajo quiere reflejar la experiencia con la experimentación realizada y que sirva además, para poder extrapolar y dimensionar diseños de otros modelos, basados en la misma tecnología. Se trabaja a presión atmosférica y temperaturas de -5 º C, ofreciendo una concentración más ventajosa, y como alternativa a la clásica destilación por calor. Se hace una breve revisión de los modelos existentes, conocidos con diferentes nomenclaturas, que se utilizan para hacer concentrados, para completar con un modelo innovador y de ahorro energético considerado, de crioconcentración por placas de película descendiente, mediante sistemas de generación de frío, que se pueden hacer a medida. El trabajo tiene una trayectoria de trabajo y experimentación, hecho en los últimos seis años, con los dos prototipos reales, que han ido mejorando día a día, donde se han hecho todas las pruebas y ensayos experimentales. No se deja de lado que también uno de los objetivos es hacer un sistema de frío eficiente mejorando el COP y con miras a incorporar en el sector industrial. Se puede decir que las contribuciones destacadas en esta tesis son: Resolución de la distribución uniforme del líquido concentrado en las placas frías. Aplicación de este proceso de concentración para residuos industriales
278

Desarrollo de un sistema de doble paso compacto y de bajo coste para la evaluación de la calidad óptica y la difusión intraocular

Sanabria, Ferran 02 December 2015 (has links)
The purpose of this PhD thesis was to design, implement and validate a low cost compact system based on the double-pass I technique in order to evaluate the viability of its use in the future in optical instrumentation to obtain optical quality and light diffusior estimations. First of all we measured the optical quality of an electro-optical liquid lens to prove its usefulness in the measurement of the eye's optical quality. We built a simple single-pass setup composed by a laser diode (LD), an electro-opticalliquid lens (EOLL) and a CCD as recording device. The results obtained in this study show the validity of this type of lenses for corrections of spherical refractive errors. In second place we studied the correction of spherical refractive errors in double-pass configurations by means of the electro­ optical liquid lens (EOLL). We measured the optical performance of the spherical corrector in terms of optical power, pupil size and optical quality verifying that they all fit the requirements to be applied to double-pass systems. We also evaluated the performance of the proposed method in patients by comparison with a conventional double-pass system using a Badal optometer (OQAS instrument) and we conclude that the EOLL is suitable to be used in a double-pass system for a spherical correction. In third place we implemented and validated a superluminiscent led (SLED) as light source in the double-pass system . The study showed that the SLED used during the experimentation did not have sufficiently low coherence to break the speckle noise on its own, but showed a good performance when being combined with other methods for speckle reduction. In fourth place we implemented and validated a CMOS camera as recorder device in the double-pass system. We studied the performance of a CMOS camera by comparison with the results obtained with a CCD. The study showed a high correlation between the results obtained with the CCD and CMOS camera, demonstrating in this manner suitability of this type of sensors (CMOS) for application in the field of visual optics. Taking into account the results on the light source, the spherical refractive error corrector, and the recording device, the final configuration of the system includes a SLD light source, a corrector based on EOLLs and a CMOS camera. The experimental double-pass system has been compared with a commercially available double-pass system (OQAS). All the tests showed the good agreement between both systems, which suggest that the system here presented may be used for estimations of the ocular optical quality and scattering measurements. We conclude that the proposed experimental setup, including as innovations the CMOS camera and the EOLL spherical corrector, improves in terms of size and cost a conventional system with a performance comparable to that observes in commercially available devices. / Esta tesis doctoral ha tenido como objetivo fundamental el diseño, implementación y validación de un sistema compacto y de bajo coste basado en la técnica del doble paso que nos permita obtener estimaciones de calidad óptica en general y de luz difusa en particular, dirigido a una posible futura utilización en la práctica clínica. Para ello se ha partido del esquema de doble paso utilizado en el instrumento oftalmológico OQAS y se ha estudiado y validado posibles mejoras, tanto en grado de integración como en coste, que han garantizado las mismas o superiores prestaciones. En primer lugar se procedió a la validación de una lente electro-óptica como sistema de corrección de la refracción esférica, este dispositivo sustituye al tradicional sistema Badal compuesto por dos lentes cuya distancia relativa puede variarse, lo cual permite la corrección de la refracción esférica. Se analizó y demostró la validez de este nuevo tipo de lentes electro-ópticas para la corrección de refracción esférica. En segundo lugar se procedió al diseño y la implementación de un sistema de doble paso utilizando la lente electro-óptica para la compensaci6n de refracción esférica. Una vez se comprobó que la lente electro-óptica reunía los requisitos de calidad óptica, se procedió a implementar el sistema de doble paso que incorpora dicha lente en substitución del sistema Badal. Se verificó y demostró que el sistema con la lente electro-óptica tiene prestaciones similares o mejores que el clásico sistema de doble paso. En tercer lugar se implementó y validó el sistema de iluminación basado en una fuente LED superluminiscente (SLED). Se incorporó como fuente de luz al sistema de doble paso un SLED y se analizó el grado de ruido speckle en las imágenes obtenidas. El estudio determinó que el SLED utilizado no tenía la suficiente baja coherencia como para romper el ruido speckle por sí mismo, pero si mostró un buen rendimiento cuando se combina con otros métodos para la reducción del speckle. En cuarto lugar se procedió a implementar y validar el sistema de registro basado en una tecnología CMOS. Se incorporó una cámara CMOS como nuevo dispositivo de registro al sistema de doble paso. El estudio realizado puso de manifiesto una alta correlación existente entre los resultados obtenidos con la cámara CMOS y la CCD, de manera que quedó demostrado la idoneidad de este tipo de sensores (CMOS) para la aplicación en montajes experimentales de óptica visual y para la implementación de instrumentación asociada a este campo. Ya por último se procedió a la validación del sistema de doble paso resultante. En función de los resultados obtenidos se implementó el sistema de doble paso definitivo siguiendo criterios de simplicidad y coste, este sistema incorpora un compensador de refracción esférica basado en una lente electro-óptica, un diodo laser y una cámara CMOS. Para la validación de los resultados obtenidos y como equipo comercial de referencia se utilizó el instrumento clínico OQAS. Los resultados obtenidos en el estudio demostraron una alta correlación entre el sistema experimental y el instrumento OQAS. Así pues y a la vista de los resultados obtenidos se concluye que a partir de los diferentes estudios realizados en esta tesis doctoral se ha demostrado que el sistema de doble paso presentado basado en una lente electro-óptica, un diodo laser y una cámara CMOS mejora en cuanto a dimensiones y coste el de un sistema convencional.
279

Understanding human-centric images : from geometry to fashion

Simó Serra, Edgar 06 July 2015 (has links)
Understanding humans from photographs has always been a fundamental goal of computer vision. Early works focused on simple tasks such as detecting the location of individuals by means of bounding boxes. As the field progressed, harder and more higher level tasks have been undertaken. For example, from human detection came the 2D and 3D human pose estimation in which the task consisted of identifying the location in the image or space of all different body parts, e.g., head, torso, knees, arms, etc. Human attributes also became a great source of interest as they allow recognizing individuals and other properties such as gender or age. Later, the attention turned to the recognition of the action being performed. This, in general, relies on the previous works on pose estimation and attribute classification. Currently, even higher level tasks are being conducted such as predicting the motivations of human behavior or identifying the fashionability of an individual from a photograph. In this thesis we have developed a hierarchy of tools that cover all these range of problems, from low level feature point descriptors to high level fashion-aware conditional random fields models, all with the objective of understanding humans from monocular, RGB images. In order to build these high level models it is paramount to have a battery of robust and reliable low and mid level cues. Along these lines, we have proposed two low-level keypoint descriptors: one based on the theory of the heat diffusion on images, and the other that uses a convolutional neural network to learn discriminative image patch representations. We also introduce distinct low-level generative models for representing human pose: in particular we present a discrete model based on a directed acyclic graph and a continuous model that consists of poses clustered on a Riemannian manifold. As mid level cues we propose two 3D human pose estimation algorithms: one that estimates the 3D pose given a noisy 2D estimation, and an approach that simultaneously estimates both the 2D and 3D pose. Finally, we formulate higher level models built upon low and mid level cues for human understanding. Concretely, we focus on two different tasks in the context of fashion: semantic segmentation of clothing, and predicting the fashionability from images with metadata to ultimately provide fashion advice to the user. In summary, to robustly extract knowledge from images with the presence of humans it is necessary to build high level models that integrate low and mid level cues. In general, using and understanding strong features is critical for obtaining reliable performance. The main contribution of this thesis is in proposing a variety of low, mid and high level algorithms for human-centric images that can be integrated into higher level models for comprehending humans from photographs, as well as tackling novel fashion-oriented problems. / Siempre ha sido una meta fundamental de la visión por computador la comprensión de los seres humanos. Los primeros trabajos se fijaron en objetivos sencillos tales como la detección en imágenes de la posición de los individuos. A medida que la investigación progresó se emprendieron tareas mucho más complejas. Por ejemplo, a partir de la detección de los humanos se pasó a la estimación en dos y tres dimensiones de su postura por lo que la tarea consistía en identificar la localización en la imagen o el espacio de las diferentes partes del cuerpo, por ejemplo cabeza, torso, rodillas, brazos, etc...También los atributos humanos se convirtieron en una gran fuente de interés ya que permiten el reconocimiento de los individuos y de sus propiedades como el género o la edad. Más tarde, la atención se centró en el reconocimiento de la acción realizada. Todos estos trabajos reposan en las investigaciones previas sobre la estimación de las posturas y la clasificación de los atributos. En la actualidad, se llevan a cabo investigaciones de un nivel aún superior sobre cuestiones tales como la predicción de las motivaciones del comportamiento humano o la identificación del tallaje de un individuo a partir de una fotografía. En esta tesis desarrollamos una jerarquía de herramientas que cubre toda esta gama de problemas, desde descriptores de rasgos de bajo nivel a modelos probabilísticos de campos condicionales de alto nivel reconocedores de la moda, todos ellos con el objetivo de mejorar la comprensión de los humanos a partir de imágenes RGB monoculares. Para construir estos modelos de alto nivel es decisivo disponer de una batería de datos robustos y fiables de nivel bajo y medio. En este sentido, proponemos dos descriptores novedosos de bajo nivel: uno se basa en la teoría de la difusión de calor en las imágenes y otro utiliza una red neural convolucional para aprender representaciones discriminativas de trozos de imagen. También introducimos diferentes modelos de bajo nivel generativos para representar la postura humana: en particular presentamos un modelo discreto basado en un gráfico acíclico dirigido y un modelo continuo que consiste en agrupaciones de posturas en una variedad de Riemann. Como señales de nivel medio proponemos dos algoritmos estimadores de la postura humana: uno que estima la postura en tres dimensiones a partir de una estimación imprecisa en el plano de la imagen y otro que estima simultáneamente la postura en dos y tres dimensiones. Finalmente construimos modelos de alto nivel a partir de señales de nivel bajo y medio para la comprensión de la persona a partir de imágenes. En concreto, nos centramos en dos diferentes tareas en el ámbito de la moda: la segmentación semántica del vestido y la predicción del buen ajuste de la prenda a partir de imágenes con meta-datos con la finalidad de aconsejar al usuario sobre moda. En resumen, para extraer conocimiento a partir de imágenes con presencia de seres humanos es preciso construir modelos de alto nivel que integren señales de nivel medio y bajo. En general, el punto crítico para obtener resultados fiables es el empleo y la comprensión de rasgos fuertes. La aportación fundamental de esta tesis es la propuesta de una variedad de algoritmos de nivel bajo, medio y alto para el tratamiento de imágenes centradas en seres humanos que pueden integrarse en modelos de alto nivel, para mejor comprensión de los seres humanos a partir de fotografías, así como abordar problemas planteados por el buen ajuste de las prendas.
280

Consilium muliebre ac deterius (Tac. Ann., XV, 54, 4): As personagens femininas e a construção da imagem imperial no principado de Nero

Azevedo, Sarah Fernandes Lino de January 2011 (has links)
Submitted by Maurílio Figueiredo (maurilioafigueiredo@yahoo.com.br) on 2013-03-04T23:28:17Z No. of bitstreams: 1 DISSERTAÇÃO_ConsiliumMuliebreDeterius.pdf: 1346146 bytes, checksum: 4cd6972b711aff919aa0080379da09e1 (MD5) / Approved for entry into archive by Neide Nativa (neide@sisbin.ufop.br) on 2013-03-13T17:59:44Z (GMT) No. of bitstreams: 1 DISSERTAÇÃO_ConsiliumMuliebreDeterius.pdf: 1346146 bytes, checksum: 4cd6972b711aff919aa0080379da09e1 (MD5) / Made available in DSpace on 2013-03-13T17:59:44Z (GMT). No. of bitstreams: 1 DISSERTAÇÃO_ConsiliumMuliebreDeterius.pdf: 1346146 bytes, checksum: 4cd6972b711aff919aa0080379da09e1 (MD5) Previous issue date: 2011 / A presente dissertação trata da relação estabelecida entre as personagens femininas dos Anais, de Tácito, e a construção da imagem de Nero como um mau imperador. A partir da identificação de dispositivos retóricos relativos às mulheres, principalmente nos livros XIII ao XVI dos Anais, parte do relato referente aos acontecimentos do principado de Nero (54-68 d.C.), buscamos compreender como Tácito utilizou-se das personagens femininas como recurso retórico na elaboração de críticas a este imperador. Tais críticas indicam valores morais pelos quais se orientava a sociedade romana. Neste sentido, analisamos como as interações entre as personagens e a composição de exempla (exemplos) evidenciam modelos de vícios e virtudes. A fim de fundamentar nossa análise, exploramos questões a respeito da condição social e política em que viviam tais mulheres, principalmente aquelas que pertenciam à domus Caesarum (Casa dos Césares). ___________________________________________________________________________________________________________________________________________________ / ABSTRACT: This dissertation deals with the relationship established between the female characters of the Tacitus‟s Annals, and the making of the Nero‟s image as an evil emperor. Identifying rhetorical devices relating to women, especially in the Annals‟s books XIII to XVI, as part of the narrative regarding the events of the Nero‟s principate (54-68 AD), aims to understand how Tacitus had used the female characters as a rhetorical tool to censure the emperor. These criticisms indicate moral values which the Roman society was embeded. In this way, we analyse how the interactions between the characters and the composition of exempla (examples) show models of vices and virtues. In order to substantiate our analysis, we will explore questions about the social and political conditions in which these women have lived, especially those who belonged to domus Caesarum (Caesars household).

Page generated in 0.0456 seconds