• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 146
  • 59
  • 57
  • 17
  • 15
  • 12
  • 7
  • 6
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 358
  • 81
  • 74
  • 61
  • 48
  • 48
  • 44
  • 36
  • 35
  • 34
  • 31
  • 29
  • 27
  • 27
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Развитие динамической спекл-интерферометрии для изучения свойств культивированных клеток как материала биомолекулярной электроники : магистерская диссертация / Development of dynamic speckle interferometry for studying the properties of thecultivated cells as biomolecular electronics material

Михайлова, Ю. А., Mikhailova, Y. A. January 2015 (has links)
An unresolved problem in research in the field of bioelectronics is the connection between the electrical signals coming from different parts of the cell, and the processes occurring within cells. In this regard, the aim of this work was the development of the method of dynamic speckle interferometry, which allows to determine the parameters characterizing the physical processes in different parts of a single cell. Object of research is living L-41 cell culture in the form of defrosted cells precipitated on a glass substrate. Literature review on the use of cell cultures in the bioelectronic field, methods cell culture studies conducted. Optical properties of cells are shown. The theory of the method of averaging in dynamic speckle interferometry is briefly considered. Speckle interferometric installation allowing at high optical magnifications to analyze intracellular processes assembled, adjusted and tested. Attestation of samples carried by optical microscopy. Dependences of the time average digital value of the intensity from pixel number and the time inside the cells are obtained. Dependences of the correlation coefficient of speckle imaging from time for different parts of the cell found. It is shown that the method allows to detect the difference in the processes occurring in the nutrient solution (outside cells) and in cells and also in different parts of the cell. / При исследованиях в области биоэлектроники нерешенной проблемой является установление связи между электрическими сигналами, идущими из разных частей клетки, и процессами, происходящими внутри клетки. В связи с этим, целью работы являлось развитие метода динамической спекл-интерферометрии, позволяющего определять параметры, характеризующие физические процессы в разных частях одной клетки. Объектом исследований являлась живая клеточная культура Л-41 в виде размороженных клеток, посаженных на стеклянную подложку. Проведен литературный обзор работ по использованию клеточных культур в области биоэлектроники, методам исследования клеточных культур, приведены оптические свойства клеток. Кратко рассмотрена теория метода усреднения в динамической спекл-интерферометрии. Собрана, налажена и апробирована спекл-интерферометрическая установка, позволяющая при больших оптических увеличениях анализировать процессы, происходящие внутри клеток. Проведена аттестация образцов методом оптической микроскопии. Получены зависимости среднего по времени цифрового значения интенсивности от номера пикселя и от времени внутри клетки. Для разных участков клетки найдены зависимости коэффициента корреляции спекловых изображений от времени. Показано, что метод позволяет обнаруживать различие в процессах, происходящих в питательном растворе (вне клетки) и в клетке, а также в разных частях клетки.
342

Electro-Optic Range Signatures of Canonical Targets Using Direct Detection LIDAR

Ruff, Edward Clark, III 29 May 2018 (has links)
No description available.
343

Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore

Sánchez Cervantes, María Guadalupe 15 May 2013 (has links)
En esta tesis se aborda la eliminaci'on de ruido impulsivo, gaussiano y speckle en im'agenes a color y en escala de gises. Como caso particular se puede mencionar la eliminaci'on de ruido en im'agenes m'edicas. Algunos m'etodos de filtrado son costosos computacionalmente y m'as a'un, si las im'agenes son de gran tama¿no. Con el fin de reducir el coste computacional de dichos m'etodos, en esta tesis se utiliza hardware que soporta procesamiento paralelo, como lo son los cores CPU con procesadores multicore y GPUs con procesadores manycore.En las implementaciones paralelas en CUDA, se configuran algunas caracter'¿sticas con la finalidad de optimizar el procesamiento de la aplicaci'on en las GPUs. Esta tesis estudia por un lado, el rendimiento computacional obtenido en el proceso de eliminaci'on de ruido impulsivo y uniforme. Por otro lado, se eval'ua la calidad despu'es de realizar el proceso de filtrado. El rendimiento computacional se ha obtenido con la paralelizaci'on de los algoritmos en CPU y/o GPU. Para obtener buena calidad en la imagen filtrada, primero se detectan los p'¿xeles corruptos y luego son filtrados solo los p'¿xeles que se han detectado como corruptos. Por lo que respecta a la eliminaci'on de ruido gaussiano y speckle, el an'alisis del filtro difusivo no lineal ha demostrado ser eficaz para este caso. Los algoritmos que se utilizan para eliminar el ruido impulsivo y uniforme en las im'agenes, y sus implementaciones secuenciales y paralelas se han evaluado experimentalmente en tiempo de ejecuci'on (speedup) y eficiencia en tres equipos de c'omputo de altas prestaciones. Los resultados han mostrado que las implementaciones paralelas disminuyen considerablemente los tiempos de ejecuci'on secuenciales. Finalmente, en esta tesis se propone un m'etodo para reducir eficientemente el ruido en las im'agenes sin tener informaci'on inicial del tipo de ruido contenido en ellas. I / Sánchez Cervantes, MG. (2013). Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28854
344

Quantification 3D d’une surface dynamique par lumière structurée en impulsion nanoseconde. Application à la physique des chocs, du millimètre au décimètre / 3D measurement of a dynamic surface by structured light in nanosecond regime. Application to shock physics, from millimeters to decimeters

Frugier, Pierre Antoine 29 June 2015 (has links)
La technique de reconstruction de forme par lumière structurée (ou projection de motifs) permet d’acquérir la topographie d’une surface objet avec une précision et un échantillonnage de points dense, de manière strictement non invasive. Pour ces raisons, elle fait depuis plusieurs années l’objet d’un fort intérêt. Les travaux présentés ici ont pour objectif d’adapter cette technique aux conditions sévères des expériences de physique des chocs : aspect monocoup, grande brièveté des phénomènes, diversité des échelles d’observation (de quelques millimètres au décimètre). Pour répondre à ces exigences, nous proposons de réaliser un dispositif autour d’un système d’imagerie rapide par éclairage laser nanoseconde, présentant des performances éprouvées et bien adaptées. La première partie des travaux s’intéresse à analyser les phénomènes prépondérants pour la qualité des images. Nous montrons quels sont les contributeurs principaux à la dégradation des signaux, et une technique efficace de lissage du speckle par fibrage est présentée. La deuxième partie donne une formulation projective de la reconstruction de forme ; celle-ci est rigoureuse, ne nécessitant pas de travailler dans l’approximation de faible perspective, ou de contraindre la géométrie de l’instrument. Un protocole d’étalonnage étendant la technique DLT (Direct Linear Transformation) aux systèmes à lumière structurée est proposé. Le modèle permet aussi, pour une expérience donnée, de prédire les performances de l’instrument par l’évaluation a priori des incertitudes de reconstruction. Nous montrons comment elles dépendent des paramètres du positionnement des sous-ensembles et de la forme-même de l’objet. Une démarche d’optimisation de la configuration de l’instrument pour une reconstruction donnée est introduite. La profondeur de champ limitant le champ objet minimal observable, la troisième partie propose de l’étendre par codage pupillaire : une démarche de conception originale est exposée. L’optimisation des composants est réalisée par algorithme génétique, sur la base de critères et de métriques définis dans l’espace de Fourier. Afin d’illustrer les performances de cette approche, un masque binaire annulaire a été conçu, réalisé et testé expérimentalement. Il corrige des défauts de mise au point très significatifs (Ψ≥±40 radians) sans impératif de filtrage de l’image. Nous montrons aussi que ce procédé donne accès à des composants tolérant des défauts de mise au point extrêmes (Ψ≈±100 radians , après filtrage). La dernière partie présente une validation expérimentale de l’instrument dans différents régimes, et à différentes échelles. Il a notamment été mis en œuvre sur l’installation LULI2000, où il a permis de mesurer dynamiquement la déformation et la fragmentation d’un matériau à base de carbone (champs millimétriques). Nous présentons également les mesures obtenues sous sollicitation pyrotechnique sur un revêtement de cuivre cylindrique de dimensions décimétriques. L’apparition et la croissance rapide de déformations radiales submillimétriques est mesurée à la surface du revêtement. / A Structured Light System (SLS) is an efficient means to measure a surface topography, as it features both high accuracy and dense spatial sampling in a strict non-invasive way. For these reasons, it became in the past years a technique of reference. The aim of the PhD is to bring this technique to the field of shock physics. Experiments involving shocks are indeed very specific: they only allow single-shot acquisition of extremely short phenomena occurring under a large range of spatial extensions (from a few mm to decimeters). In order to address these difficulties, we have envisioned the use of a well-known high-speed technique: pulsed laser illumination. The first part of the work deals with the evaluation of the key-parameters that have to be taken into account if one wants to get sharp acquisitions. The extensive study demonstrates that speckle effect and depth of field limitation are of particular importance. In this part, we provide an effective way to smooth speckle in nanosecond regime, leaving 14% of residual contrast. Second part introduces an original projective formulation for object-points reconstruction. This geometric approach is rigorous; it doesn’t involve any weak-perspective assumptions or geometric constraints (like camera-projector crossing of optical axis in object space). From this formulation, a calibration procedure is derived; we demonstrate that calibrating any structured-light system can be done by extending the Direct Linear Transformation (DLT) photogrammetric approach to SLS. Finally, we demonstrate that reconstruction uncertainties can be derived from the proposed model in an a priori manner; the accuracy of the reconstruction depends both on the configuration of the instrument and on the object shape itself. We finally introduce a procedure for optimizing the configuration of the instrument in order to lower the uncertainties for a given object. Since depth of field puts a limitation on the lowest measurable field extension, the third part focuses on extending it through pupil coding. We present an original way of designing phase components, based on criteria and metrics defined in Fourier space. The design of a binary annular phase mask is exhibited theoretically and experimentally. This one tolerates a defocus as high as Ψ≥±40 radians, without the need for image processing. We also demonstrate that masks designed with our method can restore extremely high defoci (Ψ≈±100 radians) after processing, hence extending depth of focus by amounts unseen yet. Finally, the fourth part exhibits experimental measurements obtained with the setup in different high-speed regimes and for different scales. It was embedded on LULI2000 high energy laser facility, and allowed measurements of the deformation and dynamic fragmentation of a sample of carbon. Finally, sub-millimetric deformations measured in ultra-high speed regime, on a cylinder of copper under pyrotechnic solicitation are presented.
345

Automated evaluation of three dimensional ultrasonic datasets / Évaluation automatique de données ultrasonores en 3D

Osman, Ahmad 14 June 2013 (has links)
Le contrôle non destructif est devenu nécessaire pour assurer la qualité des matériaux et des composants soit en service ou à l'étape de la production. Ceci nécessite l'utilisation d'une technique d’inspection rapide, robuste et fiable. En tant que technique de contrôle principale, la technologie des ultrasons a des capacités uniques pour évaluer la position, la taille et la forme des discontinuités. Ces informations ont un rôle essentiel dans les critères d'acceptation qui sont fondés sur la sécurité et les exigences de qualité des composants fabriqués. Par conséquent, un usage intensif de la technique des ultrasons apparaît notamment dans l'inspection des composites fabriqués à grande échelle dans l'industrie aérospatiale. D'importants progrès techniques ont contribué à l'optimisation des techniques d'acquisition par ultrasons telles que la technique de "Sampling Phased Array". Cependant, les systèmes d'acquisition doivent être complétés par une procédure d'analyse automatisée de données afin d'éviter l'interprétation manuelle fastidieuse de toutes les données produites. Un tel complément permet d'accélérer le processus d'inspection et d'améliorer sa fiabilité. L'objectif de cette thèse est de proposer une chaîne d’analyse dédiée au traitement automatique des volumes échographiques 3D obtenus en utilisant la technique Sampling Phased Array. Tout d'abord, une étude détaillée du bruit de speckle affectant les données échographiques a été effectuée, puisque ce type de bruit réduit la qualité des données échographiques. Ensuite, une chaîne d’analyse complète a été développée, constituée d'une procédure de segmentation suivie d'un processus de classification. La méthodologie de segmentation proposée est adaptée aux données ultrasonores 3D et a pour objectif de détecter tous les défauts potentiels à l'intérieur du volume d'entrée 3D. La procédure de segmentation étant en priorité dédiée à la détection des défauts qui est vitale, une difficulté principale est le taux élevé de fausses alarmes qui peuvent être détectées également. La classification correcte des fausses alarmes est nécessaire afin de réduire le taux de rejet des pièces saines. Cela doit être fait sans risquer la perte des vrais défauts. Par conséquent, la segmentation doit être suivie d'un processus de classification efficace qui doit distinguer les défauts réels des fausses alarmes. Ceci a été réalisé en utilisant une approche de classification spécifique basée sur une approche de fusion de données. La chaîne complète d'analyse a été testée sur plusieurs mesures ultrasonores volumiques de composites plastiques à renfort fibre de carbone. Les résultats expérimentaux de la chaîne ont révélé une grande précision ainsi qu'une très bonne fiabilité de détection, de caractérisation et de classification des défauts avec un taux très faible de fausses alarmes. / Non-destructive testing has become necessary to ensure the quality of materials and components either in-service or at the production stage. This requires the use of a rapid, robust and reliable testing technique. As a main testing technique, the ultrasound technology has unique abilities to assess the discontinuity location, size and shape. Such information play a vital role in the acceptance criteria which are based on safety and quality requirements of manufactured components. Consequently, an extensive usage of the ultrasound technique is perceived especially in the inspection of large scale composites manufactured in the aerospace industry. Significant technical advances have contributed into optimizing the ultrasound acquisition techniques such as the sampling phased array technique. However, acquisition systems need to be complemented with an automated data analysis procedure to avoid the time consuming manual interpretation of all produced data. Such a complement would accelerate the inspection process and improve its reliability. The objective of this thesis is to propose an analysis chain dedicated to automatically process the 3D ultrasound volumes obtained using the sampling phased array technique. First, a detailed study of the speckle noise affecting the ultrasound data was conducted, as speckle reduces the quality of ultrasound data. Afterward, an analysis chain was developed, composed of a segmentation procedure followed by a classification procedure. The proposed segmentation methodology is adapted for ultrasound 3D data and has the objective to detect all potential defects inside the input volume. While the detection of defects is vital, one main difficulty is the high amount of false alarms which are detected by the segmentation procedure. The correct distinction of false alarms is necessary to reduce the rejection ratio of safe parts. This has to be done without risking missing true defects. Therefore, there is a need for a powerful classifier which can efficiently distinguish true defects from false alarms. This is achieved using a specific classification approach based on data fusion theory. The chain was tested on several ultrasound volumetric measures of Carbon Fiber Reinforced Polymers components. Experimental results of the chain revealed high accuracy, reliability in detecting, characterizing and classifying defects.
346

Complex photonic structures in nature : from order to disorder

Onelli, Olimpia Domitilla January 2018 (has links)
Structural colours arise from the interaction of visible light with nano-structured materials. The occurrence of such structures in nature has been known for over a century, but it is only in the last few decades that the study of natural photonic structures has fully matured due to the advances in imagining techniques and computational modelling. Even though a plethora of different colour-producing architectures in a variety of species has been investigated, a few significant questions are still open: how do these structures develop in living organisms? Does disorder play a functional role in biological photonics? If so, is it possible to say that the optical response of natural disordered photonics has been optimised under evolutionary pressure? And, finally, can we exploit the well-adapted photonic design principles that we observe in Nature to fabricate functional materials with optimised scattering response? In my thesis I try to answer the questions above: I microscopically investigate $\textit{in vivo}$ the growth of a cuticular multilayer, one of the most common colour-producing strategies in nature, in the green beetles $\textit{Gastrophysa viridula}$ showing how the interplay between different materials varies during the various life stages of the beetles; I further investigate two types of disordered photonic structures and their biological role, the random array of spherical air inclusions in the eggshells of the honeyguide $\textit{Prodotiscus regulus}$, a species under unique evolutionary pressure to produce blue eggs, and the anisotropic chitinous network of fibres in the white beetle $\textit{Cyphochilus}$, the whitest low-refractive index material; finally, inspired by these natural designs, I fabricate and study light transport in biocompatible highly-scattering materials.
347

Systèmes optiques interférentiels et incertitudes

Vasseur, Olivier 07 September 2012 (has links) (PDF)
Les développements technologiques permettent aujourd'hui l'élaboration de systèmes optiques interférentiels composés d'un grand nombre de composants. Ainsi, des formules de filtres diélectriques multicouches comportant plusieurs dizaines ou centaines de couches minces ont été proposées. La combinaison cohérente de plusieurs dizaines à plusieurs centaines de sources laser fibrées fait également l'objet de nombreux travaux de recherche. De même, d'autres systèmes comme les réseaux diffractifs bi et tridimensionnels composés d'un grand nombre d'ouvertures peuvent être étudiés. L'évaluation de la robustesse de tels systèmes interférentiels aux incertitudes de fabrication constitue un enjeu important mais d'autant plus difficile que le nombre de paramètres décrivant le système est grand. Dans ce document de synthèse, sont rappelés, dans un premier temps, les méthodologies liés aux plans d'expériences numériques et les résultats concernant leur qualité d'exploration des espaces de grandes dimensions au moyen de la construction d'un graphe : l'Arbre de Longueur Minimale. Dans une seconde partie, l'analyse de l'influence des incertitudes des paramètres d'entrée de systèmes interférentiels sur leurs performances est illustrée au moyen de deux applications : les filtres interférentiels multidiélectriques et la combinaison cohérente de sources laser fibrées. La méthodologie mise en oeuvre permet notamment d'identifier les incertitudes et les synergies les plus critiques au sein du système tout en construisant des métamodèles représentatifs. A partir de ces acquis, la caractérisation spatiale du speckle de surfaces rugueuses et plus généralement la caractérisation de la variabilité spatiale de phénomènes optiques sont ensuite explicitées. Enfin, les perspectives scientifiques issues de l'ensemble de ces activités de recherche sont développées. (PS : Les planches présentées lors de la soutenance ont été ajoutées en annexe du document original : pages 170 à 202).
348

Simulationsrechnungen anisoplanatischer Übertragungsfunktionen für solare Adaptive Optik / Simulation of anisoplanatic transfer functions for solar Adaptive Optics

Sailer, Markus Josef 03 August 2006 (has links)
No description available.
349

Applications de la transformée en ondelettes et de l'analyse multirésolution au traitement des images de télédétection

Ranchin, Thierry 23 July 1993 (has links) (PDF)
Après une présentation de la transformée en ondelettes et de l'analyse multirésolution ainsi que de leur mise en oeuvre, nous présentons, dans ce mémoire, les apports de ces deux outils à deux problèmes de télédétection : la fusion de données issues de capteurs de résolutions spatiales et spectrales différentes et le traitement du speckle dans l'imagerie radar. Dans le cadre de la fusion de données, nous avons développé une méthode, basée sur ces deux outils et permettant d'obtenir des images ayant la meilleure des résolutions spatiales présentes dans le groupe d'images à fusionner tout en préservant la qualité de l'information spectrale pour les phénomènes qu'ils représentent. L'utilisation de ces deux outils pour le traitement du speckle dans l'imagerie radar a permis l'amélioration des performances d'un filtre du point de vue de la qualité radiométrique. La démarche employée n'est pas limitée à un seul filtre et permettra d'obtenir une réduction importante du speckle dans les zones homogènes tout en préservant l'information géométrique présente dans l'image. Les apports de la transformée en ondelettes et de l'analyse multirésolution et les perspectives de l'utilisation de ces outils dans le cadre de la télédétection sont discutés.
350

Estimation du mouvement bi-dimensionnel de la paroi artérielle en imagerie ultrasonore par une approche conjointe de segmentation et de speckle tracking / Estimation of the bi-dimensional motion of the arterial wall in ultrasound imaging with a combined approach of segmentation and speckle tracking

Zahnd, Guillaume 10 December 2012 (has links)
Ce travail de thèse est axé sur le domaine du traitement d'images biomédicales. L'objectif de notre étude est l'estimation des paramètres traduisant les propriétés mécaniques de l'artère carotide in vivo en imagerie échographique, dans une optique de détection précoce de la pathologie cardiovasculaire. L'analyse du mouvement longitudinal des tissus de la paroi artérielle, i.e. dans la même direction que le flux sanguin, représente la motivation majeure de ce travail. Les trois contributions principales proposées dans ce travail sont i) le développement d'un cadre méthodologique original et semi-automatique, dédié à la segmentation et à l'estimation du mouvement de la paroi artérielle dans des séquences in vivo d'images ultrasonores mode-B, ii) la description d'un protocole de génération d'une référence, faisant intervenir les opérations manuelles de plusieurs experts, dans le but de quantifier la précision des résultats de notre méthode malgré l'absence de vérité terrain inhérente à la modalité échographique, et iii) l'évaluation clinique de l'association entre les paramètres mécaniques et dynamiques de la paroi carotidienne et les facteurs de risque cardiovasculaire dans le cadre de la détection précoce de l'athérosclérose. Nous proposons une méthode semi-automatique, basée sur une approche conjointe de segmentation des contours de la paroi et d'estimation du mouvement des tissus. L'extraction de la position des interfaces est réalisée via une approche spécifique à la structure morphologique de la carotide, basée sur une stratégie de programmation dynamique exploitant un filtrage adapté. L'estimation du mouvement est réalisée via une méthode robuste de mise en correspondance de blocs (block matching), basée sur la connaissance du déplacement a priori ainsi que sur la mise à jour temporelle du bloc de référence par un filtre de Kalman spécifique. La précision de notre méthode, évaluée in vivo, correspond au même ordre de grandeur que celle résultant des opérations manuelles réalisées par des experts, et reste sensiblement meilleure que celle obtenue avec deux autres méthodes traditionnelles (i.e. une implémentation classique de la technique de block matching et le logiciel commercial Velocity Vector Imaging). Nous présentons également quatre études cliniques réalisées en milieu hospitalier, où nous évaluons l'association entre le mouvement longitudinal et les facteurs de risque cardiovasculaire. Nous suggérons que le mouvement longitudinal, qui représente un marqueur de risque émergent et encore peu étudié, constitue un indice pertinent et complémentaire aux marqueurs traditionnels dans la caractérisation de la physiopathologie artérielle, reflète le niveau de risque cardiovasculaire global, et pourrait être bien adapté à la détection précoce de l'athérosclérose. / This thesis is focused on the domain of bio-medical image processing. The aim of our study is to assess in vivo the parameters traducing the mechanical properties of the carotid artery in ultrasound imaging, for early detection of cardiovascular diseases. The analysis of the longitudinal motion of the arterial wall tissues, i.e. in the same direction as the blood flow, represents the principal motivation of this work. The three main contributions proposed in this work are i) the development of an original and semi-automatic methodological framework, dedicated to the segmentation and motion estimation of the arterial wall in in vivo ultrasound B-mode image sequences, ii) the description of a protocol aiming to generate a reference, involving the manual tracings of several experts, in the objective to quantify the accuracy of the results of our method despite the absence of ground truth inherent to ultrasound imaging, and iii) the clinical evaluation of the association between the mechanical and dynamical parameters of the arterial wall and the cardiovascular risk factors, for early detection of atherosclerosis. We propose a semi-automatic method, based on a combined approach of wall segmentation and tissues motion estimation. The extraction on the interfaces position is realized via an approach specific to the morphological structure of the carotid artery, based on a strategy of dynamic programming using a matched filter. The motion estimation is performed via a robust block matching method, based on the a priori knowledge of the displacement as well as the temporal update of the reference block with a specific Kalman filter. The accuracy of our method, evaluated in vivo, corresponds to the same order of magnitude as the one resulting from the manual operations performed by experts, and is significantly higher than the one obtained from two other classical methods (i.e. a classical implementation of the block matching technique, and the VVI commercial software). We also present four clinical studies, and we evaluate the association between longitudinal motion and cardiovascular risk factors. We suggest that the longitudinal motion, which represents an emerging cardiovascular risk marker that has been only few studied yet, constitutes a pertinent and complementary marker aiming at the characterization of arterial physio-pathology, traduces the overall cardiovascular risk level, and could be well suited to the early detection of the atherosclerosis.

Page generated in 0.0374 seconds