• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Contribution of mechanical stress to cell division plane orientation at the shoot apical meristem of Arabidopsis thaliana / Rôle des contraintes mécaniques dans l'orientation du plan de division des cellules du méristème apical caulinaire d'Arabidopsis thaliana

Louveaux, Marion 02 October 2015 (has links)
La morphogenèse des plantes repose sur deux mécanismes cellulaires : la division et l'élongation. Par ailleurs, la croissance est source de contraintes mécaniques qui affectent les cellules et guident la morphogenèse. Si les contraintes mécaniques influencent l'orientation du plan de division dans les cellules animales, rien n'est prouvé pour les cellules végétales. À l'heure actuelle, la forme de la cellule est proposée comme le facteur principal gouvernant l'orientation du plan dans les divisions symétriques : les cellules se divisent selon un des plans les plus courts. Cette règle géométrique a été validée dans des tissus à croissance ou courbure isotropes, mais les mécanismes moléculaires sous-jacents demeurent inconnus. Dans cette thèse, un pipeline a été mis au point pour analyser les divisions cellulaires dans les différents domaines du méristème apical caulinaire d'Arabidopsis thaliana et questionner l'application de la règle géométrique dans ce tissu. La zone frontière du méristème présente une proportion anormalement basse de plans de division très courts. Des simulations de tissus en croissance, dans lesquelles une règle de division mécanique a été implémentée, ont montrées le même biais sur les orientation des plans, comparé à la règle géométrique. Des ablations laser de quelques cellules de l'épiderme ont également été effectuées afin de perturber localement le patron de contraintes mécaniques. Les résultats montrent que l'orientation du plan des divisions postérieures à cette perturbation suit le nouveau patron de contraintes. Enfin, une nouvelle méthode quantitative, basée sur l'utilisation d'un micro-indenteur, a été mise au point pour quantifier la réponse du cytosquelette, et en particulier des microtubules, aux contraintes mécaniques. Le protocole de compression a été testé et validé sur les mutants katanin et spiral2, dans lesquels la réponse aux contraintes est respectivement faible ou amplifiée. / Morphogenesis during primary plant growth is driven by cell division and elongation. In turn, growth generates mechanical stress, which impacts cellular events and channels morphogenesis. Mechanical stress impacts the orientation of division plane in single animal cells; this remains to be fully demonstrated in plants. Currently, cell geometry is proposed to be the main factor determining plane orientation in symmetric divisions: cell divide along one the shortest paths. This geometrical rule was tested on tissues with rather isotropic shapes or growth and the corresponding molecular mechanism remains unknown, although it could involve tension within the cytoskeleton. To address these shortcomings, we developed a pipeline to analyze cell divisions in the different domains of the shoot apical meristem of Arabidopsis thaliana. We computed the probability of each possible planes according to cell geometry and compared the output to observed orientations. A quarter of the cells did not follow the geometrical rule. Boundary domain was enriched in long planes aligned with supracellular maximal tension lines. Computer simulations of a growing tissue following a division rule that relies on tension gave the most realistic outputs. Mechanical perturbations of local stress pattern, by laser ablations, further confirmed the importance of mechanical stress in cell division. To explore the role of microtubules in this process, we developed a microindenter-based protocol to quantify the cytoskeletal response to mechanical stress. This protocol was tested and validated in the katanin and spiral2 mutants, in which the response to stress is delayed or promoted respectively.
422

Etude expérimentale et numérique d'un essai de soudage TIG statique et estimation des paramètres du flux de chaleur / Static GTAW experimental and numerical investigations and heat flux parameter estimation

Unnikrishnakurup, Sreedhar 29 January 2014 (has links)
Le procédé de soudage à l'arc sous atmosphère inerte (TIG) est souvent employé pour des assemblages nécessitant une grande qualité du joint soudé. Les propriétés du joint soudé dépendent essentiellement du cycle thermique imposé par l'opération de soudage, de la composition chimique du matériau métallique et des mouvements convectifs du métal fondu dans le bain de fusion. L'écoulement du métal liquide dans le bain de fusion modifie la distribution de température en son sein et à proximité, ainsi que la forme géométrique du joint. Afin d'améliorer l'opération de soudage TIG, par exemple pour accroitre la productivité ou éviter des défauts rédhibitoires, il est nécessaire de bien comprendre les phénomènes physiques mis en jeu dans le bain de fusion ainsi que l'effet des paramètres opératoires (intensité, hauteur d'arc, gaz …) sur ces phénomènes physiques. Dans le but d'appréhender les phénomènes mis en jeu au cours de l'opération TIG et dans le bain de fusion, un modèle multi-physique 2D axisymétrique a été établi et résolu par la méthode des éléments finis (MEF). Les forces telles que Lorentz (électromagnétique), Marangoni (Tension superficielle), Boussinesq et la force de cisaillement du plasma d'arc ont été prises en compte au niveau du bain de fusion. Le modèle TIG établi est utilisé pour prédire la distribution de température et la distribution des vitesses dans le bain de fusion ainsi que la forme géométrique du bain de fusion. Un protocole expérimental a été développé dans le but de valider le modèle proposé. Pour cela, une opération de soudage TIG stationnaire (pas de mouvement de la torche) a été réalisée sur un disque métallique. L'opération a été contrôlée par des mesures de température, par une observation de la formation et de l'évolution de la surface du bain de fusion avec une caméra rapide et un enregistrement des paramètres opératoires (intensité et tension). Toutes les données sont synchronisées entre elles pour permettre une analyse expérimentale pertinente. La confrontation des résultats expérimentaux avec le modèle multi-physique du soudage TIG a fait apparaître une assez bonne adéquation, mais des différences existent, essentiellement liées à la méconnaissance des paramètres décrivant le flux de chaleur utilisé dans la simulation. Le flux de chaleur a été modélisé par une fonction Gaussienne qui nécessite la connaissance du rendement du procédé TIG et la distribution spatiale (ou rayon de la Gaussienne). L'estimation de ces paramètres a été réalisée par une méthode inverse. Cette méthode inverse a consisté à estimer les paramètres inconnus à partir des données expérimentales disponibles. La méthode d'optimisation dite de Levenberg-Marquardt, associée à une technique de régularisation itérative, a été utilisée pour estimer les paramètres. La pertinence et la robustesse de cette méthode ont été validées au travers de plusieurs cas numériques ; soit des cas utilisant des données « exactes » ou des données « bruitées ». Trois types d'erreurs ont été analysés séparément : bruit de mesure, erreur sur la position du capteur et imprécision sur la valeur des propriétés thermophysiques. Les deux dernière erreurs sont celles qui impactent fortement le résultat de l'estimation, essentiellement l'estimation du rendement du procédé TIG. Enfin, une partie des données expérimentales a été utilisée pour résoudre le problème inverse. Les paramètres ont été estimés avec une marge d'erreur inférieure à 10% et ils sont en bon accord avec les valeurs trouvées dans la littérature. / Gas Tungsten Arc Welding (GTAW) process is generally used for assemblies that requires high quality weld joint. The microstructure and the weld joint relies mainly on the thermal cycle due to the welding operation, the chemical composition of the metallic material and the complex flow of molten metal in the weld pool. Moreover the fluid flow in the weld pool play a major role in the temperature distribution and the final weld pool shape. Better understanding of the physical phenomena involved in the welding operation, more exactly in the weld pool, are the fundamental step for improving the GTAW operation, for example increase the productivity or avoid defects. In the present research work, a two dimensional axi-symmetric multiphysics model was established in order to predict the weld pool shape evolution in the frame of a stationary Gas Tungsten Arc Welding using a finite element numerical approach. The weld pool model included various driving forces such as self-induced electromagnetic (Lorentz force), surface tension (Marangoni force), buoyancy and the arc plasma drag force. The stated GTAW model is used for predicting the velocity and temperature distribution in the fusion zone and the final weld pool shape. In order to validate the GTAW model, an experimental set up was defined for synchronizing the acquisition of time dependent data such as temperature, weld pool radius and welding process parameters (current and voltage). Image processing algorithms were developed for the time dependent weld pool size identification from the high speed camera images. Comparison between experimental and calculated data exhibited important discrepancies on the temperature field and weld pool radius. These discrepancies are due to the incoming heat flux from the arc plasma into the work piece. The heat flux was modeled with a Gaussian function itself described with few parameters;two of these required to be estimated: GTAW efficiency and Gaussian distribution.An inverse approach is used for estimating these parameters from the available experimental data: temperature, weld pool radius and macrographs. The Levenberg-Marquardt method is used to solve the inverse heat transfer problem coupled to an iterative process regularization. Afterward the inverse heat transfer problem was investigated through few numerical cases in order to verify its robustness to three sorts of error in the input data (measurement noise, sensor location error and inaccuracies associated with the thermophysical properties). The inverse approach was robust to errors introduced on measurement data. However, errors on the position of sensors or on the knowledge of material thermo-physical properties are problematic on the GTAW efficiency estimation. Finally the inverse problem was solved with experimental measurement. The estimated parameters are in good agreement with the literature. The evaluated error on the estimated parameters is less than 10%.
423

Analyse d'image hyperspectrale / Hyperspectral Image Analysis

Faivre, Adrien 14 December 2017 (has links)
Les travaux de thèse effectués dans le cadre de la convention Cifre conclue entrele laboratoire de mathématiques de Besançon et Digital Surf, entreprise éditrice dulogiciel d’analyse métrologique Mountains, portent sur les techniques d’analyse hyperspectrale.Sujet en plein essor, ces méthodes permettent d’exploiter des imagesissues de micro-spectroscopie, et en particulier de spectroscopie Raman. Digital Surfambitionne aujourd’hui de concevoir des solutions logicielles adaptées aux imagesproduites par ces appareils. Ces dernières se présentent sous forme de cubes de valeurs,où chaque pixel correspond à un spectre. La taille importante de ces données,appelées images hyperspectrales en raison du nombre important de mesures disponiblespour chaque spectre, obligent à repenser certains des algorithmes classiquesd’analyse d’image.Nous commençons par nous intéresser aux techniques de partitionnement de données.L’idée est de regrouper dans des classes homogènes les différents spectres correspondantà des matériaux similaires. La classification est une des techniques courammentutilisée en traitement des données. Cette tâche fait pourtant partie d’unensemble de problèmes réputés trop complexes pour une résolution pratique : les problèmesNP-durs. L’efficacité des différentes heuristiques utilisées en pratique était jusqu’àrécemment mal comprise. Nous proposons des argument théoriques permettantde donner des garanties de succès quand les groupes à séparer présentent certainespropriétés statistiques.Nous abordons ensuite les techniques de dé-mélange. Cette fois, il ne s’agit plus dedéterminer un ensemble de pixels semblables dans l’image, mais de proposer une interprétationde chaque pixel comme un mélange linéaire de différentes signatures spectrales,sensées émaner de matériaux purs. Cette déconstruction de spectres compositesse traduit mathématiquement comme un problème de factorisation en matrices positives.Ce problème est NP-dur lui aussi. Nous envisageons donc certaines relaxations,malencontreusement peu convaincantes en pratique. Contrairement au problème declassification, il semble très difficile de donner de bonnes garanties théoriques sur laqualité des résultats proposés. Nous adoptons donc une approche plus pragmatique,et proposons de régulariser cette factorisation en imposant des contraintes sur lavariation totale de chaque facteur.Finalement, nous donnons un aperçu d’autres problèmes d’analyse hyperspectralerencontrés lors de cette thèse, problèmes parmi lesquels figurent l’analyse en composantesindépendantes, la réduction non-linéaire de la dimension et la décompositiond’une image par rapport à une librairie regroupant un nombre important de spectresde référence. / This dissertation addresses hyperspectral image analysis, a set of techniques enabling exploitation of micro-spectroscopy images. Images produced by these sensors constitute cubic arrays, meaning that every pixel in the image is actually a spectrum.The size of these images, which is often quite large, calls for an upgrade for classical image analysis algorithms.We start out our investigation with clustering techniques. The main idea is to regroup every spectrum contained in a hyperspectralimage into homogeneous clusters. Spectrums taken across the image can indeed be generated by similar materials, and hence display spectral signatures resembling each other. Clustering is a commonly used method in data analysis. It belongs nonetheless to a class of particularly hard problems to solve, named NP-hard problems. The efficiency of a few heuristics used in practicewere poorly understood until recently. We give theoretical arguments guaranteeing success when the groups studied displaysome statistical property.We then study unmixing techniques. The objective is no longer to decide to which class a pixel belongs, but to understandeach pixel as a mix of basic signatures supposed to arise from pure materials. The mathematical underlying problem is again NP-hard.After studying its complexity, and suggesting two lengthy relaxations, we describe a more practical way to constrain the problemas to obtain regularized solutions.We finally give an overview of other hyperspectral image analysis methods encountered during this thesis, amongst whomare independent component analysis, non-linear dimension reduction, and regression against a spectrum library.
424

Amélioration des ouvertures par chemins pour l'analyse d'images à N dimensions et implémentations optimisées / Image processing and analysis for non destructive real time quality control in 3D RX tomography

Cokelaer, François 22 February 2013 (has links)
La détection de structures fines et orientées dans une image peut mener à un très large champ d'applications en particulier dans le domaine de l'imagerie médicale, des sciences des matériaux ou de la télédétection. Les ouvertures et fermetures par chemins sont des opérateurs morphologiques utilisant des chemins orientés et flexibles en guise d'éléments structurants. Ils sont utilisés de la même manière que les opérateurs morphologiques utilisant des segments orientés comme éléments structurants mais sont plus efficaces lorsqu'il s'agit de détecter des structures pouvant être localement non rigides. Récemment, une nouvelle implémentation des opérateurs par chemins a été proposée leur permettant d'être appliqués à des images 2D et 3D de manière très efficace. Cependant, cette implémentation est limitée par le fait qu'elle n'est pas robuste au bruit affectant les structures fines. En effet, pour être efficaces, les opérateurs par chemins doivent être suffisamment longs pour pouvoir correspondre à la longueur des structures à détecter et deviennent de ce fait beaucoup plus sensibles au bruit de l'image. La première partie de ces travaux est dédiée à répondre à ce problème en proposant un algorithme robuste permettant de traiter des images 2D et 3D. Nous avons proposé les opérateurs par chemins robustes, utilisant une famille plus grande d'éléments structurants et qui, donnant une longueur L et un paramètre de robustesse G, vont permettre la propagation du chemin à travers des déconnexions plus petites ou égales à G, rendant le paramètre G indépendant de L. Cette simple proposition mènera à une implémentation plus efficace en terme de complexité de calculs et d'utilisation mémoire que l'état de l'art. Les opérateurs développés ont été comparés avec succès avec d'autres méthodes classiques de la détection des structures curvilinéaires de manière qualitative et quantitative. Ces nouveaux opérateurs ont été par la suite intégrés dans une chaîne complète de traitement d'images et de modélisation pour la caractérisation des matériaux composite renforcés avec des fibres de verres. Notre étude nous a ensuite amenés à nous intéresser à des filtres morphologiques récents basés sur la mesure de caractéristiques géodésiques. Ces filtres sont une bonne alternative aux ouvertures par chemins car ils sont très efficaces lorsqu'il s'agit de détecter des structures présentant de fortes tortuosités ce qui est précisément la limitation majeure des ouvertures par chemins. La combinaison de la robustesse locale des ouvertures par chemins robustes et la capacité des filtres par attributs géodésiques à recouvrer les structures tortueuses nous ont permis de proposer un nouvel algorithme, les ouvertures par chemins robustes et sélectives. / The detection of thin and oriented features in an image leads to a large field of applications specifically in medical imaging, material science or remote sensing. Path openings and closings are efficient morphological operators that use flexible oriented paths as structuring elements. They are employed in a similar way to operators with rotated line segments as structuring elements, but are more effective as they can detect linear structures that are not necessarily locally perfectly straight. While their theory has always allowed paths in arbitrary dimensions, de facto implementations were only proposed in 2D. Recently, a new implementation was proposed enabling the computation of efficient d-dimensional path operators. However this implementation is limited in the sense that it is not robust to noise. Indeed, in practical applications, for path operators to be effective, structuring elements must be sufficiently long so that they correspond to the length of the desired features to be detected. Yet, path operators are increasingly sensitive to noise as their length parameter L increases. The first part of this work is dedicated to cope with this limitation. Thus, we will propose an efficient d-dimensional algorithm, the robust path operators, which use a larger family of flexible structuring elements. Given an arbitrary length parameter G, path propagation is allowed if disconnections between two pixels belonging to a path is less or equal to G and so, render it independent of L. This simple assumption leads to a constant memory bookkeeping and results in a low complexity. The developed operators have been compared qualitatively and quantitatively to other efficient methods for the detection of line-like features. As an application, robust path openings have been integrated into a complete chain of image processing for the modelling and the characterization of glass fibers reinforced polymer. Our study has also led us to focus our interest on recent morphological connected filters based on geodesic measurements. These filters are a good alternative to path operators as they are efficient at detecting the so-called "tortuous" shapes in an image which is precisely the main limitation of path operators. Combining the local robustness of the robust path operators with the ability of geodesic attribute-based filters to recover "tortuous" shapes have enabled us to propose another original algorithm, the selective and robust path operators.
425

Estimation des déformations myocardiques par analyse d'images / Myocardial deformation assessment by image processing

Chenoune, Yasmina 27 March 2008 (has links)
Les travaux présentés dans cette thèse s'inscrivent dans le contexte du traitement des images cardiaques et l'étude de la fonction contractile du coeur, pour une meilleure compréhension de physiopathologie cardiaque et l'aide au diagnostic. Nous avons implémenté une méthode de segmentation des parois endocardiques sur des ciné-IRM non marquées. Nous avons utilisé une approche fondée sur les ensembles de niveaux, avec une formulation basée-région qui donne des résultats satisfaisants sur des cas sains et pathologiques. Nous avons proposé une méthode pratique pour la quantification des déformations segmentaires afin decaractériser la contractilité myocardique. La méthode a fait l'objet d'une validation clinique par l'expertise de médecins et par comparaison à la méthode HARP sur des IRM marquées. Pour améliorer la précision des mesures, nous avons proposé un algorithme de recalage iconique multimodal IRM/TDM, utilisant la maximisation de l'information culturelle. Nous l'avons appliqué à la localisation de coupes petit-axe dans des volumes TDM avec des résultats encourageants. Ce travail a pour perspective son application à l'obtention de séquences TDM de hautes résolutions spatiale et temporelle / The work presented in this thesis is related to the cardiac images processing and the cardiac contractile function study, for a better comprehension of cardiac physiopathology and diagnosis. We implemented a method for the segmentation of the endocardial walls on standard MRI without tags. We used an approach based on the level set method, with a region-based formulation which gives satisfactory results on healthy and pathological cases. We proposed a practical method for the quantification of the segmental deformations in order to characterize the myocardial contractility. The method was clinically validated by the assesment of doctors and by comparison with the HARP method on tagget MRI. To improve the measurements precision, we proposed an iconic MRI/CT multimodal registration algorithm, using the maximization of the mutual information. We applied it to the localization of short-axis slices in CT volumes with good results. This work has as prospect its application to obtain high spatial and temporal resolutions CT sequences
426

Characterization and Colocalization of Tissue-Based Biomarker Expression by Quantitative Image Analysis: Development and Extraction of Novel Features

Moles Lopez, Xavier 25 March 2014 (has links)
Proteins are the actual actors in the (normal or disrupted) physiological processes and immunohistochemistry (IHC) is a very efficient mean of visualizing and locating protein expression in tissue samples. By comparing pathologic and normal tissue, IHC is thus able to evidence protein expression alterations. This is the reason why IHC plays a grow- ing role to evidence tissue-based biomarkers in clinical pathology for diagnosing var- ious diseases and directing personalized therapy. Therefore, IHC biomarker evaluation significantly impacts the adequacy of the therapeutic choices for patients with serious pathologies, such as cancer. However, this evaluation may be time-consuming and dif- ficult to apply in practice due to the absence of precise positive cut-off values as well as staining (i.e. protein expression) heterogeneity intra- and inter-samples. Quantifying IHC staining patterns has thus become a crucial need in histopathology. For this task, automated image analysis has multiple advantages, such as avoiding the evidenced ef- fects of human subjectivity. The recent introduction of whole-slide scanners opened a wide range of possibilities for addressing challenging image analysis problems, includ- ing the identification of tissue-based biomarkers. Whole-slide scanners are devices that are able to image whole tissue slides at resolutions up to 0.1 micrometers per pixels, often referred to as virtual slides. In addition to quantification of IHC staining patterns, virtual slides are invaluable tools for the implementation of digital pathology work- flows. The present work aims to make several contributions towards this current digital shift in pathology. Our first contribution was to propose an automated virtual slide sharpness assessment tool. Although modern whole-slide scanner devices resolve most image standardization problems, focusing errors are still likely to be observed, requiring a sharpness assessment procedure. Our proposed tool will ensure that images provided to subsequent pathologist examination and image analysis are correctly focused. Virtual slides also enable the characterization of biomarker expression heterogeneity. Our sec- ond contribution was to propose a method to characterize the distribution of densely stained regions in the case of nuclear IHC biomarkers, with a focus on the identification of highly proliferative tumor regions by analyzing Ki67-stained tissue slides. Finally, as a third contribution, we propose an efficient mean to register virtual slides in order to characterize biomarker colocalization on adjacent tissue slides. This latter contribution opens new prospects for the analysis of more complex questions at the tissue level and for finely characterizing disease processes and/or treatment responses./Les protéines sont les véritables acteurs des processus physiologiques (normaux ou per- turbés) et l’immunohistochimie (IHC) est un moyen efficace pour visualiser et localiser leur expression au sein d’échantillons histologiques. En comparant des échantillons de tissus pathologiques et normaux, l’IHC permet de révéler des altérations dans des pro- fils d’expression protéique. C’est pourquoi l’IHC joue un rôle de plus en plus important pour mettre en évidence des biomarqueurs histologiques intervenant dans le diagnos- tic de diverses pathologies et dans le choix de thérapies personnalisées. L’évaluation de l’expression de biomarqueurs révélés par IHC a donc des répercussions importantes sur l’adéquation des choix thérapeutiques pour les patients souffrant de pathologies graves, comme le cancer. Cependant, cette évaluation peut être chronophage et difficile à appliquer en pratique, d’une part, à cause de l’hétérogénéité de l’expression protéique intra- et inter-échantillon, d’autre part, du fait de l’absence de critères de positivité bien définis. Il est donc devenu crucial de quantifier les profils d’expression de marquages IHC en histopathologie. A cette fin, l’analyse d’image automatisée possède de multiples avantages, comme celui d’éviter les effets de la subjectivité humaine, déjà démontrés par ailleurs. L’apparition récente des numériseurs de lames histologiques complètes, ou scanners de lames, a permis l’émergence d’un large éventail de possibilités pour traiter des problèmes d’analyse d’image difficiles menant à l’identification de biomar- queurs histologiques. Les scanners de lames sont des dispositifs capables de numériser des lames histologiques à une résolution pouvant atteindre 0,1 micromètre par pixel, expliquant la dénomination de "lames virtuelles" des images ainsi acquises. En plus de permettre la quantification des marquages IHC, les lames virtuelles sont des outils indis- pensables pour la mise en place d’un flux de travail numérique en pathologie. Le travail présenté ici vise à fournir plusieurs contributions au récent changement de cap vers une numérisation de la discipline médicale qu’est l’anatomie pathologique. Notre première contribution consiste en un outil permettant d’évaluer automatiquement la netteté des lames virtuelles. En effet, bien que les scanners de lames résolvent la plupart des pro- blèmes liés à la standardisation de l’acquisition, les erreurs de focus restent fréquentes, ce qui nécessite la mise en place d’une procédure de vérification de la netteté. L’outil que nous proposons assurera la netteté des images fournies à l’examen du pathologiste et à l’analyse d’image. Les lames virtuelles permettent aussi de caractériser l’hétérogénéité de l’expression de biomarqueurs. Ainsi, la deuxième contribution de ce travail repose sur une méthode permettant de caractériser la distribution de régions densément marquées par des biomarqueurs IHC nucléaires. Pour ce travail, nous nous sommes concentrés sur l’identification de régions tumorales présentant une forte activité proliférative en analysant des lames virtuelles révélant l’expression de la protéine Ki67. Finalement, la troisième contribution de ce travail fut de proposer un moyen efficace de recaler des lames virtuelles dans le but de caractériser la colocalisation de biomarqueurs IHC révé- lés sur des coupes de tissu adjacentes. Cette dernière contribution ouvre de nouvelles perspectives pour l’analyse de questions complexes au niveau histologique ainsi que la caractérisation fine de processus pathologiques et de réponses thérapeutiques. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
427

High-resolution computer imaging in 2D and 3D for recording and interpreting archaeological excavations =: Le rôle de l'image numérique bidimensionelle et tridimensionelle de haute résolution dans l'enregistrement et l'interprétation des données archéologiques

Avern, Geoffrey J. January 2000 (has links)
Doctorat en philosophie et lettres / info:eu-repo/semantics/nonPublished
428

Visualisation, granulométrie et évaporation de gouttes et de sprays – Etude dans une atmosphère close et pressurisée / Visualization, granulometry and evaporation of drops and sprays – Study in close and pressurized atmosphere

Lassauce, Aurélia 22 February 2011 (has links)
L’objectif de cette thèse consiste à déterminer l’influence d’une pression ambiante comprise entre 100 à 600 KPa sur l’évaporation d’une goutte, puis sur l’évaporation d’un spray soumis aux mêmes conditions. La première étape consiste à étudier l’influence de la pression ambiante sur l’évolution de la forme, du diamètre, de la vitesse et du débit d’évaporation d’une goutte de liquide en chute libre. Pour cela, une technique de mesure optique a été utilisée et une méthodologie a été développée pour calibrer cette technique de mesure et ainsi minimiser les erreurs de mesures sur la taille des particules. En parallèle, un modèle analytique d’évaporation de gouttes en chute libre a été développé : une attention particulière a été portée sur la détermination d’une corrélation adaptée au calcul du coefficient de traînée afin de tenir compte de l’évolution de la forme des gouttes au cours de leur chute. Ce modèle d’évaporation de gouttes est comparé à un modèle d’évaporation de spray (prenant en compte l’entrainement d’air, la concentration de vapeur au loin de la goutte et l’influence de la pression ambiante) pour montrer les limites du modèle d’évaporation de gouttes lors de son application à l’évaporation d’un spray. La deuxième étape de l’étude a consisté à appliquer les techniques de mesure et d’analyse mises au point précédemment à l’étude de la granulométrie d’un spray pour caractériser l’influence de trois paramètres : la pression ambiante, la pression d’injection du liquide et la nature du liquide. L’analyse des résultats a permis de développer un modèle statistique pour déterminer la granulométrie de ces sprays. / The objective of this thesis is to determine the influence of ambient pressure between 100 and 600 KPa on the evaporation of a drop, and on the evaporation of a spray in the same conditions. The first step is to study the influence of ambient pressure on the evolution of the shape, the diameter, the speed and the evaporation rate of a drop of liquid in free fall. Then, an optical measurement technique has been used and a methodology was developed to calibrate this measurement technique and minimize measurement errors on the particle size. In parallel, an analytical model of evaporation of falling drops has been developed: a particular attention was paid to the determination of an appropriate correlation for the drag coefficient to take into account changes in the shape of drops during their fall. This model of evaporation of drop is compared with a spray evaporation model (taking into account the training of air, the vapor concentration away form the drop and the influence of the pressure to show the limits of this drop evaporation model when applied to the evaporation of a spray. The second phase of the study was to apply the measurement techniques and analysis developed previously to study the drop size of a spray to characterize the influence of three parameters: ambient pressure, injection pressure of the liquid and nature of the liquid. The analysis of the results allowed developing a statistical model to determine the size of the drops of these sprays.
429

Recalage hétérogène pour la reconstruction 3D de scènes sous-marines / Heterogeneous Registration for 3D Reconstruction of Underwater Scene

Mahiddine, Amine 30 June 2015 (has links)
Le relevé et la reconstruction 3D de scènes sous-marine deviennent chaque jour plus incontournable devant notre intérêt grandissant pour l’étude des fonds sous-marins. La majorité des travaux existants dans ce domaine sont fondés sur l’utilisation de capteurs acoustiques l’image n’étant souvent qu’illustrative.L’objectif de cette thèse consiste à développer des techniques permettant la fusion de données hétérogènes issues d’un système photogrammétrique et d’un système acoustique.Les travaux présentés dans ce mémoire sont organisés en trois parties. La première est consacrée au traitement des données 2D afin d’améliorer les couleurs des images sous-marines pour augmenter la répétabilité des descripteurs en chaque point 2D. Puis, nous proposons un système de visualisation de scène en 2D sous forme de mosaïque.Dans la deuxième partie, une méthode de reconstruction 3D à partir d’un ensemble non ordonné de plusieurs images a été proposée. Les données 3D ainsi calculées seront fusionnées avec les données provenant du système acoustique dans le but de reconstituer le site sous-marin.Dans la dernière partie de ce travail de thèse, nous proposons une méthode de recalage 3D originale qui se distingue par la nature du descripteur extrait en chaque point. Le descripteur que nous proposons est invariant aux transformations isométriques (rotation, transformation) et permet de s’affranchir du problème de la multi-résolution. Nous validons à l’aide d’une étude effectuée sur des données synthétiques et réelles où nous montrons les limites des méthodes de recalages existantes dans la littérature. Au final, nous proposons une application de notre méthode à la reconnaissance d’objets 3D. / The survey and the 3D reconstruction of underwater become indispensable for our growing interest in the study of the seabed. Most of the existing works in this area are based on the use of acoustic sensors image.The objective of this thesis is to develop techniques for the fusion of heterogeneous data from a photogrammetric system and an acoustic system.The presented work is organized in three parts. The first is devoted to the processing of 2D data to improve the colors of the underwater images, in order to increase the repeatability of the feature descriptors. Then, we propose a system for creating mosaics, in order to visualize the scene.In the second part, a 3D reconstruction method from an unordered set of several images was proposed. The calculated 3D data will be merged with data from the acoustic system in order to reconstruct the underwater scene.In the last part of this thesis, we propose an original method of 3D registration in terms of the nature of the descriptor extracted at each point. The descriptor that we propose is invariant to isometric transformations (rotation, transformation) and addresses the problem of multi-resolution. We validate our approach with a study on synthetic and real data, where we show the limits of the existing methods of registration in the literature. Finally, we propose an application of our method to the recognition of 3D objects.
430

Context-aware intelligent video analysis for the management of smart buildings / Analyse vidéo en temps-reél intégrant les données contextuelles pour la gestion de bâtiments intelligents

Marroquín Cortez, Roberto Enrique 18 October 2019 (has links)
Les systèmes de vision artificielle sont aujourd'hui limités à l'extraction de données issues de ce que les caméras « voient ». Cependant, la compréhension de ce qu'elles voient peut être enrichie en associant la connaissance du contexte et la connaissance d'interprétation d'un humain.Dans ces travaux de thèse, nous proposons une approche associant des algorithmes de vision atificielle à une modélisation sémantique du contexte d'acquisition.Cette approche permet de réaliser un raisonnement sur la connaissance extraite des images par les caméras en temps réel. Ce raisonnement offre une réponse aux problèmes d'occlusion et d'erreurs de détections inhérents aux algorithmes de vision artificielle. Le système complet permet d'offrir un ensemble de services intelligents (guidage, comptage...) tout en respectant la vie privée des personnes observées. Ces travaux forment la première étape du développement d'un bâtiment intelligent qui peut automatiquement réagir et évoluer en observant l'activité de ces usagers, i.e., un bâtiment intelligent qui prend en compte les informations contextuelles.Le résultat, nommé WiseNET, est une intelligence artificielle en charge des décisions au niveau du bâtiment (qui pourrait être étendu à un groupe de bâtiments ou même a l'échelle d'un ville intelligente). Elle est aussi capable de dialoguer avec l'utilisateur ou l'administrateur humain de manière explicite. / To date, computer vision systems are limited to extract digital data of what the cameras "see". However, the meaning of what they observe could be greatly enhanced by environment and human-skills knowledge.In this work, we propose a new approach to cross-fertilize computer vision with contextual information, based on semantic modelization defined by an expert.This approach extracts the knowledge from images and uses it to perform real-time reasoning according to the contextual information, events of interest and logic rules. The reasoning with image knowledge allows to overcome some problems of computer vision such as occlusion and missed detections and to offer services such as people guidance and people counting. The proposed approach is the first step to develop an "all-seeing" smart building that can automatically react according to its evolving information, i.e., a context-aware smart building.The proposed framework, named WiseNET, is an artificial intelligence (AI) that is in charge of taking decisions in a smart building (which can be extended to a group of buildings or even a smart city). This AI enables the communication between the building itself and its users to be achieved by using a language understandable by humans.

Page generated in 0.0639 seconds