• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 32
  • 10
  • Tagged with
  • 99
  • 33
  • 30
  • 28
  • 27
  • 25
  • 17
  • 17
  • 16
  • 16
  • 14
  • 14
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Estimation et commande des systèmes descripteurs / Estimation and control of descriptor systems

Estrada Manzo, Víctor 02 October 2015 (has links)
Cette thèse est consacrée au développement des techniques d’estimation et de commande pour systèmes descripteurs non linéaires. Les développements sont centrés sur une famille particulière de systèmes descripteurs non linéaires avec une matrice descripteur de rang plein. Toutes les approches présentées utilisent un formalisme de modélisation du type Takagi-Sugeno (TS) pour représenter les modèles descripteurs non linéaires. Un objectif très important est de développer des conditions sous la forme d’inégalités matricielles linéaires (LMI, en anglais). Dans la littérature, les conditions pour l’estimation des modèles TS descripteurs s’écrivent sous forme d’inégalités matricielles bilinéaires (BMI, en anglais). En plus, à notre connaissance, il n’y pas de résultats dans la littérature concernant la commande/estimation pour les modèles TS descripteurs en temps discret (avec une matrice descripteur régulière non linéaire).Trois problèmes ont été examinés : commande par retour d’état, estimation de l’état et commande statique par retour de la sortie. Dans le cas continu, des conditions moins conservatives ont été développées pour la commande par retour d’état. Pour l’estimation d’état, des conditions LMI ont été obtenues (au lieu des usuelles BMI) en utilisant un différent vecteur d’erreur augmenté. Pour la commande statique par retour de la sortie, des conditions LMI sont proposées si une matrice auxiliaire est fixée. Pour le temps discret, des nouveaux résultats sous la forme LMI ont été développées pour la commande/estimation, comblant ainsi certains manques de la littérature. Des exemples ont été inclus pour montrer l’applicabilité de tous les résultats que nous avons obtenus et ainsi l’importance de garder la structure originale des descripteurs. / This thesis addresses the estimation and control for nonlinear descriptor systems. The developments are focused on a family of nonlinear descriptor models with a full-rank descriptor matrix. The proposed approaches are based on a Takagi-Sugeno (TS) descriptor representation of a given nonlinear descriptor model. This type of TS models is a generalization of the standard TS ones. One of the mains goals is to obtain conditions in terms of linear matrix inequalities (LMIs). In the existing literature, the observer design for TS descriptor models has led to bilinear matrix inequality (BMI) conditions. In addition, to the best of our knowledge, there are no results in the literature on controller/observer design for discrete-time TS descriptor models (with a non-constant and invertible descriptor matrix).Three problems have been addressed: state feedback controller design, observer design, and static output feedback controller design. LMI conditions have been obtained for both continuous and discrete-time TS descriptor models. In the continuous-time case, relaxed LMI conditions for the state feedback controller design have been achieved via parameterdependent LMI conditions. For the observer design, pure LMI conditions have been developed by using a different extended estimation error. For the static output feedback controller, LMI constraints can be obtained once an auxiliary matrix is fixed. In the discretetime case, results in the LMI form are provided for state/output feedback controller design and observer design; thus filling the gap in the literature. Several examples have been included to illustrate the applicability of the obtained results and the importance of keeping the original descriptor structure instead of computing a standard state-space.
62

Imaging of the fish embryo model and applications to toxicology / Imagerie du modèle embryon de poisson : application à la toxicologie du développement

Genest, Diane 20 May 2019 (has links)
De nombreuses substances chimiques sont utilisées par l’industrie cosmétique pour entrer dans la composition de formules. En dehors de la nécessité d’évaluer leur efficacité, l’industrie cosmétique se doit surtout d’évaluer la sécurité de leurs substances pour l’humain. L'évaluation toxicologique des substances chimiques est réalisée dans le but de révéler un effet toxique potentiel de la substance testée. Parmi les effets potentiels que l’on souhaite détecter, la toxicité du développement (tératogénicité), c’est-à-dire la capacité d’une substance à provoquer l’apparition d’anomalies lors du développement embryonnaire, est fondamentale. En accord avec les législations internationales qui interdisent à l’industrie cosmétique d’avoir recours à des tests sur animaux de laboratoire pour l’évaluation de leurs substances, l’évaluation toxicologique de ces substances se base sur les résultats de tests in silico, in vitro et de tests faits sur des modèles alternatifs aux animaux de laboratoire. Pour le moment cependant, peu de méthodes alternatives existent et ont été validées pour la toxicologie du développement. Le développement de nouvelles méthodes alternatives est donc requis. D'autre part, en plus de l’évaluation de la sécurité des substances chez l’humain, l’évaluation de la toxicité pour l’environnement est nécessaire. L’usage de la plupart des produits cosmétiques et d’hygiène corporelle conduit, après lavage et rinçage, à un rejet à l’égout et donc dans les cours d’eau. Il en résulte que les environnements aquatiques (eaux de surface et milieux marins côtiers) sont parfois exposés aux substances chimiques incluses dans les formules cosmétiques. Ainsi, l’évaluation toxicologique environnementale des cosmétiques et de leurs ingrédients nécessite de connaître leur toxicité sur des organismes représentatifs de chaînes alimentaires aquatiques. Dans ce contexte, le modèle embryon de poisson présente un double avantage pour l’industrie cosmétique. Ce modèle, jugé par les législations internationales comme étant éthiquement acceptable pour les évaluations toxicologiques réalisées par l’industrie cosmétique, est représentatif des organismes aquatiques. Il est donc pertinent pour évaluer la toxicité environnementale des substances chimiques. D'autre part, ce modèle apparaît prometteur pour évaluer l’effet tératogène de substances chimiques chez l’humain. Pour ces raisons, un test d’analyse de la tératogénicité des substances chimiques est actuellement développé. Ce test se base sur l’analyse d’embryons de medaka (Oryzias Latipes) à 9 jours post fertilisation, après exposition des embryons par balnéation à des substances à concentrations déterminées. L’analyse de paramètres fonctionnels et morphologiques conduit au calcul d’un indice tératogène, qui permet de tirer une conclusion quant à l’effet tératogène de la substance testée. Cet indice est calculé à partir des mesures du taux de mortalité et du taux de malformations chez les embryons. L’objectif de ce projet est d’automatiser le test d’analyse de la tératogénicité, par classification automatique des embryons faite à partir d’image et de vidéo. La première méthode développée concerne la détection des battements cardiaques à partir de séquences vidéos, dans le but de calculer le taux de mortalité. Nous nous sommes ensuite concentrés sur deux types de malformations courantes qui sont les malformations axiales, et l'absence de vessie natatoire, en utilisant une méthode d'apprentissage automatique. Cette analyse doit être complétée par l'analyse d'autres malformations et conduire à un calcul du taux de malformations et de l’indice tératogène pour la substance testée / Numerous chemicals are used as ingredients by the cosmetics industry and are included in cosmetics formula. Aside from the assessment of their efficacy, the cosmetics industry especially needs to assess the safety of their chemicals for human. Toxicological screening of chemicals is performed with the aim of revealing the potential toxic effect of the tested chemical. Among the potential effects we want to detect, the developmental toxicity of the chemical (teratogenicity), meaning its capability of provoking abnormalities during the embryonic development, is crucial. With respect to the international regulations that forbid the use of animal testing for the safety assessment of cosmetics, the toxicological assessment of chemicals must base on an ensemble of in silico assays, in vitro assays and alternative models based assays. For now, a few alternative methods have been validated in the field of developmental toxicology. The development of new alternative methods is thus required. In addition to the safety assessment, the environmental toxicity assessment is also required. The use of most of cosmetics and personal care products leads to their rejection in waterways after washing and rince. This results in the exposition of some aquatic environments (surface waters and coastal marine environments) to chemicals included in cosmetics and personal care products. Thus, the environmental assessment of cosmetics and of their ingredients requires the knowledge of their toxicity on organisms that are representative of aquatic food chains. In this context, the fish embryo model, which is ethically acceptable according to international regulations, presents a dual advantage for the cosmetics industry. Firstly, as a model representative of aquatic organisms, it is accurate for the environmental assessment of chemicals. Secondly, this model is promising for the assessment of the teratogenic effect of chemicals on human. For this reason, a teratogenicity assessment test is developed. This test is based on the analysis of medaka fish embryos (Oryzias Latipes) at 9 days post fertilization, after balneation in a predetermined concentration of the chemical under study. The analysis of functional and morphological parameters allows to calculate a teratogenicity index, that depends on both rates of dead and malformed embryos. This index allows to to draw a conclusion concerning the teratogenic effect of the chemical.The objective of this project is to automate the teratogenicity test, by automated image and video classification. A first method is developed that aims to automatically detect embryo heart beats from acquired video sequences. This method will allow to calculate the proportion of dead embryos. We then focus on the detection of two common malformations: axial malformations and absence of a swim bladder, based on a machine learning classification. This analysis must be completed by the detection of other malformations so that we can measure the rate of malformed embryos and thus, calculate the teratogenicity index of the tested chemical
63

Deep learning compact and invariant image representations for instance retrieval / Représentations compactes et invariantes à l'aide de l'apprentissage profond pour la recherche d'images par similarité

Morère, Olivier André Luc 08 July 2016 (has links)
Nous avons précédemment mené une étude comparative entre les descripteurs FV et CNN dans le cadre de la recherche par similarité d’instance. Cette étude montre notamment que les descripteurs issus de CNN manquent d’invariance aux transformations comme les rotations ou changements d’échelle. Nous montrons dans un premier temps comment des réductions de dimension (“pooling”) appliquées sur la base de données d’images permettent de réduire fortement l’impact de ces problèmes. Certaines variantes préservent la dimensionnalité des descripteurs associés à une image, alors que d’autres l’augmentent, au prix du temps d’exécution des requêtes. Dans un second temps, nous proposons la réduction de dimension emboitée pour l’invariance (NIP), une méthode originale pour la production, à partir de descripteurs issus de CNN, de descripteurs globaux invariants à de multiples transformations. La méthode NIP est inspirée de la théorie pour l’invariance “i-theory”, une théorie mathématique proposée il y a peu pour le calcul de transformations invariantes à des groupes au sein de réseaux de neurones acycliques. Nous montrons que NIP permet d’obtenir des descripteurs globaux compacts (mais non binaires) et robustes aux rotations et aux changements d’échelle, que NIP est plus performants que les autres méthodes à dimensionnalité équivalente sur la plupart des bases de données d’images. Enfin, nous montrons que la combinaison de NIP avec la méthode de hachage RBMH proposée précédemment permet de produire des codes binaires à la fois compacts et invariants à plusieurs types de transformations. La méthode NIP+RBMH, évaluée sur des bases de données d’images de moyennes et grandes échelles, se révèle plus performante que l’état de l’art, en particulier dans le cas de descripteurs binaires de très petite taille (de 32 à 256 bits). / Image instance retrieval is the problem of finding an object instance present in a query image from a database of images. Also referred to as particular object retrieval, this problem typically entails determining with high precision whether the retrieved image contains the same object as the query image. Scale, rotation and orientation changes between query and database objects and background clutter pose significant challenges for this problem. State-of-the-art image instance retrieval pipelines consist of two major steps: first, a subset of images similar to the query are retrieved from the database, and second, Geometric Consistency Checks (GCC) are applied to select the relevant images from the subset with high precision. The first step is based on comparison of global image descriptors: high-dimensional vectors with up to tens of thousands of dimensions rep- resenting the image data. The second step is computationally highly complex and can only be applied to hundreds or thousands of images in practical applications. More discriminative global descriptors result in relevant images being more highly ranked, resulting in fewer images that need to be compared pairwise with GCC. As a result, better global descriptors are key to improving retrieval performance and have been the object of much recent interest. Furthermore, fast searches in large databases of millions or even billions of images requires the global descriptors to be compressed into compact representations. This thesis will focus on how to achieve extremely compact global descriptor representations for large-scale image instance retrieval. After introducing background concepts about supervised neural networks, Restricted Boltzmann Machine (RBM) and deep learning in Chapter 2, Chapter 3 will present the design principles and recent work for the Convolutional Neural Networks (CNN), which recently became the method of choice for large-scale image classification tasks. Next, an original multistage approach for the fusion of the output of multiple CNN is proposed. Submitted as part of the ILSVRC 2014 challenge, results show that this approach can significantly improve classification results. The promising perfor- mance of CNN is largely due to their capability to learn appropriate high-level visual representations from the data. Inspired by a stream of recent works showing that the representations learnt on one particular classification task can transfer well to other classification tasks, subsequent chapters will focus on the transferability of representa- tions learnt by CNN to image instance retrieval…
64

Classification automatique de flux radiophoniques par Machines à Vecteurs de Support

Ramona, Mathieu 21 June 2010 (has links) (PDF)
Nous présentons ici un système de classification audio parole/musique tirant parti des excellentes propriétés statistiques des Machines à Vecteurs de Support. Ce problème pose les trois questions suivantes : comment exploiter efficacement les SVM, méthode d'essence discriminatoire, sur un problème à plus de deux classes, comment caractériser un signal audio de manière pertinente, et enfin comment traiter l'aspect temporel du problème ? Nous proposons un système hybride de classification multi-classes tirant parti des approches un-contre-un et par dendogramme, et permettant l'estimation de probabilités a posteriori. Ces dernières sont exploitées pour l'application de méthodes de post-traitement prenant en compte les interdépendances entre trames voisines. Nous proposons ainsi une méthode de classification par l'application de Modèles de Markov Cachés (HMM) sur les probabilités a posteriori, ainsi qu'une approche basée sur la détection de rupture entre segments au contenu acoustique "homogène". Par ailleurs, la caractérisation du signal audio étant opérée par une grande collection des descripteurs audio, nous proposons de nouveaux algorithmes de sélection de descripteurs basés sur le récent critère d'Alignement du noyau ; critère que nous avons également exploité pour la sélection de noyau dans le processus de classification. Les algorithmes proposés sont comparés aux méthodes les plus efficaces de l'état de l'art auxquelles elles constituent une alternative pertinente en termes de coût de calcul et de stockage. Le système construit sur ces contributions a fait l'objet d'une participation à la campagne d'évaluation ESTER 2, que nous présentons, accompagnée de nos résultats.
65

Descripteurs augmentés basés sur l'information sémantique contextuelle / Toward semantic-shape-context-based augmented descriptor

Khoualed, Samir 29 November 2012 (has links)
Les techniques de description des éléments caractéristiques d’une image sont omniprésentes dans de nombreuses applications de vision par ordinateur. Nous proposons à travers ce manuscrit une extension, pour décrire (représenter) et apparier les éléments caractéristiques des images. L’extension proposée consiste en une approche originale pour apprendre, ou estimer, la présence sémantique des éléments caractéristiques locaux dans les images. L’information sémantique obtenue est ensuite exploitée, en conjonction avec le paradigme de sac-de-mots, pour construire un descripteur d’image performant. Le descripteur résultant, est la combinaison de deux types d’informations, locale et contextuelle-sémantique. L’approche proposée peut être généralisée et adaptée à n’importe quel descripteur local d’image, pour améliorer fortement ses performances spécialement quand l’image est soumise à des conditions d’imagerie contraintes. La performance de l’approche proposée est évaluée avec des images réelles aussi bien dans les deux domaines, 2D que 3D. Nous avons abordé dans le domaine 2D, un problème lié à l’appariement des éléments caractéristiques dans des images. Dans le domaine 3D, nous avons résolu les problèmes d’appariement et alignement des vues partielles tridimensionnelles. Les résultats obtenus ont montré qu’avec notre approche, les performances sont nettement meilleures par rapport aux autres méthodes existantes. / This manuscript presents an extension of feature description and matching strategies by proposing an original approach to learn the semantic information of local features. This semantic is then exploited, in conjunction with the bag-of-words paradigm, to build a powerful feature descriptor. The approach, ended up by combining local and context information into a single descriptor, is also a generalized method for improving the performance of the local features, in terms of distinctiveness and robustness under geometric image transformations and imaging conditions. The performance of the proposed approach is evaluated on real world data sets as well as in both the 2D and 3D domains. The 2D domain application addresses the problem of image feature matching while in 3D domain, we resolve the issue of matching and alignment of multiple range images. The evaluation results showed our approach performs significantly better than expected results as well as in comparison with other methods.
66

Prévisibilité potentielle des variables climatiques à impact agricole en Afrique de l'Est et application au sorgho dans la région du mont Kenya / Potential predictability of crop impacting climate variables for East Africa and application to sorghum in the Mt Kenya area

Boyard-Micheau, Joseph 22 November 2013 (has links)
Dans les pays du Sud ruraux et à faibles revenus, la vulnérabilité des zones agricoles pluviales, face à la variabilité pluviométrique, nécessite de trouver des solutions efficaces pour limiter les effets des aléas climatiques sur les récoltes. La prévision des caractéristiques des saisons des pluies quelque temps avant leur démarrage devrait aider à l’établissement de stratégies agricoles d’adaptation aux aléas pluviométriques. C’est à cet objectif que s’attache ce travail, appliqué à l’Afrique de l’Est (Kenya et nord de la Tanzanie), et articulé en 3 parties :- Définir et comprendre le comportement des descripteurs intra saisonniers (DIS) qui feront l’objet de l’étude de prévisibilité. Un travail spécifique a permis le développement d’une nouvelle approche méthodologique dans la manière de définir les démarrages (DSP) et fins (FSP) de saisons des pluies à l’échelle régionale. Cette approche basée sur une analyse multivariée, permet de s’affranchir des choix subjectifs de seuils pluviométriques imposés par les définitions communément utilisée en agro-climatologie. Une analyse de cohérence spatiale à l’échelle inter annuelle montre que, pour les deux saisons des pluies (long rains et short rains), le cumul saisonnier et le nombre de jours de pluie présentent une forte cohérence spatiale, tandis qu’elle est plus modérée pour le démarrage et fin des saisons et faible pour l’intensité quotidienne moyenne.- Analyser la prévisibilité des DIS aux 2 échelles spatiales régionale et locale en s’appuyant sur les simulations numériques du modèle climatique global ECHAM 4.5. Les précipitations quotidiennes simulées par le modèle, même après correction des biais, ne permettent pas d’appréhender correctement la variabilité interannuelle des DIS. Une spécification de la variabilité des DSP et FSP menée par le biais de modèles statistiques construits à partir d’indices climatiques observés, présuppose une prévisibilité modérée des deux descripteurs à l’échelle locale (régionale), et cela quelle que soit la saison. Le développement de modèles statistico-dynamiques à partir des champs de vents simulés par ECHAM 4.5, en mode forcé par les températures marines observées d’une part et prévues d’autre part, montre également des performances faibles localement et régionalement. - Explorer la manière dont la variabilité spatio-temporelle des paramètres climatiques et environnementaux module la variabilité des rendements de sorgho. Ces rendements sont simulés par le modèle agronomique SARRA-H à partir de données climatiques observées (1973-2001) dans 3 stations localisées à différentes altitudes le long des pentes orientales du Mt Kenya. Le cumul précipité et la durée de la saison expliquent une part importante de la variabilité des rendements. D’autres variables apparaissent comme jouant un rôle non négligeable ; le nombre de jours de pluies, l’intensité quotidienne moyenne ou encore certains DIS relatifs à l’organisation temporelle des pluies au sein d’une saison en font partie. L’influence des autres variables météorologiques est seulement visible pour les ‘long rains’ avec une covariation négative entre les rendements et les températures maximales ou, le rayonnement global. La date de semis semble jouer un rôle dans la modulation des rendements pour les stations de haute et moyenne altitudes, mais avec des différences notables entre les deux saisons des pluies. / In Southern countries with rural low income populations, the vulnerability of rainfed agriculture to rainfall variability requires effective solutions to mitigate the effects of climatic hazards on crops. Predicting the characteristics of rainy seasons some time before they start should help the establishment of agricultural adaptation strategies to rainfall hazards. This is the objective of the present study, focused on East Africa (Kenya and northern Tanzania), and divided in three parts:- Define and document intra-seasonal descriptors (ISD) that will be considered in the predictability study. A new methodological approach has been developed in order to define the onset date (ORS) and the cessation date (CRS) of the rainy seasons at the regional level. Based on a multivariate analysis, it eliminates the subjective choice of rainfall thresholds imposed by the definitions commonly used in agroclimatology. An analysis of spatial coherence at interannual time-scale shows that for the two rainy seasons ("long rains" and "short rains"), the seasonal amount and the number of rainy days have a high spatial coherence, while it is medium for the onset and cessation dates and low for the average daily rainfall intensity.- Analyze the predictability of the ISD at both regional and local scales based on numerical simulations from the global climate model ECHAM 4.5. Daily precipitation simulated by the model, even after bias correction, do not correctly capture the IDS interannual variability. A specification of the ORS and CRS variability using statistical models applied to observed climate indices, suggests quite a low predictability of the descriptors at the local (regional) scale, regardless of the season. The development of statistical-dynamical models from wind fields simulated by ECHAM 4.5, in experiments forced by either observed or predicted sea temperatures, also shows quite poor skills locally and regionally.- Explore how the space-time variability of climatic and environmental factors modulate the variations of sorghum yields. Crop yields are simulated by the agronomic model SARRA-H using observed climate data (1973-2001) at three stations located at different elevations along the eastern slopes of Mt Kenya. The seasonal rainfall accumulation and the duration of the season account for a large part of the yields variability. Other rainfall variables also play a significant role, among which the number of rainy days, the average daily intensity and some ISD related to the temporal organization of rainfall within the season. The influence of other meteorological variables is only found during the long rains, in the form of a negative correlation between yields and both maximum temperature and global radiation. Sowing dates seem to play a role in modulating yields for high and medium altitude stations, but with notable differences between the two rainy seasons.
67

Dimensions fractales, morphologie et caractéristiques dimensionnelles 2D et 3D d'agrégats de nanoparticules de suie aéronautique : Etude par microscopie électronique en transmission et tomographie électronique / Fractal dimensions, morphology, 2D and 3D characteristic sizes of aircraft soot aggregates of nanoparticles studied by transmission electron microscopy and electron tomography

Lottin, Delphine 06 May 2013 (has links)
Les agrégats de suie émis par les processus de combustion dans les turbines aéronautiques contribuent à modifier le bilan radiatif de l'atmosphère et la qualité de l'air. La connaissance de leurs caractéristiques physiques et chimiques est indispensable pour évaluer leur rôle dans les processus physico-chimiques atmosphériques et leur impact sur l'environnement et la santé publique. Dans ce contexte, notre étude vise à déterminer la taille et la morphologie d'agrégats de suie aéronautique à partir de mesures expérimentales menées en microscopie électronique en transmission (MET) et en tomographie électronique.Nous avons réalisé des clichés MET d'agrégats de suie émis par des turboréacteurs aéronautiques. Nous avons établi une méthode pour caractériser la morphologie des agrégats en déterminant leur allongement, leur compacité et la tortuosité de leur contour en analysant leur projection. Nous avons également développé un logiciel de traitement et d'analyse des images MET qui permet de reconstruire en 3D un agrégat à partir de ses projections et l'analyse de ses caractéristiques dimensionnelles et morphologiques à partir de sa reconstruction. Les résultats obtenus nous ont permis d'étudier la validité des relations liant les caractéristiques microphysiques 2D et 3D proposées dans la littérature et d'en proposer de nouvelles pour les agrégats étudiés.Ces résultats constituent la première caractérisation morphologique 3D d'agrégats de suie aéronautique à partir d'analyses par MET et tomographie électronique. Ils montrent que les propriétés morphologiques de ces agrégats ne permettent pas d'utiliser la méthode d'ensemble pour déterminer la dimension fractale massique. / Soot aggregates emitted by aircraft engines' combustion processes are involved in the modification of the global radiative budget and the air quality. The knowledge of their physical and chemical characteristics is a prerequisite to any evaluation of the way they may act in the atmospheric physical and chemical processes and their impact on the environment and public health. In this context, our study aims at determining the size and morphological characteristics of aircraft soot aggregates on the basis of experimental measurements by transmission electron microscopy (TEM) and electron tomography.We have acquired TEM pictures of soot aggregates emitted by aircraft engines. We have established a method to characterize the morphology of these aggregates by determining their elongation, their compacity and the tortuosity of their edge. This method is based on the analysis of their TEM projection. Besides, we have developed a software to process and analyse TEM pictures. It allows to reconstruct aggregates from their projections and to determine their size and morphological characteristics. Our results have lead us to study the validity of the relationships linking the 2D and 3D microphysical characteristics presented in the literature and to suggest new ones for the studied aggregates.These results constitute the first 3D morphological and size characterizations of aircraft soot aggregates using TEM and electron tomography. They highlight the fact that the morphological properties of these aggregates do not fulfil the hypotheses required for the use of the collective method to determine the mass fractal dimension.
68

Total variational optical flow for robust and accurate bladder image mosaicing / Calcul du flot optique dans une approche variationnelle totale pour le mosaïquage robuste et précis d’images de la vessie

Ali, Sharib 04 January 2016 (has links)
La cystoscopie est l’examen de référence pour le diagnostic et le traitement du cancer de la vessie. Le champ de vue (CdV) réduit des endoscopes complique le diagnostic et le suivi des lésions. Les mosaïques d’images sont une solution à ce problème car elles visualisent des CdV étendus. Toutefois, pour la vessie, le mosaïque d’images est un véritable défi à cause du faible contraste dans les images, des textures peu prononcées, de la variabilité intra- et inter-patient et des changements d’illumination dans les séquences. Ce défi est également à relever dans d’autres modalités endoscopiques ou dans des scènes non médicales comme les vidéos sous-marines. Dans cette thèse, une énergie variationnelle totale a d’abord été minimisée à l’aide d’un algorithme primal-dual du premier ordre pour obtenir un flot optique fournissant une correspondance dense et précise entre les points homologues des paires d’images. Les correspondances sont ensuite utilisées pour déterminer les paramètres des transformations requises pour le placement des images dans le repère global de la mosaïque. Les méthodes proposées pour l’estimation du flot optique dense incluent un terme d’attache aux données qui minimise le nombre des vecteurs aberrants et un terme de régularisation conçu pour préserver les discontinuités du champ devecteurs. Un algorithme de flot optique qui est robuste vis-à-vis de changements d’illumination importants (et utilisable pour différentes modalités) a également été développé dans ce contexte. La précision et la robustesse des méthodes de recalage proposées ont été testées sur des jeux de données (de flot optique) publiquement accessibles et sur des fantômes de vessies et de la peau. Des résultats sur des données patients acquises avec des cystoscopes rigides et flexibles, en lumière blanche ou en fluorescence, montrent la robustesse des algorithmes proposés. Ces résultats sont complétés par ceux obtenus pour d’autres séquences endoscopiques réelles de dermatoscopie, de scène sous-marine et de données d’exploration spatiale. / Cystoscopy is the reference procedure for the diagnosis and treatment of bladder cancer. The small field of view (FOV) of endoscopes makes both the diagnosis and follow-up of lesions difficult. Image mosaics are a solution to this problem since they visualize large FOVs of the bladder scene. However, due to low contrast, weak texture, inter- and intra-patient texture variability and illumination changes in these image sequences, the task of image mosaicing becomes challenging. This is also a major concern in other endoscopic data and non-medical scenes like underwater videos. In this thesis, a total variational energy has been first minimized using a first-order primal-dual algorithm in convex optimization to obtain optical flow vector fields giving a dense and accurate correspondence between homologous points of the image pairs. The correspondences are then used to obtain transformation parameters for registering the images to one global mosaic coordinate system. The proposed methods for dense optical flow estimation include a data-term which is modeled to minimize at most the outliers and a regularizer which is designed to preserve at their best the flow field discontinuities. An optical flow algorithm, which is robust to strong illumination changes (and which suits to different modalities), has also been developed in this framework. The registration accuracy and robustness of the proposed methods are tested on both publicly available datasets for optical flow estimation and on simulated bladder and skin phantoms. Results on patient data acquired with rigid and flexible cystoscopes under the white light and the fluorescence modality show the robustness of the proposed approaches. These results are also complemented with those of other real endoscopic data, dermoscopic sequences, underwater scenes and space exploration data.
69

Graphics Recognition using Spatial Relations and Shape Analysis / Reconnaissance de Graphiques en utilisant les Relations Spatiales et Analyse de la Forme

K. C., Santosh 28 November 2011 (has links)
Dans l’état de l’art actuel, la reconnaissance de symboles signifie généralement la reconnaissance des symboles isolés. Cependant, ces méthodes de reconnaissance de symboles isolés ne sont pas toujours adaptés pour résoudre les problèmes du monde réel. Dans le cas des documents composites qui contiennent des éléments textuels et graphiques, on doit être capable d’extraire et de formaliser les liens qui existent entre les images et le texte environnant, afin d’exploiter les informations incorporées dans ces documents.Liés à ce contexte, nous avons d’abord introduit une méthode de reconnaissance graphique basée sur la programmation dynamique et la mise en correspondance de caractéristiques issues de la transformée de Radon. Cette méthode permet d’exploiter la propriété de cette transformée pour inclure à la fois le contour et la structure interne des formes sans utiliser de techniques de compression de la représentation du motif dans un seul vecteur et qui pourrait passer à côté d’informations importantes. La méthode surpasse en performances les descripteurs de forme de l’état de l’art, mais reste principalement adapté pour la reconnaissance de symboles isolés seulement. Nous l’avons donc intégrée dans une approche complètement nouvelle pour la reconnaissance de symboles basé sur la description spatio-structurelle d’un «vocabulaire» de primitives visuelles extraites. La méthode est basée sur les relations spatiales entre des paires de types étiquetés de ce vocabulaire (dont certains peuvent être caractérisés avec le descripteur mentionné précédemment), qui sont ensuite utilisées comme base pour construire un graphe relationnel attribué (ARG) qui décrit des symboles. Grâce à notre étiquetage des types d’attribut, nous évitons le problème classique NP-difficile d’appariement de graphes. Nous effectuons une comparaison exhaustive avec d’autres modèles de relations spatiales ainsi qu’avec l’état de l’art des approches pour la reconnaissance des graphismes afin de prouver que notre approche combine efficacement les descripteurs statistiques structurels et globaux et les surpasse de manière significative.Dans la dernière partie de cette thèse, nous présentons une approche de type sac de caractéristiques utilisant les relations spatiales, où chaque paire possible primitives visuelles est indexée par sa configuration topologique et les types visuels de ses composants. Ceci fournit un moyen de récupérer les symboles isolés ainsi que d’importantes parties connues de symboles en appliquant soit un symbole isolée comme une requête soit une collection de relations entre les primitives visuelles. Finalement, ceci ouvre des perspectives vers des processus de reconnaissance de symboles fondés sur le langage naturel / In the current state-of-the-art, symbol recognition usually means recognising isolated symbols. However, isolated symbol recognition methods are not always suitable for solving real-world problems. In case of composite documents that contain textual and graphical elements, one needs to be able to extract and formalise the links that exist between the images and the surrounding text, in order to exploit the information embedded in those documents.Related to this context, we first introduce a method for graphics recognition based on dynamic programming matching of the Radon features. This method allows to exploit the Radon Transform property to include both boundary and internal structure of shapes without compressing the pattern representation into a single vector that may miss information. The method outperforms all major set of state-of-the-art of shape descriptors but remains mainly suited for isolated symbol recognition only. We therefore integrate it in a completely new approach for symbol recognition based on the spatio-structural description of a ‘vocabulary’ of extracted visual primitives. The method is based on spatial relations between pairs of labelled vocabulary types (some of which can be characterised with the previously mentioned descriptor), which are further used as a basis for building an attributed relational graph (ARG) to describe symbols. Thanks to our labelling of attribute types, we avoid the general NP-hard graph matching problem. We provide a comprehensive comparison with other spatial relation models as well as state-of-the-art approaches for graphics recognition and prove that our approach effectively combines structural and statistical descriptors together and outperforms them significantly.In the final part of this thesis, we present a Bag-Of-Features (BOFs) approach using spatial relations where every possible pair of individual visual primitives is indexed by its topological configuration and the visual type of its components. This provides a way to retrieve isolated symbols as well as significant known parts of symbols by applying either an isolated symbol as a query or a collection of relations between the important visual primitives. Eventually, it opens perspectives towards natural language based symbol recognition process
70

Traitement et simulation d’images d’IRM de perfusion pour la prédiction de l’évolution de la lésion ischémique dans l’accident vasculaire cérébral / Image processing and simulation of perfusion MRI images for the prediction of the ischemic lesion evolution in stroke

Giacalone, Mathilde 05 October 2017 (has links)
L'Accident Vasculaire Cérébral (AVC) - pathologie résultant d'une perturbation de l'apport sanguin dans le cerveau - est un problème de santé publique majeur, représentant la troisième cause de mortalité dans les pays industrialisés. Afin d'améliorer la prise en charge des patients atteints d'un AVC, il est important de posséder des méthodes efficaces pour l'identification des patients éligibles aux différentes thérapies et pour l'évaluation du rapport bénéfice/risque associé à ces thérapies. Dans ce contexte, l'Imagerie par Résonance Magnétique (IRM) dynamique de perfusion par contraste de susceptibilité, une modalité d'imagerie utile pour apprécier l'état de la perfusion cérébrale, peut aider à identifier les tissus à risque de s'infarcir. Cependant, l'intégralité de la chaîne de traitement, de l'acquisition à l'analyse et l'interprétation de l'IRM de perfusion demeure complexe et plusieurs limitations restent encore à surmonter. Durant ces travaux de thèse, nous contribuons à l'amélioration de la chaîne de traitement de l'IRM de perfusion, avec comme objectif final, l'obtention d'une meilleure prédiction de l'évolution de la lésion ischémique dans l'AVC. Dans une première partie, nous travaillons principalement sur l'étape de déconvolution des signaux temporels, une des étapes clefs à l'amélioration de l'IRM de perfusion. Cette étape consiste en la résolution d'un problème inverse mal-posé, et permet le calcul de paramètres hémodynamiques qui sont des biomarqueurs importants pour la classification de l'état final des tissus dans l'AVC. Afin de comparer de façon objective les performances des différents algorithmes de déconvolution existants et d'en valider des nouveaux, il est nécessaire d'avoir accès à une information sur la vérité terrain après déconvolution. Dans ce but, nous avons développé un simulateur numérique pour l'IRM de perfusion, avec une vérité terrain générée automatiquement. Ce simulateur est utilisé pour démontrer la faisabilité d'une automatisation du réglage des paramètres de régularisation, et établir la robustesse d'un algorithme de déconvolution avec régularisation spatio-temporelle d'introduction récente. Nous proposons également un nouvel algorithme de déconvolution globalement convergent. Enfin, la première partie de ces travaux se termine avec une discussion sur une autre étape de la chaîne de traitement en IRM de perfusion, à savoir, la normalisation des cartes de paramètres hémodynamiques extraites des images déconvoluées / Stroke – a neurological deficit resulting from blood supply perturbations in the brain – is a major public health issue, representing the third cause of death in industrialized countries. There is a need to improve the identification of patients eligible to the different therapies, as well as the evaluation of the benefit-risk ratio for the patients. In this context, perfusion Dynamic Susceptibility Contrast (DSC)-MRI, a prominent imaging modality for the assessment of cerebral perfusion, can help to identify the tissues at risk of infarction from the benign oligaemia. However, the entire pipeline from the acquisition to the analysis and interpretation of a DSC-MRI remains complex and some limitations are still to be overcome. During this PhD work, we contribute to improving the DSC-MRI processing pipeline with the ultimate objective of ameliorating the prediction of the ischemic lesion evolution in stroke. In a first part, we primarily work on the step of temporal signal deconvolution, one of the steps key to the improvement of DSC-MRI. This step consists in the resolution of an inverse ill-posed problem and allows the computation of hemodynamic parameters which are important biomarkers for tissue fate classification in stroke. In order to compare objectively the performances of existing deconvolution algorithms and to validate new ones, it is necessary to have access to information on the ground truth after deconvolution. To this end, we developed a numerical simulator of DSC MRI with automatically generated ground truth. This simulator is used to demonstrate the feasability of a full automation of regularization parameters tuning and to establish the robustness of a recent deconvolution algorithm with spatio-temporal regularization. We then propose a new globally convergent deconvolution algorithm. Then, this first part ends with a discussion on another processing step in the DSC-MRI pipeline, the normalisation of the hemodynamic parameters maps extracted from the deconvolved images. In a second part, we work on the prediction of the evolution of the tissue state from longitudinal MRI data. We first demonstrate the interest of modeling longitudinal MRI studies in stroke as a communication channel where information theory provides useful tools to identify the hemodynamic parameters maps carrying the highest predictive information, determine the spatial observation scales providing the optimal predictivity for tissue classification as well as estimate the impact of noise in prediction studies. We then demonstrate the interest of injecting shape descriptors of the ischemic lesion in acute stage in a linear regression model for the prediction of the final infarct volume. We finally propose a classifier of tissue fate based on local binary pattern for the encoding of the spatio-temporal evolution of the perfusion MRI signals

Page generated in 0.0542 seconds