• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 32
  • 14
  • 7
  • 2
  • 1
  • Tagged with
  • 132
  • 38
  • 37
  • 34
  • 32
  • 32
  • 26
  • 24
  • 22
  • 22
  • 19
  • 17
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Outils d'élaboration de stratégie de recyclage basée sur la gestion des connaissances : application au domaine du génie des procédés / Tools of elaboration of strategy of waste recycling based on knowledge management : application on process engineering

Chazara, Philippe 06 November 2015 (has links)
Dans ce travail, une étude est réalisée sur le développement d'une méthodologie permettant la génération et l'évaluation de nouvelles trajectoires de valorisation pour des déchets. Ainsi, pour répondre à cette problématique, trois sous problèmes ont été identifiés. Le premier concerne un cadre de modélisation permettant la représentation structurée et homogène de chaque trajectoire, ainsi que les indicateurs choisis pour l'évaluation de ces dernières, permettant une sélection ultérieure. Le deuxième se concentre sur le développement d'une méthodologie puis la réalisation d'un outil permettant la génération de nouvelles trajectoires en s'appuyant sur d'autres connues. Enfin, le dernier sous problème concerne le développement d'un second outil développé pour modéliser et estimer les trajectoires générées. La partie de création d'un cadre de modélisation cherche à concevoir des structures globales qui permettent la catégorisation des opérations unitaires sous plusieurs niveaux. Trois niveaux de décomposition ont été identifiés. La Configuration générique de plus haut niveau, qui décrit la trajectoire sous de grandes étapes de modélisation. Le second niveau, Traitement générique propose des ensembles de structures génériques de traitement qui apparaissent régulièrement dans les trajectoires de valorisation. Enfin, le plus bas niveau se focalise sur la modélisation des opérations unitaires. Un second cadre a été créé, plus conceptuel et comportant deux éléments : les blocs et les systèmes. Ces cadres sont ensuite accompagnés par un ensemble d'indicateurs choisis à cet effet. Dans une volonté d'approche de développement durable, un indicateur est sélectionné pour chacune de des composantes : économique, environnemental et social. Dans notre étude, l'impact social se limite à l'estimation du nombre d'emplois créés. Afin de calculer cet indicateur, une nouvelle approche se basant sur les résultats économiques d'une entreprise a été proposée et validée.L'outil de génération de nouvelles trajectoires s'appuie sur l'utilisation de la connaissance en utilisant un système de raisonnement à partir de cas (RàPC). Pour être adapté à notre problématique, la mise en œuvre de ce dernier a impliqué la levée de plusieurs points délicats. Tout d'abord, la structuration des données et plus largement la génération de cas sources sont réalisées par un système basé sur des réseaux sémantiques et l'utilisation de mécanismes d'inférences. Le développement d'une nouvelle méthode de mesure de similarité est réalisé en introduisant la notion de définition commune qui permet de lier les états, qui sont des descriptions de situations, à des états représentant des définitions générales d'un ensemble d'états. Ces définitions communes permettent la création d'ensembles d'états sous différents niveaux d'abstraction et de conceptualisation. Enfin, un processus de décompositions des trajectoires est réalisé afin de résoudre un problème grâce à la résolution de ses sous-problèmes associés. Cette décomposition facilite l'adaptation des trajectoires et l'estimation des résultats des transformations. Basé sur cette méthode, un outil a été développé en programmation logique, sous Prolog. La modélisation et l'évaluation des voies de valorisation se fait grâce à la création d'outil spécifique. Cet outil utilise la méta-programmation permettant la réalisation dynamique de modèle de structure. Le comportement de ces structures est régi par la définition de contraintes sur les différents flux circulants dans l'ensemble de la trajectoire. Lors de la modélisation de la trajectoire, ces contraintes sont converties par un parser permettant la réalisation d'un modèle de programmation par contraintes cohérent. Ce dernier peut ensuite être résolu grâce à des solveurs via une interface développée et intégrée au système. De même, plusieurs greffons ont été réalisés pour analyser et évaluer les trajectoires à l'aide des critères retenus. / In this work, a study is realised about the creation of a new methodology allowing the generation and the assessment of new waste recovery processes. Three elements are proposed for that. The first one is the creation of a modelling framework permitting a structured and homogeneous representation of each recovery process and the criteria used to asses them. The second one is a system and a tool generating new recovery processes from others known. Finally, the last element is another tool to model, to estimate and to asses the generated processes. The creation of a modelling framework tries to create some categories of elements allowing the structuring of unit operations under different levels of description. Three levels have been identified. In the higher level, the Generic operation which describes global structure of operations. The second one is Generic treatment which is an intermediate level between the two others. It proposes here too categories of operations but more detailed than the higher level. The last one is the Unit operation. A second framework has been created. It is more conceptual and it has two components : blocs and systems. These frameworks are used with a set of selected indicators. In a desire of integrating our work in a sustainable development approach, an indicator has been chosen for each of its components: economical, environmental and social. In our study, the social impact is limited to the number of created jobs. To estimate this indicator, we proposed a new method based on economical values of a company. The tool for the generation of new waste recovery processes used the methodology of case-based reasoning CBR which is based on the knowledge management. Some difficult points are treated here to adapt the CBR to our problem. The structuring of knowledge and generally the source case generation is realised by a system based on connections between data and the use of inference mechanisms. The development of a new method for the similarity measure is designed with the introduction of common definition concept which allows linking states, simply put description of objects, to other states under different levels of conceptualizations and abstractions. This point permits creating many levels of description. Finally, recovery process is decomposed from a main problem to some sub-problems. This decomposition is a part of the adaptation mechanism of the selected source case. The realisation of this system is under logic programming with Prolog. This last one permits the use of rules allowing inferences and the backtracking system allowing the exploration to the different possible solution. The modelling and assessment of recovery processes are done by a tool programmed in Python. It uses the meta-programming to dynamically create model of operations or systems. Constraint rules define the behaviour of these models allowing controlling the flux circulating in each one. In the evaluation step, a parser is used to convert theses rules into a homogeneous system of constraint programming. This system can be solved by the use of solvers with an interface developed for that and added to the tool. Therefore, it is possible for the user to add solvers but also to add plug-ins. This plug-ins can make the assessment of the activity allowing to have different kinds of evaluation for the same criteria. Three plug-ins are developed, one for each selected criterion. These two methods are tested to permit the evaluation of the proposed model and to check the behaviour of them and their limits . For these tests, a case-base on waste has been created Finally, for the modelling and assessment tool, a study case about the recovery process of used tyres in new raw material is done.
112

Stratégies de génération de tests à partir de modèles UML/OCL interprétés en logique du premier ordre et système de contraintes. / Test generation strategies from UML/OCL models interpreted with first order logic constraints system

Cantenot, Jérôme 13 November 2013 (has links)
Les travaux présentés dans cette thèse proposent une méthode de génération automatique de tests à partir de modèles.Cette méthode emploie deux langages de modélisations UML4MBT et OCL4MBT qui ont été spécifiquement dérivées d’ UML et OCL pour la génération de tests. Ainsi les comportements, la structure et l’état initial du système sont décrits au travers des diagrammes de classes, d’objets et d’états-transitions.Pour générer des tests, l’évolution du modèle est représente sous la forme d’un système de transitions. Ainsi la construction de tests est équivalente à la découverte de séquences de transitions qui relient l’´état initial du système à des états validant les cibles de test.Ces séquences sont obtenues par la résolution de scénarios d’animations par des prouveurs SMT et solveurs CSP. Pour créer ces scénarios, des méta-modèles UML4MBT et CSP4MBT regroupant formules logiques et notions liées aux tests ont été établies pour chacun des outils.Afin d’optimiser les temps de générations, des stratégies ont été développé pour sélectionner et hiérarchiser les scénarios à résoudre. Ces stratégies s’appuient sur la parallélisation, les propriétés des solveurs et des prouveurs et les caractéristiques de nos encodages pour optimiser les performances. 5 stratégies emploient uniquement un prouveur et 2 stratégies reposent sur une collaboration du prouveur avec un solveur.Finalement l’intérêt de cette nouvelle méthode à été validée sur des cas d’études grâce à l’implémentation réalisée. / This thesis describes an automatic test generation process from models.This process uses two modelling languages, UML4MBT and OCL4MBT, created specificallyfor tests generation. Theses languages are derived from UML and OCL. Therefore the behaviours,the structure and the initial state of the system are described by the class diagram, the objectdiagram and the state-chart.To generate tests, the evolution of the model is encoded with a transition system. Consequently,to construct a test is to find transition sequences that rely the initial state of the system to thestates described by the test targets.The sequence are obtained by the resolution of animation scenarios. This resolution is executedby SMT provers and CSP solvers. To create the scenario, two dedicated meta-models, UML4MBTand CSP4MBT have been established. Theses meta-models associate first order logic formulas withthe test notions.7 strategies have been developed to improve the tests generation time. A strategy is responsiblefor the selection and the prioritization of the scenarios. A strategy is built upon the properties ofthe solvers and provers and the specification of our encoding process. Moreover the process canalso be paralleled to get better performance. 5 strategies employ only a prover and 2 make theprover collaborate with a solver.Finally the interest of this process has been evaluated through a list of benchmark on variouscases studies.
113

Croissance catalytique et étude de nanotubes de carbone multi-feuillets produits en masse et de nanotubes de carbone ultra-long individuels à quelques feuillets / Catalytic growth and study of mass-produced multi-walled carbon nanotubes and ultralong individual few-walled carbon nanotubes

Than, Xuan Tinh 21 November 2011 (has links)
Croissance catalytique et étude de nanotubes de carbone multi-feuillets produits en masse et de nanotubes de carbone ultra-long individuels à quelques feuillets Résumé: Ce travail expérimental traite de la croissance catalytique à partir d'une phase vapeur (CCVD) de nanotubes de carbone multi-feuillets (MWCNT) et de nanotubes de carbone (CNT) ultralongs ainsi que de l'étude de leurs propriétés physiques. Dans la première partie du manuscrit est décrite l'optimisation des paramètres pour la croissance CCVD de MWNT en masse et à faible coût. Avec l'acétylène comme source de carbone, Fe(NO3)3.9H2O comme précurseur de catalyseur et CaCO3 comme support, nous rapportons les conditions optimales pour la production de 525 g de MWCNT par jour à un coût estimé de 0.6$/g. La purification des MWCNT ainsi produits par un traitement à l'oxygène ou au dioxyde de carbone est également présentée. La seconde partie est consacrée à la synthèse de CNT ultralongs. L'influence des paramètres de synthèse est étudiée et, à partir de ces observations, les mécanismes de croissance possibles sont discutés. La dernière partie de la thèse est dédiée à la fabrication et à l'étude des propriétés physiques de nanotubes individuels ultralongs. Sur la base du savoir-faire développé précédemment, nous avons réalisé des CNT ultralongs alignés, des jonctions de CNT (suspendus ou supportés) ainsi que des CNT suspendus au-dessus de différents supports. Les propriétés électroniques et de transport des CNT individuels ultralongs sur substrat de silicium ont été étudiées par microscopie à force atomique, spectroscopie Raman et mesures de transport. Enfin, les modes de phonons actifs en Raman sont étudiés par des expériences combinant microscopie électronique à transmission, diffraction électronique et spectroscopie Raman.Mots clés: Nanotubes de carbone multi-feuillets, nanotubes de carbone ultralongs, croissance catalytique à partir d'une phase vapeur, mécanisme de croissance, lithographie, spectroscopie Raman de résonance, transport électronique. / Catalytic growth and study of mass-produced multi-walled carbon nanotubes and ultralong individual few-walled carbon nanotubesAbstract: This experimental work deals with the growth of multi-walled carbon nanotubes (MWCNTs) and ultralong carbon nanotubes (CNTs) by catalytic chemical vapor deposition (CCVD), and the study of their physical properties. In the first part of the manuscript is described the parameter optimization of the CCVD growth of MWCNTs for a large-scale production at low cost. By using acetylene as a carbon source, Fe(NO3)3.9H2O as a precursor catalyst and CaCO3 as a catalyst support, we report on optimized growth conditions allowing the production of 525 g of MWCNTs per day at an estimated cost of 0.6 $ per gramme. The purification of the as-grown MWCNTs by oxygen or carbon dioxide treatments is also presented. In the second part is presented the synthesis of ultralong individual CNTs. The influence of the growth parameters is investigated and based on the experimental observations, the possible growth mechanisms are discussed. Finally, the last part of the thesis is dedicated to the preparation and to the study of the physical properties of ultralong individual carbon nanotubes. From the know-how developed in the previous part, we prepared well-aligned ultralong CNTs, cross junction of CNTs (on a substrate or suspended) and suspended CNTs over different supports. Electronic and electron transport properties of the individual ultralong CNTs on silicon substrate are then studied by atomic force microscopy, Raman spectroscopy and transport measurements. Finally, the Raman-active phonons of suspended individual CNTs were investigated in combined experiments by transmission electron microscopy, electron diffraction and Raman spectroscopy. Keywords: Multi-walled carbon nanotubes, ultralong carbon nanotubes, catalytic chemical vapor deposition, growth mechanism, lithography, resonant Raman spectroscopy, electronic transport.
114

From examples to knowledge in model-driven engineering : a holistic and pragmatic approach

Batot, Edouard 11 1900 (has links)
No description available.
115

Intelligent pattern recognition techniques for photo-realistic 3D modeling of urban planning objects / Techniques intelligentes motif de reconnaissance pour photo-réaliste modélisation 3D de la planification urbaine objets

Tsenoglou, Theocharis 28 November 2014 (has links)
Modélisation 3D réaliste des bâtiments et d'autres objets de planification urbaine est un domaine de recherche actif dans le domaine de la modélisation 3D de la ville, la documentation du patrimoine, tourisme virtuel, la planification urbaine, la conception architecturale et les jeux d'ordinateur. La création de ces modèles, très souvent, nécessite la fusion des données provenant de diverses sources telles que les images optiques et de numérisation de nuages ​​de points laser. Pour imiter de façon aussi réaliste que possible les mises en page, les activités et les fonctionnalités d'un environnement du monde réel, ces modèles doivent atteindre de haute qualité et la précision de photo-réaliste en termes de la texture de surface (par exemple pierre ou de brique des murs) et de la morphologie (par exemple, les fenêtres et les portes) des objets réels. Rendu à base d'images est une alternative pour répondre à ces exigences. Il utilise des photos, prises soit au niveau du sol ou de l'air, à ajouter de la texture au modèle 3D ajoutant ainsi photo-réalisme.Pour revêtement de texture pleine de grandes façades des modèles de blocs 3D, des images qui dépeignent la même façade doivent être correctement combinée et correctement aligné avec le côté du bloc. Les photos doivent être fusionnés de manière appropriée afin que le résultat ne présente pas de discontinuités, de brusques variations de l'éclairage ou des lacunes. Parce que ces images ont été prises, en général, dans différentes conditions de visualisation (angles de vision, des facteurs de zoom, etc.) ils sont sous différentes distorsions de perspective, mise à l'échelle, de luminosité, de contraste et de couleur nuances, ils doivent être corrigés ou ajustés. Ce processus nécessite l'extraction de caractéristiques clés de leur contenu visuel d'images.Le but du travail proposé est de développer des méthodes basées sur la vision par ordinateur et les techniques de reconnaissance des formes, afin d'aider ce processus. En particulier, nous proposons une méthode pour extraire les lignes implicites à partir d'images de mauvaise qualité des bâtiments, y compris les vues de nuit où seules quelques fenêtres éclairées sont visibles, afin de préciser des faisceaux de lignes parallèles 3D et leurs points de fuite correspondants. Puis, sur la base de ces informations, on peut parvenir à une meilleure fusion des images et un meilleur alignement des images aux façades de blocs. / Realistic 3D modeling of buildings and other urban planning objects is an active research area in the field of 3D city modeling, heritage documentation, virtual touring, urban planning, architectural design and computer gaming. The creation of such models, very often, requires merging of data from diverse sources such as optical images and laser scan point clouds. To imitate as realistically as possible the layouts, activities and functionalities of a real-world environment, these models need to attain high photo-realistic quality and accuracy in terms of the surface texture (e.g. stone or brick walls) and morphology (e.g. windows and doors) of the actual objects. Image-based rendering is an alternative for meeting these requirements. It uses photos, taken either from ground level or from the air, to add texture to the 3D model thus adding photo-realism. For full texture covering of large facades of 3D block models, images picturing the same façade need to be properly combined and correctly aligned with the side of the block. The pictures need to be merged appropriately so that the result does not present discontinuities, abrupt variations in lighting or gaps. Because these images were taken, in general, under various viewing conditions (viewing angles, zoom factors etc) they are under different perspective distortions, scaling, brightness, contrast and color shadings, they need to be corrected or adjusted. This process requires the extraction of key features from their visual content of images. The aim of the proposed work is to develop methods based on computer vision and pattern recognition techniques in order to assist this process. In particular, we propose a method for extracting implicit lines from poor quality images of buildings, including night views where only some lit windows are visible, in order to specify bundles of 3D parallel lines and their corresponding vanishing points. Then, based on this information, one can achieve better merging of the images and better alignment of the images to the block façades. Another important application dealt in this thesis is that of 3D modeling. We propose an edge preserving interpolation, based on the mean shift algorithm, that operates jointly on the optical and the elevation data. It succeeds in increasing the resolution of the elevation data (LiDAR) while improving the quality (i.e. straightness) of their edges. At the same time, the color homogeneity of the corresponding imagery is also improved. The reduction of color artifacts in the optical data and the improvement in the spatial resolution of elevation data results in more accurate 3D building models. Finally, in the problem of building detection, the application of the proposed mean shift-based edge preserving smoothing for increasing the quality of aerial/color images improves the performance of binary building vs non-building pixel classification.
116

[en] PROMOTION OF MONOCLINIC ZIRCONIA REDOX PROPERTIES BY DOPING WITH ZINC FOR THE ACETONE SYNTHESIS FROM ETHANOL / [pt] PROMOÇÃO DAS PROPRIEDADES ÓXIDO-REDUTORAS DA ZIRCÔNIA MONOCLÍNICA DOPADA COM ZINCO NA SÍNTESE DE ACETONA A PARTIR DO ETANOL

16 July 2020 (has links)
[pt] Esta tese descreve a síntese de um óxido misto de Zn e Zr (ZnxZr1-xOy), mediante uma técnica ainda não reportada e a utilização deste material na síntese de acetona a partir de etanol. O objetivo foi desenhar um catalisador com propriedades óxido-redutoras e capacidade de se autorregenerar após cada ciclo. A zircônia monoclínica (m-ZrO2) é um óxido já usado em catálise devido às suas propriedades ácido-básicas, mas com fracas propriedades óxido-redutoras. Estas últimas poderiam ser promovidas mediante dopagem substitucional deste material. A inserção de pequeníssimas quantidades de Zn na rede da m-ZrO2, mostraram um incremento apreciável na sua redutibilidade. O material obtido foi caracterizado por diversas técnicas e testado na obtenção de acetona a partir de etanol. O resultado indicou que a dopagem permitiu a formação de vacâncias de oxigênio, as quais promoveram a mobilidade do oxigênio até a superfície e, com isso, aumentaram redutibilidade do material. A seletividade da reação de conversão de etanol teve como produto maioritário a acetona. Foi demostrado que a regeneração do catalisador se deve a espécies oxidantes provenientes da dissociação da água presente no médio reacional; esta dissociação ocorreu nas vacâncias superficiais. Assim, demonstrou-se que a técnica desenvolvida no presente estudo, além de simples, resultou efetiva na síntese do óxido misto de Zn e Zr, um catalisador de composição simples, capaz de conduzir os diferentes passos do mecanismo na síntese de acetona. Considera-se que esta é a primeira etapa na sua viabilização comercial. / [en] This thesis describes the synthesis process of a mixed oxide with Zn and Zr (ZnxZr1-xOy), through a not yet published technique, as well as the utilization of this material in the acetone synthesis from ethanol. The mean goal was to design a catalyst with enhanced oxy-reduction properties and capability for selfregeneration after each cycle. Monoclinic zirconia (m-ZrO2) is already used in catalysis due to its acidic-basic properties, although its oxy-reduction properties are negligible. The enhancement of the oxy-reduction properties can be reached by substitutional doping of this material with a lower oxidation state metal. The insertion of very small quantities of Zn in the m-ZrO2 lattice, showed a high increment of its reducibility. The mixed oxides obtained were characterized by several techniques and catalytically tested in the acetone synthesis from ethanol. The results showed that doping allows the formation of oxygen vacancies, which allow oxygen mobility and therefore, the enhancement of reducibility. The reaction selectivity had acetone as majority product. It was shown that water is also produced and that it is dissociated in the oxygen vacancies generating oxidant species. The catalysts regeneration occurs due to those oxidant species. Therefore, it was demonstrated that the technique developed in this study was easy and effective in the synthesis of the mixed oxide with Zn and Zr, a catalyst with simple composition able to conduct every step of the acetone synthesis. This is considered the first step in the commercial feasibility of this material.
117

La dihydrofolate réductase R67, comme une cible d’antibiotiques et biocatalyseur potentiel

Timchenko, Natalia 12 1900 (has links)
La dihyrofolate réductase de type II R67 (DHFR R67) est une enzyme bactérienne encodée par un plasmide donc aisément transmissible. Elle catalyse la réaction de réduction du dihydrofolate (DHF) en tétrahydrofolate (THFA) essentiel pour la prolifération cellulaire. La DHFR R67 est une enzyme qui dépend du cofacteur NADPH. La DHFR R67 est différente, structurellement et génétiquement, de l’enzyme DHFR chromosomale présente chez tous les organismes et elle est résistante au triméthoprime (TMP) qui est largement utilisé dans les traitements antibactériens chez l’Homme. Aucun inhibiteur sélectif contre la DHFR R67 n’est actuellement répertorié. Le but de cette étude a été d’identifier des molécules qui pourront inhiber la DHFR R67 sélectivement, sans affecter la DHFR humaine (DHFRh). La vérification de la qualité des essais enzymatiques en conditions déterminées pour le criblage d’inhibiteurs sur plusieurs lectrices à plaques a identifié des appareils appropriés pour l’analyse. L’étude de l’activité enzymatique de la DHFR R67 et de la DHFRh en présence des solvants organiques et liquides ioniques (LIs), comme des co-solvants pour le criblage rationnel d’inhibiteurs, a montré que certains LIs peuvent servir de milieu alternatif pour les essais enzymatiques. Le criblage rationnel basé sur l’approche du design d’un inhibiteur à partir de petites molécules, a révélé des molécules primaires qui inhibent la DHFR R67 de façon faible, mais sélective. Le test des composés biologiquement actifs qui comprennent des petits fragments, a montré l’augmentation de l’affinité entre la DHFR R67 et les composés testés. Trois composés ont été déterminés comme des inhibiteurs sélectifs prometteurs pour la DHFR R67. / Type II R-plasmid encoded dihyrofolate reductase (DHFR), R67 DHFR is a bacterial enzyme that catalyzes the reduction of dihydrofolate (DHF) to tetrahydrofolate (THFA) which is essential for cell proliferation. R67 DHFR is an enzyme that depends on the cofactor NADPH as the hydride donor. R67 DHFR is distinct, structurally and genetically, from E. coli chromosomal DHFR (DHFR Ec) and it provides drug resistance to the widely-administered antibiotic trimethoprim (TMP). No selective inhibitor against R67 DHFR exists currently. The goal of this study was to discover molecules that can selectively inhibit R67 DHFR, without affecting human DHFR (hDHFR). Verification of the quality of enzyme assays under defined conditions for inhibitor screening on plate readers found several appropriate instruments for analysis. The study of the enzymatic activity of R67 DHFR and hDHFR in the presence of organic solvents and ionic liquids (ILs), as co-solvents for rational screening of inhibitors, showed that ILs can provide alternative media for enzymatic assays. Rational screening based on the approach of fragment-based drug design, revealed primary molecules that inhibited DHFR R67 weakly, but selectively. The testing of more complex compounds with known biological activities gave ligands with increased affinity for R67 DHFR. Three compounds were identified as promising selective inhibitors for R67 DHFR.
118

Roadmark reconstruction from stereo-images acquired by a ground-based mobile mapping system / Reconstruction de marquages routiers à partir d'images terrestres

Soheilian, Bahman 01 April 2008 (has links)
Malgré les récentes avancées des Systèmes de Cartographie Mobile, la reconstruction automatique d’objets à partir des données acquises est encore un point crucial. Dans cette thèse, nous nous intéresserons en particulier à la reconstruction tridimensionnelle du marquage au sol à partir d’images acquises sur le réseau routier par une base stéréoscopique horizontale d’un système de cartographie mobile, dans un contexte urbain dense. Une nouvelle approche s’appuyant sur la connaissance de la géométrie 3D des marquages au sol est présentée, conduisant à une précision de reconstruction 3D centimétrique avec un faible niveau de généralisation. Deux objets de la signalisation routière horizontale sont étudiés : les passages piétons et les lignes blanches discontinues. La stratégie générale est composée de trois grandes étapes. La première d’entre elles permet d’obtenir des chaînes de contours 3D. Les contours sont extraits dans les images gauche et droite. Ensuite, un algorithme reposant sur une optimisation par programmation dynamique est mis en oeuvre pour apparier les points de contours des deux images. Un post-traitement permet un appariement sub-pixellique, et, les chaînes de contours 3D sont finalement obtenues par une triangulation photogrammétrique classique. La seconde étape fait intervenir les spécifications géométriques des marquages au sol pour réaliser un filtrage des chaînes de contours 3D. Elle permet de déterminer des candidats pour les objets du marquage au sol. La dernière étape peut être vue comme une validation permettant de rejeter ou d’accepter ces hypothèses. Les candidats retenus sont alors reconstruits finement. Pour chaque bande d’un passage piéton ou d’une ligne discontinue, le modèle est un quasi-parallélogramme. Une contrainte de planéité est imposée aux sommets de chaque bande, ce qui n’est pas le cas pour l’ensemble des bandes formant un marquage au sol particulier. La méthode est évaluée sur un ensemble de 150 paires d’images acquises en centre ville dans des conditions normales de trafic. Les résultats montrent la validité de notre stratégie en terme de robustesse, de complétude et de précision géométrique. La méthode est robuste et permet de gérer les occultations partielles ainsi que les marquages usés ou abîmés. Le taux de détection atteint 90% et la précision de reconstruction 3D est de l’ordre de 2 à 4 cm. Finalement, une application de la reconstruction des marquages au sol est présentée : le géoréférencement du système d’acquisition. La majorité des systèmes de cartographie mobile utilisent des capteurs de géoréférencement direct comme un couplage GPS/INS pour leur localisation. Cependant, en milieu urbain dense, les masques et les multi-trajets corrompent les mesures et conduisent à une précision d’environ 50 cm. Afin d’améliorer la qualité de localisation, nous cherchons à apparier les images terrestres avec des images aériennes calibrées de la même zone. Les marquages au sol sont alors utilisés comme objets d’appariement. La validité de la méthode est démontrée sur un exemple de passage piéton / Despite advances in ground-based Mobile Mapping System (MMS), automatic feature reconstruction seems far from being reached. In this thesis, we focus on 3D roadmark reconstruction from images acquired by road looking cameras of a MMS stereo-rig in dense urban context. A new approach is presented, that uses 3D geometric knowledge of roadmarks and provides a centimetric 3D accuracy with a low level of generalisation. Two classes of roadmarks are studied: zebra-crossing and dashed-lines. The general strategy consists in three main steps. The first step provides 3D linked-edges. Edges are extracted in the left and right images. Then a matching algorithm that is based on dynamic programming optimisation matches the edges between the two images. A sub-pixel matching is computed by post processing and 3D linked-edges are provided by classical photogrammetric triangulation. The second step uses the known specification of roadmarks to perform a signature based filtering of 3D linked-edges. This step provides hypothetical candidates for roadmark objects. The last step can be seen as a validation step that rejects or accepts the candidates. The validated candidates are finely reconstructed. The adopted model consists of a quasi parallelogram for each strip of zebra-crossing or dashed-line. Each strip is constrained to be flat but the roadmark as a whole is not planar. The method is evaluated on a set of 150 stereo-pairs acquired in a real urban area under normal traffic conditions. The results show the validity of the approach in terms of robustness, completeness and geometric accuracy. The method is robust and deals properly with partially occluded roadmarks as well as damaged or eroded ones. The detection rate reaches 90% and the 3D accuracy is about 2-4 cm. Finally an application of reconstructed roadmarks is presented. They are used in georeferencing of the system. Most of the MMSs use direct georeferencing devices such as GPS/INS for their localisation. However in urban areas masks and multi-path errors corrupt the measurements and provide only 50 cm accuracy. In order to improve the localisation quality, we aim at matching ground-based images with calibrated aerial images of the same area. For this purpose roadmarks are used as matching objects. The validity of this method is demonstrated on a zebra-crossing example
119

Extraction de connaissances pour la modélisation tri-dimensionnelle de l'interactome structural / Knowledge-based approaches for modelling the 3D structural interactome

Ghoorah, Anisah W. 22 November 2012 (has links)
L'étude structurale de l'interactome cellulaire peut conduire à des découvertes intéressantes sur les bases moléculaires de certaines pathologies. La modélisation par homologie et l'amarrage de protéines ("protein docking") sont deux approches informatiques pour modéliser la structure tri-dimensionnelle (3D) d'une interaction protéine-protéine (PPI). Des études précédentes ont montré que ces deux approches donnent de meilleurs résultats quand des données expérimentales sur les PPIs sont prises en compte. Cependant, les données PPI ne sont souvent pas disponibles sous une forme facilement accessible, et donc ne peuvent pas être re-utilisées par les algorithmes de prédiction. Cette thèse présente une approche systématique fondée sur l'extraction de connaissances pour représenter et manipuler les données PPI disponibles afin de faciliter l'analyse structurale de l'interactome et d'améliorer les algorithmes de prédiction par la prise en compte des données PPI. Les contributions majeures de cette thèse sont de : (1) décrire la conception et la mise en oeuvre d'une base de données intégrée KBDOCK qui regroupe toutes les interactions structurales domaine-domaine (DDI); (2) présenter une nouvelle méthode de classification des DDIs par rapport à leur site de liaison dans l'espace 3D et introduit la notion de site de liaison de famille de domaines protéiques ("domain family binding sites" ou DFBS); (3) proposer une classification structurale (inspirée du système CATH) des DFBSs et présenter une étude étendue sur les régularités d'appariement entre DFBSs en terme de structure secondaire; (4) introduire une approche systématique basée sur le raisonnement à partir de cas pour modéliser les structures 3D des complexes protéiques à partir des DDIs connus. Une interface web (http://kbdock.loria.fr) a été développée pour rendre accessible le système KBDOCK / Understanding how the protein interactome works at a structural level could provide useful insights into the mechanisms of diseases. Comparative homology modelling and ab initio protein docking are two computational methods for modelling the three-dimensional (3D) structures of protein-protein interactions (PPIs). Previous studies have shown that both methods give significantly better predictions when they incorporate experimental PPI information. However, in general, PPI information is often not available in an easily accessible way, and cannot be re-used by 3D PPI modelling algorithms. Hence, there is currently a need to develop a reliable framework to facilitate the reuse of PPI data. This thesis presents a systematic knowledge-based approach for representing, describing and manipulating 3D interactions to study PPIs on a large scale and to facilitate knowledge-based modelling of protein-protein complexes. The main contributions of this thesis are: (1) it describes an integrated database of non-redundant 3D hetero domain interactions; (2) it presents a novel method of describing and clustering DDIs according to the spatial orientations of the binding partners, thus introducing the notion of "domain family-level binding sites" (DFBS); (3) it proposes a structural classification of DFBSs similar to the CATH classification of protein folds, and it presents a study of secondary structure propensities of DFBSs and interaction preferences; (4) it introduces a systematic case-base reasoning approach to model on a large scale the 3D structures of protein complexes from existing structural DDIs. All these contributions have been made publicly available through a web server (http://kbdock.loria.fr)
120

Algorithmes pour la fouille de données et la bio-informatique / Algorithms for data mining and bio-informatics

Mondal, Kartick Chandra 12 July 2013 (has links)
L'extraction de règles d'association et de bi-clusters sont deux techniques de fouille de données complémentaires majeures, notamment pour l'intégration de connaissances. Ces techniques sont utilisées dans de nombreux domaines, mais aucune approche permettant de les unifier n'a été proposée. Hors, réaliser ces extractions indépendamment pose les problèmes des ressources nécessaires (mémoire, temps d'exécution et accès aux données) et de l'unification des résultats. Nous proposons une approche originale pour extraire différentes catégories de modèles de connaissances tout en utilisant un minimum de ressources. Cette approche est basée sur la théorie des ensembles fermés et utilise une nouvelle structure de données pour extraire des représentations conceptuelles minimales de règles d'association, bi-clusters et règles de classification. Ces modèles étendent les règles d'association et de classification et les bi-clusters classiques, les listes d'objets supportant chaque modèle et les relations hiérarchiques entre modèles étant également extraits. Cette approche a été appliquée pour l'analyse de données d'interaction protéomiques entre le virus VIH-1 et l'homme. L'analyse de ces interactions entre espèces est un défi majeur récent en bio-informatique. Plusieurs bases de données intégrant des informations hétérogènes sur les interactions et des connaissances biologiques sur les protéines ont été construites. Les résultats expérimentaux montrent que l'approche proposée peut traiter efficacement ces bases de données et que les modèles conceptuels extraits peuvent aider à la compréhension et à l'analyse de la nature des relations entre les protéines interagissant. / Knowledge pattern extraction is one of the major topics in the data mining and background knowledge integration domains. Out of several data mining techniques, association rule mining and bi-clustering are two major complementary tasks for these topics. These tasks gained much importance in many domains in recent years. However, no approach was proposed to perform them in one process. This poses the problems of resources required (memory, execution times and data accesses) to perform independent extractions and of the unification of the different results. We propose an original approach for extracting different categories of knowledge patterns while using minimum resources. This approach is based on the frequent closed patterns theoretical framework and uses a novel suffix-tree based data structure to extract conceptual minimal representations of association rules, bi-clusters and classification rules. These patterns extend the classical frameworks of association and classification rules, and bi-clusters as data objects supporting each pattern and hierarchical relationships between patterns are also extracted. This approach was applied to the analysis of HIV-1 and human protein-protein interaction data. Analyzing such inter-species protein interactions is a recent major challenge in computational biology. Databases integrating heterogeneous interaction information and biological background knowledge on proteins have been constructed. Experimental results show that the proposed approach can efficiently process these databases and that extracted conceptual patterns can help the understanding and analysis of the nature of relationships between interacting proteins.

Page generated in 0.031 seconds