• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Pour un système de synthèse d'images flexible et évolutif : quelques propositions

Jahami, Ghassan 21 March 1991 (has links) (PDF)
Je me suis intéressé pendant ma thèse à la globalité du système de synthèse d'images. En effet, j'ai travaillé sur les différentes étapes du processus de la génération d'une image de synthèse: de la modélisation jusqu'au rendu. Mon objectif principal était de favoriser l'évolutivité et la flexibilité du système. Pour pouvoir atteindre cet objectif, j'ai utilisé la programmation orientée objet pour concevoir et implanter un modeleur de type arbre de construction en langage c++. J'ai proposé une méthodologie de choix de classes et une hiérarchie originale de classes. Pour rendre le système plus flexible, j'ai permis le mixage d'algorithmes d'élimination des parties cachées dans une même scène tout en assurant l'interaction en termes de réflexion, transparence et ombres portées entre tous les objets de la scène. Enfin, j'ai proposé un certain nombre d'outils et méthodes pour la gestion des niveaux de détails dans une scène.
142

Écologie et dynamique de la régénération de Dicorynia guianensis (Caesalpiniaceae) dans une forêt guyanaise

Jesel, Sébastien 13 December 2005 (has links) (PDF)
Dicorynia guianensis (Angélique) est un grand arbre de la forêt tropicale humide du plateau des Guyanes et la première espèce exploitée pour son bois en Guyane. La gestion durable de cette ressource exige de pouvoir prédire à long terme le renouvellement du stock exploitable et pour cela, de mieux cerner les processus écologiques qui déterminent la dynamique de sa régénération. Le travail présenté est la synthèse d'études menées sur l'écologie de la graine et la démographie de la régénération de D. guianensis en forêt naturelle et en forêt exploitée sur le site de Paracou, en Guyane. Les connaissances acquises, à l'échelle de la population, sur la régénération de l'espèce ont permis de calibrer un modèle de recrutement à partir de la graine intégrant la variabilité des processus d'installation, de croissance et de mortalité. Ce modèle constitue le point de départ d'un simulateur de la dynamique des populations naturelles de D. guianensis sélectivement exploitées en Guyane.
143

Simulations numériques de la dynamique des protéines : translation de ligands, flexibilité et dynamique des boucles

St-Pierre, Jean-François 03 1900 (has links)
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues. / Flexibility is an intrinsic characteristic of proteins who from the moment of synthesis into a linear chain of amino acids, have to adopt an enzymatically active tridimensionnel structure. Some proteins stay flexible once folded and display large amplitude confor- mational changes during their enzymatic cycles. Others contain parts that are so flexible that their structure can’t be resolved using experimental methods. In this thesis, we present our application of in silico methods to the study of protein flexibility. • Using steered molecular dynamics and umbrella sampling, we characterized the binding trajectories of the Z-pro-prolinal inhibiter to the Prolyl oligopeptidase pro- tein and we identified the most probable trajectory. Our simulations also found a possible ligand recrutement mechanism that involves a 19 amino acids flexible loop at the interface of the two domains of the protein. • Using traditional and steered molecular dynamics, we examined the stability of the SAV1866 protein in its closed conformation in a lipid membrane and we studied one of its proposed opening modes by separating its nucleotide binding domains. • We also adapted the activation-relaxation technique ART-nouveau which was pre- viously used to study protein folding and aggregation to the problem of structure prediction of large flexible loops. When tested on loops of 8 to 20 amino acids, the method demonstrate a quadratic execution time dependance on the loop length, which makes it possible to use the method on even larger loops.
144

Effet de l'échantillonnage non proportionnel de cas et de témoins sur une méthode de vraisemblance maximale pour l'estimation de la position d'une mutation sous sélection

Villandré, Luc January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
145

Analyse probabiliste des systèmes temps réel

Maxim, Dorin 10 December 2013 (has links) (PDF)
Les systèmes embarqués temps réel critiques intègrent des architectures complexes qui évoluent constamment a n d'intégrer des nouvelles fonctionnalités requises par les utilisateurs naux des systèmes (automobile, avionique, ferroviaire, etc.). Ces nouvelles architectures ont un impact direct sur la variabilité du comportement temporel des systèmes temps réel. Cette variabilité entraîne un sur-approvisionnement important si la conception du système est uniquement basée sur le raisonnement pire cas. Approches probabilistes proposent des solutions basées sur la probabilité d'occurrence des valeurs les plus défavorables a n d'éviter le sur-approvisionnement, tout en satisfaisant les contraintes temps réel. Les principaux objectifs de ce travail sont de proposer des nouvelles techniques d'analyse des systèmes temps réel probabilistes et des moyens de diminuer la complexité de ces analyses, ainsi que de proposer des algorithmes optimaux d'ordonnancement á priorité xe pour les systèmes avec des temps d'exécution décrits par des variables aléatoires. Les résultats que nous présentons dans ce travail ont été prouvés surs et á utiliser pour les systèmes temps réel durs, qui sont l'objet principal de notre travail. Notre analyse des systèmes avec plusieurs paramètres probabilistes a été démontrée considérablement moins pessimiste que d'autres types d'analyses. Cette analyse combinée avec des algorithmes d'ordonnancement optimaux appropriées pour les systèmes temps réel probabilistes peut aider les concepteurs de systèmes á mieux apprécier la faisabilité d'un systéme, en particulier de ceux qui sont jugé irréalisable par des analyses/algorithmes d'ordonnancement déterministes.
146

Correction de l'atténuation et de la réponse géométrique d'un détecteur en tomographie d'émission sur colis de déchets nucléaires

Thierry, Raphaël 29 October 1999 (has links) (PDF)
La tomographie d'émission multiphotonique est une technique de contrôle non destructif appliquée au contrôle des colis de déchets radioactifs. Les rayonnements gammas émis sont détectés sur la gamme [50 keV, 2 MeV] par un germanium hyper pur, de haute résolution en énergie, ce qui permet d'établir une carte détaillée des radioéléments contenus dans le colis. A partir des différents points de mesures situés dans un plan transaxial au colis, un algorithme de reconstruction permet d'estimer la distribution de l'activité. Une modélisation algébrique du processus a été développée afin de pouvoir corriger des phénomènes perturbateurs, en particulier l'atténuation et la réponse géométrique du détecteur. L'atténuation à travers les matériaux constituant le colis est le phénomène prépondérant : elle permet une quantification précise de l'activité. Sa prise en compte est réalisée grâce à une carte d'atténuation obtenue par un tomographe de transmission. La réponse géométrique de détection, opérant un flou sur le faisceau de détection, est modélisée analytiquement. La bonne modélisation de ces phénomènes est primordiale : elle conditionne, dans une grande partie, la qualité de l'image et sa quantification. La reconstruction des images, nécessitant la résolution de systèmes matriciels creux, est réalisée par des algorithmes itératifs. Du fait du caractère "mal-posé" de la reconstruction tomographique, il est nécessaire d'utiliser une régularisation : la stabilisation des méthodes s'opère par l'introduction d'information a priori sur la solution. Le critère à minimiser choisi est celui du Maximum A Posteriori. Sa résolution est envisagée par un algorithme de régularisation semi-quadratique : il permet la préservation les discontinuités naturelles, et évite ainsi le surlissage global de l'image. Elle est évaluée sur des fantômes réels et des colis de déchets. Enfin l'échantillonnage efficace des mesures est abordé.
147

Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations

Sedki, Mohammed 31 October 2012 (has links) (PDF)
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
148

Evaluation de la contamination des atmosphères intérieures et extérieures induite par les usages non agricoles de pesticides

Raeppel, Caroline 16 November 2012 (has links) (PDF)
Dans le but d'évaluer la contamination des atmosphères intérieures et extérieures induite par les usages non agricoles de pesticides, deux approches complémentaires ont été mises en oeuvre : l'utilisation de capteurs passifs de type Tenax TA pour réaliser des prélèvements d'air, et l'utilisation de cheveux employés comme biomarqueurs d'exposition. Des campagnes de mesures ont été menées sur plusieurs sites à la suite de traitements de désherbage ou de désinsectisation ainsi quedans des logements. Les échantillons d'air et de cheveux ont été extraits respectivement par thermodésorption et par extraction solide-liquide, avant d'être analysés en chromatographie gazeuse couplée à la spectrométrie de masse (GC-MS). Une augmentation du niveau de contamination de l'air extérieur et intérieur et l'existence de transferts entre ces deux milieux ont pu être observées après l'application de pesticides. Dans les logements, des pesticides actuellement employés mais aussi des pesticides interdits et persistants ont été détectés. Plusieurs pesticides ont également été détectés dans les cheveux, mais l'exposition humaine à ces derniers n'a pas pu toujours être corrélée à une contamination de l'air.
149

Extraction de Séquences Fréquentes : Des Bases de Données Statiques aux Flots de Données

Raïssi, Chedy 15 July 2008 (has links) (PDF)
Extraction de séquences fréquentes : des bases de données statiques aux flots de données Il est reconnu aujourd'hui que l'être humain est généralement noyé sous une profusion d'informations et que sa capacité d'analyse n'est plus capable de faire face au volume sans cesse croissant de données. C'est dans ce contexte qu'est né le processus d'Extraction de Connaissance dans les bases de Données. Un des buts de ce processus est de passer d'un grand volume d'informations à un petit ensemble de connaissances à fortes valeurs ajoutées pour l'analyste ou le décideur. De plus, le processus d'ECD n'est pas un processus monolithique et univoque au cours duquel il s'agirait d'appliquer un principe général à tous les types de données stockées ou récupérées. Ainsi, une des étapes de ce processus qu'est la fouille de données peut se dériver sous plusieurs formes tels que : le clustering, la classification, l'extraction d'itemset et de règles d'associations, l'extraction de structures plus complexes tels que les épisodes, les graphes ou comme dans le cadre de cette thèse l'extraction de motifs séquentiels. Malheureusement, dans un monde sans cesse en évolution, le contexte dans lequel les travaux d'ECD ont été définis ces dernières années considérait que les données, sur lesquelles la fouille était réalisée, étaient disponibles dans des bases de données statiques. Aujourd'hui, suite au développement de nouvelles technologies et applications associées, nous devons faire face à de nouveaux modèles dans lesquels les données sont disponibles sous la forme de flots. Une question se pose alors : quid des approches d'extraction de connaissances traditionnelles ? Dans ce mémoire, nous présentons un ensemble de résultat sur les motifs séquentiels dans les bases de données d'un point de vue des représentations condensées et des méthodes d'échantillonnage puis nous étendons nos différentes approches afin de prendre en compte le nouveau modèle des flots de données. Nous présentons des algorithmes permettant ainsi l'extraction de motifs séquentiels (classiques et multidimensionnels) sur les flots. Des expérimentations menées sur des données synthétiques et sur des données réelles sont rapportées et montrent l'intérêt de nos propositions.
150

Analyse de défaillance de nouvelles technologies microélectroniques : nouvelles approches dans la méthodologie de préparation d'échantillon

Aubert, A. 11 July 2012 (has links) (PDF)
Dans le développement des technologies microélectroniques, l'analyse de défaillance permet par l'étude des mécanismes de défaillance potentiels de définir des solutions correctives. La mise en œuvre des techniques de localisation et d'observation des défauts requiert une méthodologie, dont l'étape clé est la préparation d'échantillons. Celle-ci doit continuellement évoluer pour s'adapter aux innovations technologiques qui introduisent de nouveaux matériaux, et augmentent la complexité des composants assemblés. Cette thèse s'est intéressée à la méthodologie de préparation d'échantillons pour l'analyse de défaillance de deux familles de produits : les produits discrets et IPAD, et les micro-batteries. Pour les produits discrets et IPAD, une optimisation de la méthodologie existante a été réalisée en intégrant de nouvelles approches, développées pour résoudre des cas jusqu'alors en échec. Pour les micro-batteries, les matériaux utilisés et leur architecture ont nécessité une remise en question complète de la méthodologie de préparation d'échantillon.

Page generated in 0.0448 seconds