• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 29
  • 3
  • Tagged with
  • 112
  • 112
  • 112
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Contribution à la surveillance d'un processus de forage pétrolier

Ba, Amadou 31 March 2010 (has links) (PDF)
La contribution de cette thèse résulte de la nécessité d'optimiser les processus de forage pétrolier à partir du diagnostic de l'encrassement d'un trépan. Pour diagnostiquer ce type de défaut, trois méthodes d'identification ont été proposées. La première méthode nommée MCR-FOVG (Moindres Carrés Récursifs à Facteur d'Oubli Variable suivant la direction du Gradient) réduit la durée des régimes transitoires en fournissant une convergence rapide des MCR-FO et donc une détection précoce des défauts. La seconde méthode désignée par MCR-FOVG-PAA où PAA représente (Pas d'Apprentissage Adaptatif) est une extension des MCR-FOVG. Ici, l'accélération de la convergence provient du pas d'apprentissage adaptatif. Pour assurer la stabilité des MCR-FOVG-PAA nous avons proposé de déterminer la valeur maximum du pas. Cette démarche a entrainé l'obtention d'un algorithme fournissant de meilleures performances. Cet algorithme est nommé MCR-FOVG-PAA-TSL où TSL désigne (Théorie de Stabilité de Lyapunov). Afin de mieux tenir compte du caractère stochastique du procédé de forage, nous avons utilisé les algorithmes de Monte Carlo et nous avons retenu une de leurs variantes représentée par le RBPF. Puis, nous avons montré sa possibilité d'exploitation dans le cadre du diagnostic. Ces approches ont été testées sur des bases de données issues des campagnes de mesures et ont montré des performances satisfaisantes en termes de détection rapide et fiable de l'encrassement.
42

De la rupture des materiaux à comportement fragile

Hild, François 16 December 1992 (has links) (PDF)
La rupture des matériaux à comportement fragile est causée par la présence de défauts initiaux. Ces derniers conduisent à une rupture brutale dans le cas de composés monolithiques. Dans le cas de céramiques renforcées par des fibres, la rupture finale est le résultat d'un processus de fragmentation progressive des fibres. Des essais ont été effectués sur deux céramiques monolithiques et sur des bétons. Ils ont pour but d'étudier l'influence du type de sollicitation et de la distribution initiale de défauts sur la contrainte de rupture. Une première approche de prévision de la probabilité cumulée de rupture est présentée. Elle tient compte explicitement de la présence des défauts, modélisés par une valeur initiale d'une variable scalaire d'endommagement, dans le calcul du champ de contrainte. Une seconde approche, qui néglige les interactions entre défauts ainsi que leur influence sur le champ de contrainte macroscopique, est ensuite introduite. Elle permet un traitement analytique de l'expression de la probabilité cumulée de rupture en fonction de la distribution initiale de défauts. Une implémentation en tant que postprocesseur de code E.F. est ainsi possible. Elle peut également être étendue à des sollicitations cycliques. Enfin, toutes ces notions peuvent conduire in fine à l'élaboration d'une loi d'endommagement anisotrope de céramiques renforcées par des fibres. La condition de rupture fondée sur un critère de localisation conduit à une estimation de l'endommagement critique en fonction du module de Weibull.
43

Application d'un modèle de simulation et d'analyse de sensibilité à l'évaluation d'un projet de création d'un centre de logistique dans un centre hospitalier

Edzango Okap, Arlette Michelle January 2008 (has links) (PDF)
Le présent mémoire traite de l'évaluation financière d'un projet d'investissement public mutuellement exclusif dans le domaine de la santé. Il s'agit du projet d'implantation d'un centre de logistique au centre hospitalier de l'université de Sherbrooke (CHUS). La remise en cause de certains modèles et méthodes traditionnels d'évaluation de projets d'investissements tels que l'analyse coûts-bénéfices et la VAN, nous a amené à proposer une démarche d'évaluation financière multifactorielle à l'intérieur d'une même analyse de projet. Cette démarche est basée sur le modèle traditionnel de la VAN en complémentarité avec l'application des modèles des options réelles et une analyse de sensibilité du projet par la simulation Monte Carlo. La combinaison de ces différentes méthodes permet de prendre en compte d'une part, les fluctuations possibles des différentes variables qui peuvent avoir une influence considérable sur le projet et d'autre part, évaluer les possibilités d'options offertes par les projets. La démarche proposée vise à déterminer un résultat probabiliste, ce qui offre aux gestionnaires la possibilité de prendre des décisions stratégiques optimales en matière d'investissement. Notre mémoire est divisé en trois grandes parties dont, la première partie porte sur la recension des écrits dans la littérature financière. La seconde élabore la méthodologie utilisée et enfin la dernière partie aborde l'analyse du projet, laquelle est effectuée en deux temps. Premièrement, une évaluation du projet sur une durée de 15 ans et deuxièmement une évaluation sur 20 ans. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évaluation des projets, Valeur actuelle nette, Options réelles, Simulation Monte-Carlo.
44

Application d'un modèle de simulation et d'analyse de sensibilité à l'évaluation d'un projet de numérisation des dossiers patients

El Ayadi, Mohammed Alaeddine January 2008 (has links) (PDF)
Le présent mémoire traite de l'évaluation financière de projets d'investissement publics mutuellement exclusifs dans le domaine de la santé. Il s'agit d'un projet de numérisation des dossiers patients du centre hospitalier de l'université de Sherbrooke (CHUS). La remise en cause de certains modèles et méthodes traditionnels d'évaluation de projets d'investissements tels que l'analyse coûts-bénéfices et la VAN, nous a amené à proposer une démarche d'évaluation financière multifactorielle à l'intérieur d'une même analyse de projet. Cette démarche vise à déterminer un résultat probabiliste, ce qui offre aux gestionnaires la possibilité de prendre des décisions stratégiques optimales en matière d'investissement. Cette démarche est basée sur le modèle traditionnel de la VAN en complémentarité avec l'application des modèles des options réelles et une analyse de sensibilité du projet par la simulation Monte Carlo. La combinaison de ces différentes méthodes permet de prendre en compte d'une part, les fluctuations possibles des différentes variables qui peuvent avoir une influence considérable sur le projet et d'autre part, évaluer les possibilités d'options offertes par les projets. Le présent mémoire est divisé en trois grandes parties dont, la première partie porte sur la recension des écrits dans la littérature financière. La seconde élabore sur la méthodologie utilisée et enfin la dernière partie aborde l'analyse du projet. Concernant le projet de numérisation des dossiers patients, il s'agit d'une extension des travaux débutés par Bahadi (2006), lesquels avaient abouti à cinq scénarios dont deux étaient jugés rentables (le scénario 1 avec une VAN de 3.005.473 $ et le scénario 4 avec une VAN de 88.369$ et un investissement initial de 1.080.000 $). En dépit de ces résultats, les gestionnaires avaient préféré choisir le scénario 4 en procédant à une réévaluation des flux financiers lesquels nous ont été soumis pour une analyse « post-mortem ». ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Évaluation des projets, Valeur actuelle nette, Options réelles, Simulation Monte-Carlo.
45

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux

Oumouni, Mestapha 05 June 2013 (has links) (PDF)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec celle de Monte Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisé par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, nous présentons une formule explicite de la dispersion et des estimations de l'erreur a priori optimales.
46

Approximation particulaire et méthode de Laplace pour le filtrage bayésien

Bui Quang, Paul 01 July 2013 (has links) (PDF)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité.
47

Multiscale modeling of multiferroic nanocomposites / Modelisation multi-échelle des nanocomposites multiferroiques

Prokhorenko, Sergei 08 September 2014 (has links)
Au cours des dernières décennies, la recherche de nouveaux matériaux multiferroïques nanostructurés avec des propriétés optimisées a conduit à l'élaboration d'une grande variété de modèles théoriques et des approches de simulation. Allant des modèles ab initio capables de décrire les propriétés à la température nulle des composés artificiels monocristallins à des approximations phénoménologiques pour la description des composites à la mésoscopique, ces recherches ont soulevé la question fondamentale de la relation entre la géométrie de la structure des systèmes hétérogènes et les propriétés des leurs transitions de phase. Cependant, malgré des progrès significatifs en la matière,cette question n'a pas encore été élucidée et les relations entre les modèles à différentes échelles ne sont pas entièrement distingués. La présente étude est consacrée à lier l’ensemble des modèles décrivant les matériaux nanocomposites multiferroïques à différentes échelles. Tout d'abord, nous présentons un développement méthodologique de l'approche Hamiltonien effectif couramment utilisé pour étudier les transitions de phase structurales. Les modifications introduites permettent d'étendre cette méthode pour prédire les propriétés à la température finie des systèmes hétérogènes. Le modèle construit est ensuite utilisé pour étudier les propriétés des nanostructures et solutions solides (BiFeO3)(BaTiO3). Recourant à des simulations Monte-Carlo, nous montrons que notre modèle fournit des résultats qui sont en ligne avec les observations expérimentales récentes et qu’il permet de prédire théoriquement les propriétés d'une large gamme de systèmes avec différentes géométries composites. La deuxième partie de l'étude consiste en l'application de la théorie de Ginzburg-Landau des transitions de phase à l’étude des propriétés des multicouches ferroélectriques et ferromagnétiques avec des interfaces épitaxiales. Plus précisément, nous décrivons théoriquement l’effet magnétoélectrique exhibé par les hétérostructures autonomes Pb(Zr0.5 Ti0.5) O3-FeGaB et BaTiO3-FeGaB. Enfin, nous montrons que la géométrie multicouche d'un nanocomposite ferroélectrique et ferromagnétique ouvre la voie à une amélioration radicale du signal de charge de sortie. / During past decades, the search for new nanostructured multiferroic materials with optimized properties has lead to the development of a vast variety of theoretical models and simulation approaches. Spreading from first principles based models able to describe zero-temperature properties of artificial single crystal compounds to phenomenological approximations for composites with mesoscale morphology, these investigations have raised the fundamental question of how the geometry of the structure affects the properties of phase transitions exhibited by heterogeneous systems. However, despite significant progress, the answer to this question still lacks clarity and the bridge connecting models at different scales is not fully constructed. The current study is devoted to linking together models of multiferroic nanocomposite materials applicable at different scales. First, we present a methodological development of effective Hamiltonian approach commonly used to study structural phase transitions. The introduced modifications allow to extend this widely used method to predict finite-temperature properties of compositionally heterogeneous systems. The constructed model is then used to study properties of (BiFeO3)(BaTiO3) nanostructures and solid-solutions. Resorting to Monte-Carlo simulations, we show that our model provides results that are in-line with recent experimental observations and allows to theoretically predict properties of a wide range of systems with different composite geometries. The second part of the study consists inapplication of Landau theory of phase transitions to investigate the properties of ferroelectric-ferromagnetic multilayerswith epitaxial interfaces. Specifically, we theoretically describe the strain-mediated direct ME effect exhibited byfree-standing Pb(Zr0.5 Ti0.5 )O3 -FeGaB and BaTiO3 -FeGaB heterostructures. Finally, we show that the multilayer geometry of a ferroelectric-ferromagnetic nanocomposite opens the way for a drastic enhancement of the output charge signal.
48

Amélioration du calcul de dose TG-43 en curiethérapie à bas débit par un algorithme de dose primaire et diffusée sur processeur graphique

Bourque, Alexandre 19 April 2018 (has links)
Les calculs de dose en curiethérapie à bas débit reposent depuis 1995 sur un formalisme qui considère le milieu irradié comme étant homogène et constitué d’eau afin de mieux accommoder les temps de calcul clinique. Ce travail présente une amélioration de ce formalisme dosimétrique issu du protocole TG-43 de l’AAPM (American Association of Physicists in Medicine), utilisé actuellement dans les systèmes de planification de traitement (SPT) clinique. Avec l’ajout d’un tracé radiologique pour tenir compte des hétérogénéités et en séparant la dose primaire de la dose diffusée, il est possible de raffiner les calculs dosimétriques. Or, cette modification au calcul le rendant plus complexe était coûteuse en temps d’exécution jusqu’à très récemment. Elle se voit matérialisée dans ce travail avec l’arrivée récente de la technologie GPGPU, les calculs scientifiques sur périphériques graphiques. En exploitant le parallélisme des calculs de dose en curiethérapie à bas débit pour les implants permanents, l’algorithme baptisé TG-43-RT pour TG-43 avec tracé de rayons (Ray-Tracing en anglais) permet d’obtenir des facteurs d’accélération de l’ordre de 103 par rapport au CPU. Seulement 0.5 s par source est requis dans une géométrie de 1003 voxels, et les dosimétries d’anatomies hétérogènes sont sensiblement améliorées. Le TG-43-RT corrige les dépôts de dose en aval des hétérogénéités et réduit les effets indésirables de l’atténuation inter-sources. Des écarts de dose de plus de 80% au-delà d’une calcification avaient de quoi influencer les HDV, or, le TG-43-RT ramène ces déviations en-deçà de l’incertitude de 8.7% (2σ) concédée par les SPT, tel qu’établi dans le TG-138. Les simulations Monte Carlo ont été employées pour servir de référence absolue à la méthode développée et quantifier les améliorations dosimétriques relatives à l’actuel calcul de dose. L’algorithme a été testé d’un point de vue clinique dans un fantôme de prostate avec des sources d’125I et dans un fantôme de sein avec des sources de 103Pd pour unifier les corrections apportées. / Brachytherapy dose calculations have been relying since 1995 on a formalism that considers the whole geometry as a homogeneous water tank. This gives the opportunity to compute dose distributions within a reasonable clinical timeframe, but with considerable approximations that can influence or even change the treatment. This work presents an upgraded version of this formalism derived from the TG-43 protocol (AAPM), currently used in actual treatment planning systems. The new algorithm includes a primary and scatter dose separation using ray-tracing operation to account for heterogeneities through the medium. These modifications to the dose calculation are very power consuming and too long for the clinical needs when executed on modern CPUs. With the GPGPU technology, a GPU-driven algorithm allows a complex handling of the anatomic heterogeneities in the dose calculation and keeps execution times below 0.5 s/seed. The algorithm was named TG-43-RT for TG-43 with Ray-Tracing and accelerations factors of three order of magnitude were obtained over a regular CPU implementation. The TG-43-RT algorithm adequatly corrects dose deposition along heterogeneities and it reduces interseed attenuation effects. Dose is scored in the medium instead of water, which also applies a severe correction for high heterogeneous medium like the breast. Deviations of more than 80% in dose deposition were obtained over calcification inside the prostate when compared to Monte Carlo simulations. This kind of deviation influences DVH shape. However, the TG-43-RT was keeping those deviations within the 8.7% uncertainty range (2σ) associated with a regular TG-43 evaluation as stated in the TG-138. Monte Carlo simulations were used as a gold standard to get an absolute dose calculation reference. The algorithm was also tested in a prostate phantom with 125I seeds and in a breast phantom with 103Pd seeds to mimic real anatomic geometries and unify the applied corrections.
49

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
50

Simulations Monte Carlo sur processeur graphique en curiethérapie à bas débit de dose pour le cancer de la prostate

Bonenfant, Éric 19 April 2018 (has links)
Ce mémoire porte sur l’étude d’un algorithme Monte Carlo en curiethérapie à bas débit de dose sur processeur graphique. Avec le développement de cette plate-forme de calcul, l’application de la méthode Monte Carlo fait un pas en avant quant à son utilisation clinique dans un département de radio-oncologie. Le travail se déroule en deux parties. Premièrement, le développement d’un algorithme Monte Carlo sur processeur graphique, bGPUMCD, est poursuivi dans le but d’en améliorer les performances. Deuxièmement, une source de curiethérapie à bas débit de dose, la SelectSeed de Nucletron, est simulée et étalonnée pour être en accord avec les données du rapport du Task Group 43 de l’American Association of Physicists in Medicine. Avec cette source, quatre cas cliniques sont ensuite simulés pour montrer la concordance des résultats avec un autre algorithme Monte Carlo bien établi et évaluer les temps de calcul pour une éventuelle utilisation clinique de l’algorithme.

Page generated in 0.1151 seconds