• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 17
  • 11
  • Tagged with
  • 93
  • 93
  • 40
  • 31
  • 28
  • 22
  • 16
  • 14
  • 13
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Étude du problème d'ablation à deux dimensions par la méthode des éléments finis de frontière

Ouellet, Réjean January 1987 (has links) (PDF)
L'ablation de solides d'aluminium est simulée en utilisant la méthode des éléments finis de frontière qui est basée sur la combinaison des équations intégrales classiques et des concepts d'éléments finis. La frontière est approximée par des éléments linéaires isoparamétriques et le domaine par des éléments triangulaires constants. Dû au déplacement de la frontière et dû à la nécessité d'intégrer sur le domaine, une technique de maillage automatique est utilisée. Différents pas de temps, points d'intégration et configurations triangulaires sont utilisés pour montrer la sensibilité de la méthode face à ces trois facteurs. Pour réduire le temps de calcul, le nombre d'éléments triangulaires discrétisant le domaine est diminué au fur et à mesure que le gradient de température, à l'intérieur du domaine, s'approche de zéro. La qualité des résultats obtenus pour l'ablation d'un cylindre circulaire et d'un demi-cylindre elliptique d'aluminium montre que la méthode des éléments finis de frontière donne d'excellents résultats.
32

Modélisation mathématique simplifiée d'un four de métal chaud

Perron, Jean January 1987 (has links) (PDF)
Un modèle dynamique est construit pour simuler les mécanismes de transfert de chaleur apparaissant dans un four de maintien et de refonte de l'aluminium. Le modèle est construit en tenant compte des différents modes opératoires rencontrés sur un tel four. L'équation de l'énergie est solutionnée à une dimension pour les différentes composantes du four. La méthode de zones est utilisée pour le transfert de l'énergie par radiation dans la chambre de combustion. De plus, pour le métal, la fonte du solide est solutionnée par la méthode de l'enthalpie couplée à la définition de la transformée de Kirchhoff de la conductivité thermique. Un écoulement frontal est admis pour les gaz dans la chambre de combustion. L'équation du mouvement n'est pas solutionnée pour le métal liquide. La convection forcée est représentée par une fonction de brassage calibrée expérimentalement. Deux (2) sous-modèles sont construits pour prédire 1'émissivité de surface du métal et des réfractaires. Les équations différentielles partielles sont intégrées par la méthode des différences finies d'Euler-Cauchy. La validation expérimentale du modèle est faite pour un four d'aluminium basculant de soixante-dix (70) tonnes. Finalement, le modèle est utilisé pour la recherche d'un mode opératoire plus économe en combustible. Par la suite, une fonction de coûts à minimiser, définie comme le rapport de la consommation spécifique sur le taux de refonte, a montré qu'il existe un débit optimal du combustible situé près de 350 m3/h.
33

Modèle dynamique du four de cuisson d'anodes

Thibault, Marc-André January 1984 (has links) (PDF)
Dans l'industrie de l'aluminium les fours de cuisson d'anodes sont utilisés afin que celles-ci acquièrent les propriétés électriques et mécaniques nécessaires pour leur utilisation dans les salles de cuves. Pour leur cuisson, les anodes sont placées dans des alvéoles (ou chambres) entre lesquelles des conduites permettent une circulation d'air. Le four étudié comporte un total de sept (7) chambres divisé en trois sections. La section de préchauffage compte deux chambres, la section des feux (deux chambres) est celle où sont situés les brûleurs et finalement en amont on retrouve la section de refroidissement (trois chambres). Les équations de base qui sous-tendent le modèle sont au nombre de trois (3). L'équation de transfert de chaleur par conduction en régime non stationnaire permet de calculer les températures à l'intérieur des solides qui se composent de trois (3) matériaux; la brique, le poussier de garnissage et l'anode. L'équation de bilan d'énergie associé au gaz permet de calculer la température du gaz ainsi que la chaleur échangée entre le gaz et la paroi. Finalement, l'équation de bilan de quantité de mouvement permet de calculer le débit des gaz et la pression à l'intérieur de la conduite. La méthode de résolution consiste à calculer la température des gaz ainsi que la chaleur échangée (paroi-gaz) pour un intervalle de temps donné. La chaleur échangée est ensuite appliquée à la région solide ce qui permet de calculer la température à l'intérieur de celle-ci à la fin de l'intervalle de temps. Le même processus est alors repris pour la simulation complète d'un cycle de cuisson. La résolution des équations de base requiert l'évaluation de plusieurs variables intermédiaires. Ainsi le programme doit calculer la quantité d'énergie fournie par la combustion des matières volatiles dégagées lors de la cuisson. Il doit aussi évaluer la quantité d'air qui infiltre à l'intérieur de la cloison. De plus, il est essentiel de connaître les pertes thermiques par les fondations et à l'environnement. Pour l'équation de bilan d'énergie appliqué au gaz on doit aussi calculer le coefficient de transfert de chaleur total qui est la somme du coefficient de transfert de chaleur par convection et de celui par rayonnement. Les résultats les plus importants fournis par le modèle dynamique ont trait aux profils de températures. Avec ce modèle on obtient la distribution de températures à travers tous les solides ainsi que pour le gaz, pour chaque intervalle de temps. On peut ainsi tracer, pour quelques positions à l'intérieur d'une chambre, l'évolution des températures durant tout le cycle de cuisson. On obtient aussi, pour chaque intervalle de temps, les valeurs du débit massique et de la pression le long du four. Les courbes de cuisson permettent de tirer entre autres trois (3) informations essentielles quant au cycle de cuisson simulé. Tout d'abord, la valeur maximale de la vitesse de chauffe, la température maximale atteinte par les anodes et finalement la température des anodes lors de leur retrait du four. Autre point important, le modèle dynamique calcule la quantité de combustible requis pour la cuisson. La comparaison entre les valeurs calculées et les valeurs expérimentales a montré que le modèle permet de reproduire de façon adéquate le comportement du four. Ce modèle peut donc servir à optimiser des installations existantes ou à concevoir des unités entièrement nouvelles.
34

Modélisation et optimisation de systèmes multiprocesseurs hiérarchiques dans un contexte d'intégration à très grande échelle

Ho, Tuong Vinh January 1994 (has links) (PDF)
Afin de construire des systèmes d'ordinateurs de haute performance utilisant les technologies d'intégration à très grande échelle, une nouvelle architecture de systèmes multiprocesseurs hiérarchiques est proposée. Le présent projet consiste en la modélisation de la performance et l'optimisation de cette architecture. Une méthodologie permettant d'obtenir des modèles d'estimation de performance pour l'architecture hiérarchique est proposée. Le temps moyen requis par un message pour se rendre à sa destination (aussi appelé temps de réponse) est utilisé comme mesure de performance. Ces modèles permettent de prédire la performance d'architectures multi-processeurs hiérarchiques avec une précision adéquate pour une vaste gamme de conditions de trafic et de configuration. Ces modèles permettent également d'optimiser la conception de systèmes hiérarchiques de grande dimension. En effet, puisque le temps de réponse d'un système affecte le temps d'exécution d'une application, la connaissance de la sensibilité de ce dernier en fonction de certains paramètres est essentielle pour la conception de systèmes parallèles de haute performance basés sur cette architecture.
35

Quelques modèles mathématiques et algorithmes rapides pour le traitement d’images / Several mathematical models and fast algorithms for image processing

Abergel, Rémy 04 October 2016 (has links)
Dans cette thèse, nous nous intéressons à différents modèles mathématiques de traitement d’images numériques dits de bas niveau. Si l’approche mathématique permet d’établir des modèles innovants pour traiter les images, ainsi que l´étude rigoureuse des propriétés des images qu’ils produisent, ils impliquent parfois l’utilisation d’algorithmes très consommateurs de temps de calcul et de mémoire. Aussi, nous portons un soin particulier au développement d’algorithmes rapides à partir des modèles mathématiques considérés. Nous commençons par effectuer une présentation synthétique des méthodes mathématiques basées sur la dualité de Legendre-Fenchel permettant la minimisation d’énergies faisant intervenir la variation totale, fonctionnelle convexe nondifférentiable, ceci afin d’effectuer divers traitements sur les images numériques. Nous étudions ensuite un modèle de discrétisation de la variation totale inspiré de la théorie de l’échantillonnage de Shannon. Ce modèle, appelé ≪ variation totale Shannon ≫ permet un contrôle fin de la régularité des images sur une échelle sous-pixellique. Contrairement aux modèles de discrétisation classiques qui font appel à des schémas aux différences finies, nous montrons que l’utilisation de la variation totale Shannon permet de produire des images pouvant être facilement interpolées. Nous montrons également que la variation totale Shannon permet un gain conséquent en matière d’isotropie et ouvre la porte à de nouveaux modèles mathématiques de restauration. Après cela, nous proposons une adaptation du modèle TV-ICE (Iterated Conditional Expectations, proposé en 2014 par Louchet et Moisan) au cas du débruitage d’images en présence de bruit de Poisson. Nous démontrons d’une part que le schéma numérique issu de ce modèle consiste en un schéma de point fixe dont la convergence est linéaire, d’autre part que les images ainsi produites ne présentent pas d’effet de marche d’escalier (staircasing), contrairement aux images obtenues avec l’approche plus classique dite du maximum a posteriori. Nous montrons également que le modèle Poisson TV-ICE ainsi établi repose sur l’évaluation numérique d’une fonction gamma incomplète généralisée nécessitant une prise en compte fine des erreurs numériques inhérentes au calcul en précision finie et pour laquelle nous proposons un algorithme rapide permettant d’atteindre une précision quasi-optimale pour une large gamme de paramètres. Enfin, nous reprenons les travaux effectués par Primet et Moisan en 2011 concernant l’algorithme astre (A contrario Smooth TRajectory Extraction) dédié à la détection de trajectoires régulières à partir d’une séquence de nuages de points, ces points étant considérés comme issus d’une détection préalable dans une 3 séquence d’images. Si l’algorithme astre permet d’effectuer une détection optimale des trajectoires régulières au sens d’un critère a contrario, sa complexité en O(K2) (où K désigne le nombre d’images de la séquence) s’avère être rédhibitoire pour les applications nécessitant le traitement de longues séquences. Nous proposons une variante de l’algorithme astre appelée cutastre qui préserve les performances de l’algorithme astre ainsi que certaines de ses propriétés théoriques, tout en présentant une complexité en O(K). / In this thesis, we focus on several mathematical models dedicated to low-level digital image processing tasks. Mathematics can be used to design innovative models and to provide some rigorous studies of properties of the produced images. However, those models sometimes involve some intensive algorithms with high computational complexity. We take a special care in developing fast algorithms from the considered mathematical models. First, we give a concise description of some fundamental results of convex analysis based on Legendre-Fenchel duality. Those mathematical tools are particularly efficient to perform the minimization of convex and nonsmooth energies, such as those involving the total variation functional which is used in many image processing applications. Then, we focus on a Fourier-based discretization scheme of the total variation, called Shannon total variation, which provides a subpixellic control of the image regularity. In particular, we show that, contrary to the classically used discretization schemes of the total variation based on finite differences, the use of the Shannon total variation yields images that can be easily interpolated. We also show that this model provides some improvements in terms of isotropy and grid invariance, and propose a new restoration model which transforms an image into a very similar one that can be easily interpolated. Next, we propose an adaptation of the TV-ICE (Total Variation Iterated Conditional Expectations) model, recently proposed by Louchet and Moisan in 2014, to address the restoration of images corrupted by a Poisson noise. We derive an explicit form of the recursion operator involved by this scheme, and show linear convergence of the algorithm, as well as the absence of staircasing effect for the produced images. We also show that this variant involves the numerical evaluation of a generalized incomplete gamma function which must be carefully handled due to the numerical errors inherent to the finite precision floating-point calculus. Then, we propose an fast algorithm dedicated to the evaluation of this generalized 4 incomplete gamma function, and show that the accuracy achieved by the proposed procedure is near optimal for a large range of parameters. Lastly, we focus on the astre (A contrario Smooth TRajectory Extraction) algorithm, proposed by Primet and Moisan in 2011 to perform trajectory detection from a noisy point set sequence. We propose a variant of this algorithm, called cutastre, which manages to break the quadratic complexity of astre with respect to the number of frames of the sequence, while showing similar (and even slightly better) detection performances and preserving some interesting theoretical properties of the original astre algorithm.
36

Modélisation mathématique et courbes de croissance

Mir, Youness January 2015 (has links)
La modélisation mathématique est un outil largement employé dans plusieurs disciplines des sciences appliquées. En hydrologie, en biologie, en économie ainsi que d'autres domaines des sciences naturelles, sociales et humaines, le recours à la modélisation mathématique est une démarche de plus en plus fréquente. Par exemple, en hydrologie, plusieurs modèles mathématiques sont conçus pour décrire ou prédire la relation existante entre les hauteurs d'eau et les débits des rivières. Dans le cadre de cette thèse nous nous sommes intéressés au développement de nouveaux modèles permettant de modéliser les phénomènes de croissance qui nécessitent la présence d'une asymptote linéaire croissante ou curviligne. Pour atteindre cet objectif, l'idée de base a été d'utiliser quelques modèles parmi les plus répandus en pratique et de les modifier judicieusement (et simplement) de façon à introduire une asymptote soit linéaire soit curviligne tout en conservant leur unique point d'inflexion. La modification que nous avons introduite conserve aussi le caractère simple et continue de ces modèles ainsi que la forme lisse et croissante de leurs courbes. Nous obtenons ainsi des modèles qui répondent aux besoins de la modélisation lorsque les modèles standards échouent.
37

Sur l'arithmétique des polyominos

Tall, Amadou Makhtar 01 1900 (has links) (PDF)
Ce mémoire de maîtrise se consacre à l’étude des figures discrètes, un sujet à l’intersection de la combinatoire des mots et la géométrie digitale. Décrite simplement, une figure discrète est un assemblage fini de pixels joints côté par côté. Toute figure discrète se décompose en composantes connexes appelées polyominos, un objet très connu en combinatoire et en théorie des jeux. Dans sa thèse, en 2008, Provençal propose quelques problèmes ouverts sur les polyominos et introduit ainsi le concept de polyominos premiers et composés. Jusqu’à maintenant, on en sait très peu sur cette notion de primalité. En effet, à notre connaissance, le seul document qui y fait référence est un article publié en 2012 par Blondin Massé, Garon et Labbé dans lequel les auteurs résolvent une conjecture de Provençal en s’appuyant sur la notion de polyominos premiers et composés. Dans ce mémoire, nous explorons plus en détails ce sujet. En plus de fournir une définition et un cadre plus formel, nous proposons un algorithme polynomial (par rapport au périmètre du polyomino) permettant de décomposer celui-ci en un produit de polyominos premiers. Nous discutons également des implications potentielles de ces idées en cryptographie.
38

Regression models and sensitivity analysis for stochastic simulators : applications to non-destructive examination / Estimation par métamodèles de courbes de probabilité : application à la détection des défauts par procédés de contrôle non destructif

Browne, Thomas 13 October 2017 (has links)
De nombreuses industries ont recourt aux examens non-destructifs (END) afin d’assurer l’intégrité de certains composants importants, le but étant d’y détecter d’hypothétiques défauts avant tout évènement indésirable (ruptures, fuites etc...). L’environnement des END étant très aléatoire, il est légitime de s’interroger sur la fiabilité de tels procédés. De ce fait, on quantifie leur efficacité par leurs probabilités de détection. On les modélise par des courbes croissantes, fonctions de la taille du défaut à détecter : courbes de PoD (Probability of Detection). Cette thèse vise à présenter des outils pour construire et étudier les courbes de PoD à travers des stratégies parcimonieuses. Notre approche repose essentiellement sur la modélisation de ces courbes par des fonctions de répartitions aléatoires. D`es lors, il est nécessaire de définir des grandeurs pertinentes afin d’étudier leur distribution. Des estimateurs par Krigeage de ces valeurs seront introduits. Des techniques de planifications séquentielles pour améliorer la qualité des estimateurs de courbes de PoD ainsi que pour répondre à des problèmes d’optimisation sont développées. De plus, des indices d’analyse de sensibilité fonctionnels afin de quantifier l’influence de divers paramètres sur la qualité de détection sont présents. Leurs estimateurs respectifs sont également proposés. / Many industries perform non-destructive examination (NDE) in order to ensure the integrity of some important components, where the goal is to detect a hypothetical flaw before the occurrence any non desirable event (breaks, leaks etc...). As the NDE environment is highly random, it is legitimate to wonder about the reliability of such procedures. To this effect, their efficiencies are quantified through their probabilities of detection. They are modelled by increasing curves, functions of the flaw size to detect: Probability of Detection-curves (PoD-curves). This thesis aims to introduce tools in order to both build and study PoD-curves through parsimonious strategies. Our approach mainly consists in modelling these curves by random cumulative distribution functions. From this point, it becomes necessary to define relevant objects to quantify their probability distributions. Kriging-based estimators for these values are introduced. Techniques are developed in order to carry out sequential strategies for both the improvement of the PoD-curve estimators and optimization problems. Besides, in order to quantify the influence of input parameters over the quality of detection, functional sensitivity analysis indices are provided. Their respective estimators are also introduced.
39

Compression de maillages de grande taille

Courbet, Clément 05 January 2011 (has links) (PDF)
Il y a une décennie, le contenu numérique virtuel était limité à quelques applications - majoritairementles jeux vidéos, les films en 3D et la simulation numérique. Aujourd'hui, grâce à l'apparition de cartes graphiques performantes et bon marché, les objets 3D sont utilisés dans de nombreuses applications. A peu près tous les terminaux possédant des capacités d'affichage - des clusters de visualisation haute performance jusqu'aux smart phones - intègrent maintenant une puce graphique qui leur permet de faire du rendu 3D. Ainsi, les applications 3D sont bien plus variées qu'il y a quelques années. On citera par exemple la réalité virtuelle et augmentée en temps réel ou les mondes virtuels 3D. Dans ce contexte, le besoin de méthodes efficaces pour la transmission et la visualisation des données 3D est toujours plus pressant. De plus, la taille des maillages 3D ne cesse de s'accroître avec la précision de la représentation. Par exemple, les scanners 3D actuels sont capables de numériser des objets du monde réel avec une précision de seulement quelques micromètres, et génèrent des maillages contenant plusieurs centaines de millions d''el'ements. D'un autre côté, une précision accrue en simulation numérique requiert des maillages plus fins, et les méthodes massivement parallèles actuelles sont capables de travailler avec des milliards de mailles. Dans ce contexte, la compression de ces données - en particulier la compression de maillages - est un enjeu important. Durant la décennie passée, de nombreuses méthodes ont été développées pour coder les maillages polygonaux. Néanmoins, ces techniques ne sont plus adaptées au contexte actuel, car elles supposentque la compression et la d'ecompression sont des processus sym'etriques qui ont lieu sur un mat'erielsimilaire. Dans le cadre actuel, au contraire, le contenu 3D se trouve cr'e'e, compressé et distribué par des machines de hautes performances, tandis que l'exploitation des données - par exemple, la visualisation - est effectuée à distance sur des périphériques de capacité plus modeste - éventuellement mobiles - qui ne peuvent traiter les maillages de grande taille dans leur int'egralité. Ceci fait de lacompression de maillage un processus intrinsèquement asymétrique.Dans cette thèse, notre objectif est d'étudier et de proposer des méthodes pour la compression de maillages de grande taille. Nous nous intéressons plus particulièrement aux méthodes d'accès aléatoire, qui voient la compression comme un problème intrinsèquement asymétrique. Dans ce modèle, le codeur a accès à des ressources informatiques importantes, tandis que la décompression estun processus temps réel (souple) qui se fait avec du matériel de plus faible puissance. Nous décrivons un algorithme de ce type et l'appliquons au cas de la visualisation interactive. Nous proposons aussi un algorithme streaming pour compresser des maillages hexaèdriques de très grande taille utilisés dans le contexte de la simulation numérique. Nous sommes ainsi capables decompresser des maillages comportant de l'ordre de 50 millions de mailles en moins de deux minutes, et en n'utilisant que quelques mégaoctets de mémoire vive. Enfin, nous proposons, indépendamment de ces deux algorithmes, un cadre théorique général pour améliorer la compression de géométrie. Cet algorithme peut être utilisé pour développer des méthodes de prédiction pour n'importe quel algorithme basé sur un paradigme prédictif - ce qui est la cas dela majorité des méthodes existantes. Nous dérivons ainsi des schémas de prédictions compatibles avec plusieurs méthodes de la littérature. Ces schémas augmentent les taux de compression de 9% enmoyenne. Sous des hypothèses usuelles, nous utilisons aussi ces résultats pour prouver l'optimalité de certains algorithmes existants.
40

Eléments finis courbes et accélération pour le transport de neutrons / Curved finite elements and acceleration for the neutron transport

Moller, Jean-Yves 10 January 2012 (has links)
La modélisation des réacteurs nucléaires repose sur la résolution de l'équation de Boltzmann linéaire. Pour la résolution spatiale de la forme stationnaire de cette équation, le solveur MINARET utilise la méthode des éléments finis discontinus sur un maillage triangulaire non structuré afin de pouvoir traiter des géométries complexes. Cependant, l'utilisation d'arêtes droites introduit une approximation de la géométrie. Autoriser l'existence d'arêtes courbes permet de coller parfaitement à la géométrie, et dans certains cas de diminuer le nombre de triangles du maillage. L'objectif principal de cette thèse est l'étude d'éléments finis sur des triangles possédant plusieurs bords courbes. Le choix des fonctions de base est un des points importants pour ce type d'éléments finis. Un résultat de convergence a été obtenu sous réserve que les triangles courbes ne soient pas trop éloignés des triangles droits associés. D'autre part, un solveur courbe a été développé pour traiter des triangles avec plusieurs bords courbes. Une autre partie de ce travail porte sur l'accélération de la convergence des calculs. En effet, la résolution du problème est itérative et peut converger très lentement. Une méthode d'accélération dite DSA (Diffusion Synthetic Acceleration) permet de diminuer le nombre d'itérations et le temps de calcul. L'opérateur de diffusion est utilisé comme un préconditionneur de l'opérateur de transport. La DSA a été mise en oeuvre en utilisant une technique issue des méthodes de pénalisation intérieure. Une analyse de Fourier en 1D et 2D permet de vérifier la stabilité du schéma pour des milieux périodiques avec de fortes hétérogénéités / To model the nuclear reactors, the stationnary linear Boltzmann equation is solved. After discretising the energy and the angular variables, the hyperbolic equation is numerically solved with the discontinuous finite element method. The MINARET code uses this method on a triangular unstructured mesh in order to deal with complex geometries (like containing arcs of circle). However, the meshes with straight edges only approximate such geometries. With curved edges, the mesh fits exactly to the geometry, and in some cases, the number of triangles decreases. The main task of this work is the study of finite elements on curved triangles with one or several curved edges. The choice of the basis functions is one of the main points for this kind of finite elements. We obtained a convergence result under the assumption that the curved triangles are not too deformed in comparison with the associated straight triangles. Furthermore, a code has been written to treat triangles with one, two or three curved edges. Another part of this work deals with the acceleration of transport calculations. Indeed, the problem is solved iteratively, and, in some cases, can converge really slowly. A DSA (Diffusion Synthetic Acceleration) method has been implemented using a technique from interior penalty methods. A Fourier analysis in 1D and 2D allows to estimate the acceleration for infinite periodical media, and to check the stability of the numerical scheme when strong heterogeneities exist

Page generated in 0.1045 seconds