Spelling suggestions: "subject:"epissage"" "subject:"fouissage""
1 |
Conception et réalisation d'un sondeur de canal multi-capteur utilisant les corrélateurs cinq-ports pour la mesure de propagation à l'intérieur des bâtiments /Vũ, Văn Yêm. January 1900 (has links)
Thèse de doctorat--Électronique et communications--Paris--ENST, 2006. / Notes bibliogr. Résumé en français et en anglais.
|
2 |
Réalité augmentée automatique à partir d'une séquence vidéo et utilisant la stéréoscopie denseHolloway, Patrick January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
Estimation non-paramétrique de la fonction de répartition et de la densitéHaddou, Mohammed January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
4 |
Intégration d'une méthode d'optimisation topologique dans le processus de CAO/FAO pour des pièces tridimensionnellesPicher-Martel, Gilles-Philippe January 2010 (has links)
Ce projet de maîtrise présente l'intégration d'une méthode d'optimisation topologique dans le processus de Conception et Fabrication Assistée par Ordinateur. Il fut réalisé dans le cadre d'un projet multidisciplinaire issu d'une collaboration entre le groupe de recherche en optimisation des structures de l'Université de Sherbrooke (OptiS) et l'Équipe de Recherche en Intégration CAO-Calcul de l'UQTR (ÉRICCA).Ce projet multidisciplinaire consiste à développer un gratuiciel multiplateforme d'optimisation des structures intégrant la CAO à l'optimisation afin de permettre le développement complet de pièces ou structures mécaniques en partant du modèle CAO initial, jusqu'au modèle CAO final optimisé. Deux objectifs principaux sont visés dans le cadre de ce projet de maîtrise. Premièrement, implanter la méthode d'optimisation topologique par homogénéisation (méthode SIMP) pour des structures quelconques en 3D. Deuxièmement, développer une méthode de lissage pour réduire le bruit présent sur le maillage optimisé résultant de l'optimisation topologique par la méthode SIMP. Nous avons atteint ces deux objectifs en développant un processus d'optimisation complètement automatique en sept étapes. Elles correspondent respectivement à la modélisation géométrique, l'entrée des données initiales du problème (conditions aux limites, matériau, etc.), la sous-division de la géométrie en sous-domaines de design et de non-design, le maillage automatique adapté aux sous-domaines multiples, l'optimisation topologique, le lissage du maillage de surface et finalement la reconstruction de la géométrie finale. Les résultats ont démontré que notre implantation de la méthode SIMP fonctionne et donne des résultats très intéressants qui s'apparentent aux résultats présentés dans la littérature. Néanmoins, le développement d'une méthode de lissage de triangulation basée sur les méthodes classiques a démontré que ces méthodes sont très mal adaptées à des maillages très bruités tels que ceux obtenus avec la méthode SIMP. En somme, ce projet a permis de faire un grand pas vers l'intégration complète de l'optimisation comme une étape à part entière du processus de CAO/FAO.
|
5 |
Méthodes de contrôle de la qualité de solutions éléments finis (application à l'acoustique)Bouillard, Philippe 05 December 1997 (has links)
This work is dedicated to the control of the accuracy of computational simulations of sound propagation and scattering. Assuming time-harmonic behaviour, the mathematical models are given as boundary value problems for the Helmholtz equation <i>Delta u+k2u=0 </i> in <i>Oméga</i>. A distinction is made between interior, exterior and coupled problems and this work focuses mainly on interior uncoupled problems for which the Helmholtz equation becomes singular at eigenfrequencies.
As in other application fields, error control is an important issue in acoustic computations. It is clear that the numerical parameters (mesh size h and degree of approximation p) must be adapted to the physical parameter k. The well known ‘rule of the thumb’ for the h version with linear elements is to resolve the wavelength <i>lambda=2 pi k-1</i> by six elements characterising the approximability of the finite element mesh. If the numerical model is stable, the quality of the numerical solution is entirely controlled by the approximability of the finite element mesh. The situation is quite different in the presence of singularities. In that case, <i>stability</i> (or the lack thereof) is equally (sometimes more) important. In our application, the solutions are ‘rough’, i.e., highly oscillatory if the wavenumber is large. This is a singularity inherent to the differential operator rather than to the domain or the boundary conditions. This effect is called the <i>k-singularity</i>. Similarly, the discrete operator (“stiffness” matrix) becomes singular at eigenvalues of the discretised interior problem (or nearly singular at damped eigenvalues in solid-fluid interaction). This type of singularities is called the <i>lambda-singularities</i>. Both singularities are of global character. Without adaptive correction, their destabilizing effect generally leads to large error of the finite element results, even if the finite element mesh satisfies the ‘rule of the thumb’.
The k- and lambda-singularities are first extensively demonstrated by numerical examples. Then, two <i>a posteriori</i> error estimators are developed and the numerical tests show that, due to these specific phenomena of dynamo-acoustic computations, <i>error control cannot, in general, be accomplished by just ‘transplanting’ methods that worked well in static computations</i>. However, for low wavenumbers, it is necessary to also control the influence of the geometric (reentrants corners) or physical (discontinuities of the boundary conditions) singularities. An <i>h</i>-adaptive version with refinements has been implemented. These tools have been applied to two industrial examples : the GLT, a bi-mode bus from Bombardier Eurorail, and the Vertigo, a sport car from Gillet Automobiles.
As a conclusion, it is recommanded to replace the rule of the thumb by a criterion based on the control of the influence of the specific singularities of the Helmholtz operator. As this aim cannot be achieved by the <i>a posteriori</i> error estimators, it is suggested to minimize the influence of the singularities by modifying the formulation of the finite element method or by formulating a “meshless” method.
|
6 |
Etude thermohydraulique expérimentale et numérique d'une boucle d'hélium supercritique en convection forcée soumise à des pulses périodiques de chaleur / Experimental and numerical thermohydraulics study of a forced flow supercritical helium loop under periodical heat loadsLagier, Benjamin 11 March 2014 (has links)
Les futurs réacteurs expérimentaux comme ITER ou JT-60SA réaliseront des réactions de fusion thermonucléaire au sein de plasmas de plusieurs millions de degrés. Le confinement de la réaction au centre de la chambre est assuré par des champs magnétiques très intenses générés par des aimants supraconducteurs. Ces bobines sont refroidies à 4.4 K via une circulation forcée d’hélium supercritique. Le fonctionnement cyclique des machines engendre des charges thermiques pulsées qui devront être absorbées par les réfrigérateurs de plusieurs mégawatts de puissances électriques. L’expérience HELIOS, construite au CEA Grenoble, est une maquette à échelle réduite du système de distribution d’hélium du tokamak JT-60SA constituée d’un bain d’hélium à saturation et d’une boucle en hélium supercritique. Les travaux de thèse présentés ici explorent les possibilités d’HELIOS afin de réaliser les études expérimentale et numérique de trois stratégies de lissage de charges thermiques : l’utilisation du bain saturé en tant que volant thermique ouvert, la variation de la vitesse du circulateur et l’utilisation de la vanne de by-pass de la charge thermique. Le modèle EcosimPro développé ici rend bien compte des phénomènes de couplage transitoire entre le dépôt d’énergie, la montée en pression et en température de la boucle de circulation, de même que le couplage entre la boucle de circulation et le bain saturé. Des contrôles avancés ont été testés numériquement puis validés expérimentalement pour améliorer la stabilité du réfrigérateur et optimiser la puissance de réfrigération. / Future fusion reactor devices such as ITER or JT-60SA will produce thermonuclear fusion reaction inplasmas at several millions of degrees. The confinement in the center of the chamber is achieved byvery intense magnetic fields generated by superconducting magnets. These coils have to be cooleddown to 4.4 K through a forced flow of supercritical helium. The cyclic behavior of the machinesleads to pulsed thermal heat loads which will have to be handled by the refrigerator.The HELIOS experiment built in CEA Grenoble is a scaled down model of the helium distributionsystem of the tokamak JT-60SA composed of a saturated helium bath and a supercritical helium loop.The thesis work explores HELIOS capabilities for experimental and numerical investigations on threeheat load smoothing strategies: the use of the saturated helium bath as an open thermal buffer, therotation speed variation of the cold circulator and the bypassing of the heated section. Thedeveloped model describes well the physical evolutions of the helium loop (pressure, temperature,mass flow) submitted to heat loads observed during experiments. Advanced controls have beentested and validated to improve the stability of the refrigerator and to optimize the refrigerationpower.
|
7 |
Modèles mathématiques de la démographie : rapport entre fécondité et variables socio-économiquesBarumandzadeh, Taghi 02 December 1982 (has links) (PDF)
.
|
8 |
Optimisation de la modulation de phase utilisée pour les lasers de puissance : Minimisation de la conversion FM-AM tout en conservant les fonctionnalités d'élargissement spectral nécessaire à la fusionHocquet, Steve 09 November 2009 (has links) (PDF)
Dans ce manuscrit, nous abordons la problématique des modulations de phase sur les lasers de puissance (comme le Laser MégaJoule, projet développé en France) et de leur impact sur différents phénomènes physiques comme la suppression de la diffusion Brillouin stimulée (nécessaire pour éviter l'endommagement des optiques) et le lissage optique qui permet une homogénéisation spatiale des taches focales. Nous abordons de manière approfondie les contreparties des modulations de phase et en particulier la conversion FM-AM qui est source de modulations d'intensité non désirées et de perte d'énergie. Nous donnons une modélisation qui se veut complète des phénomènes générant de la conversion FM-AM sur une chaîne de laser de puissance. Nous étudions théoriquement et expérimentalement les deux méthodes permettant de réduire la conversion FM-AM à distorsion spectrale donnée : la compensation des fonctions de transfert et la modification du signal de modulation de phase pour le rendre moins sensible aux effets de distorsions spectrales. Concernant la seconde voie d'exploration, nous déterminons quelle devrait être la forme du spectre idéal de la modulation de phase et nous donnons une méthode pour s'en approcher. Nous montrons la faisabilité pratique d'une telle méthode et nous effectuons différentes expériences pour montrer dans quelles mesures ces solutions peuvent améliorer les performances les lasers de puissance. Nous concluons ce manuscrit de thèse, en proposant des solutions optimisées pour le Laser MégaJoule.
|
9 |
Identification et motivations des pratiques de lissages des entreprises françaises cotées en bourse.Chalayer-Rouchon, Sylvie 08 December 1994 (has links) (PDF)
L'objectif de la thèse a consisté, dans un premier temps, à définir le concept de lissage des résultats : nature du résultat lissé, définition des variables manipulées... puis à proposer une démarche méthodologique visant à identifier les pratiques de lissage. Au préalable, nous avons conduit un examen approfondi de la littérature portant sur ce thème . Par la suite, l'hypothèse de lissage a été testée empiriquement. Ce travail montre que les entreprises françaises cotées en Bourse s'engagent effectivement dans des pratiques de lissage comptable des résultats. Un des apports de cette étude réside dans la mise en évidence de la manipulation par le dirigeant de plusieurs instruments comptables, les «accruals», pour parvenir à un résultat lissé. En effet, les travaux portant sur ce thème n'ont généralement considéré qu'un seul outil comptable pris isolément. Ils n'ont pas étudié l'ensemble des charges et produits comptables calculés pour en déduire que leur niveau était déterminé par des objectifs de lissage du résultat net. La thèse se propose de reprendre les hypothèses de différents courants théoriques (théorie politico-contractuelle, théorie du signal...) et de les valider empiriquement. L'étude que nous avons réalisée montre que les firmes qui lissent leurs résultats n'ont pas une valeur supérieure aux firmes qui ne lissent pas leurs résultats ce qui tend à valider l'hypothèse de rationalité des investisseurs. En revanche, elles semblent présenter un niveau de risque plus faible : ces résultats sont confirmés à la fois par les analyses univariées et multivariées effectuées.
|
10 |
Lissage multi-échelle sur GPU des images et volumes avec préservation des détailsJibai, Nassim 24 May 2012 (has links) (PDF)
Les images et données volumiques sont devenues importantes dans notre vie quotidienne que ce soit sur le plan artistique, culturel, ou scientifique. Les données volumiques ont un intérêt important dans l'imagerie médicale, l'ingénierie, et l'analyse du patrimoine culturel. Ils sont créées en utilisant la reconstruction tomographique, une technique qui combine une large série de scans 2D capturés de plusieur points de vue. Chaque scan 2D est obtenu par des methodes de rayonnement : Rayons X pour les scanners CT, ondes radiofréquences pour les IRM, annihilation électron-positron pour les PET scans, etc. L'acquisition des images et données volumique est influencée par le bruit provoqué par différents facteurs. Le bruit dans les images peut être causée par un manque d'éclairage, des défauts électroniques, faible dose de rayonnement, et un mauvais positionnement de l'outil ou de l'objet. Le bruit dans les données volumique peut aussi provenir d'une variété de sources : le nombre limité de points de vue, le manque de sensibilité dans les capteurs, des contrastes élevé, les algorithmes de reconstruction employés, etc. L'acquisition de données non bruitée est iréalisable. Alors, il est souhaitable de réduire ou d'éliminer le bruit le plus tôt possible dans le pipeline. La suppression du bruit tout en préservant les caractéristiques fortes d'une image ou d'un objet volumique reste une tâche difficile. Nous proposons une méthode multi-échelle pour lisser des images 2D et des données tomographiques 3D tout en préservant les caractéristiques à l'échelle spécifiée. Notre algorithme est contrôlé par un seul paramètre - la taille des caractéristiques qui doivent être préservées. Toute variation qui est plus petite que l'échelle spécifiée est traitée comme bruit et lissée, tandis que les discontinuités telles que des coins, des bords et des détails à plus grande échelle sont conservés. Nous démontrons les données lissées produites par notre algorithme permettent d'obtenir des images nettes et des iso-surfaces plus propres. Nous comparons nos résultats avec ceux des methodes précédentes. Notre méthode est inspirée par la diffusion anisotrope. Nous calculons nos tenseurs de diffusion à partir des histogrammes continues locaux de gradients autour de chaque pixel dans les images et autour de chaque voxel dans des volumes. Comme notre méthode de lissage fonctionne entièrement sur GPU, il est extrêmement rapide.
|
Page generated in 0.0432 seconds