• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 443
  • 187
  • 51
  • 1
  • 1
  • Tagged with
  • 648
  • 159
  • 147
  • 106
  • 96
  • 79
  • 77
  • 64
  • 63
  • 55
  • 50
  • 47
  • 46
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Étude expérimentale de la turbulence dans une couche de mélange anisotherme

Sodjavi, Kodjovi 11 March 2013 (has links) (PDF)
L'étude porte sur une couche de mélange plane horizontale générée par la rencontre de deux écoulements parallèles à vitesse et température différentes. Le mélange turbulent est analysé pour différentes conditions initiales en termes de gradients de vitesse et de température. On distingue en particulier des configurations en régime de stratification stable et instable sous l'effet des forces de flottabilité. L'analyse des corrélations entre les fluctuations de vitesse et de température s'appuie sur la technique expérimentale d'anémométrie à température de fil variable (PCTA), qui permet la mesure instantanée de la vitesse et de la température en un même point grâce à la variation périodique et par palier du coefficient de surchauffe du fil chaud utilisé. Un premier travail a consisté à étendre la technique PCTA à l'utilisation de fils croisés pour la mesure simultanée de la température et de deux composantes de la vitesse. Dans un premier temps, les statistiques en un point permettent d'identifier les caractéristiques de l'écoulement dans la région de similitude et d'y établir les équations de bilan pour l'énergie cinétique turbulente, l'intensité des fluctuations de température et les flux de quantité de mouvement et de chaleur. Il apparaît, vu les faibles nombres de Richardson en jeu (Rif<0,03), que les forces de flottabilité sont quasi-négligeables devant les moteurs principaux du mouvement. Pourtant, ce forçage thermique peu énergétique est suffisant, en configuration instable, pour augmenter significativement le taux d'expansion et la contrainte de cisaillement, ce qui correspond de fait à une augmentation de la production de turbulence. L'analyse des densités de probabilité jointes permet ensuite de mettre en évidence les mécanismes et évènements qui contribuent significativement aux flux transversaux de quantité de mouvement et de chaleur. Ces différentes contributions sont différenciées et quantifiées par une analyse en quadrants qui fait ressortir la prépondérance des mouvements d'entraînement et d'éjection. On examine enfin les statistiques en deux points associées aux incréments de vitesse et de température. Le comportement de ces incréments est étudié à travers leurs densités de probabilité et leurs coefficients de dissymétrie et d'aplatissement. Les exposants des fonctions de structure confirment l'intermittence plus grande de la température par rapport à celle de la vitesse. Les différents termes des équations de Kolmogorov et de Yaglom sont mesurés. L'équilibre de ces bilans par échelle permet de quantifier le terme qui intègre les différents forçages proposés dans la littérature.
12

Modélisation du mélange des particules dans l’atmosphère / Modeling of particle mixing in the atmosphere

Zhu, Shupeng 11 December 2015 (has links)
Cette thèse présente un nouveau modèle SCRAM (Size and Composition Resolved Aerosol Model) pour simuler la dynamique des particules dans l'atmosphère (nucléation, coagulation, condensation / évaporation) en prenant en compte leur état de mélange, et elle évalue la performance de SCRAM dans des simulations 3D de qualité de l'air. Le travail peut être divisé en quatre parties. Premièrement, la notion de mélange externe est introduite, ainsi que la modélisation de la dynamique des aérosols. Ensuite, le développement du modèle SCRAM est présenté avec des tests de validation. Dans SCRAM, pour définir les compositions, on discrétise d'abord en sections les fractions massiques des composés chimiques des particules ou d'ensembles de composés chimiques. Les compositions des particules sont ensuite définies par les combinaisons des sections de fractions massiques. Les trois processus principaux impliqués dans la dynamique des aérosols (la coagulation, la condensation / évaporation et la nucléation) sont inclus dans SCRAM. SCRAM est validé par comparaison avec des simulations « académiques » publiées dans la littérature de coagulation et condensation/évaporation pour des particules en mélange interne. L'impact de l'hypothèse de mélange externe pour ces simulations est notamment étudié. L'impact du degré de mélange sur les concentrations de particules est ensuite étudié dans une simulation 0-D en utilisant des données représentatives d'un site trafic en Ile de France. L'influence relative sur l'état de mélange des différents processus influençant la dynamique des particules (condensation / évaporation, coagulation) et de l'algorithme utilisé pour modéliser la condensation / évaporation (hypothèse d'équilibre entre les phases gazeuse et particulaire, ou bien modélisation dynamique des échanges gaz/particules) est étudiée. Ensuite, SCRAM est intégré dans la plate-forme de qualité de l'air Polyphemus et utilisé pour effectuer des simulations sur l'Ile de France pendant l'été 2009. Une évaluation par comparaison à des observations a montré que SCRAM donne des résultats satisfaisants pour les concentrations de PM2.5/PM10 et l'épaisseur optique des aérosols. Le modèle est utilisé pour analyser l'état de mélange des particules, ainsi que l'impact des différentes hypothèses de mélange (mélange interne MI ou mélange externe ME) sur la formation des particules et leurs propriétés. Enfin, deux simulations, une avec l'hypothèse de MI et une autre avec l'hypothèse de ME, sont effectuées entre le 15 janvier et le 11 février 2010, pendant la campagne hiver MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation) durant laquelle les compositions des particules individuelles ont été mesurées. Les concentrations simulées de composés chimiques (concentration massique totale de différents composés) et les concentrations des classes de particules individuelles (une classe est définie par sa taille et sa composition chimique) sont comparées avec les observations à un site urbain parisien. Un indicateur de la diversité des particules et de l'état de mélange est calculé à partir des simulations et comparé à celui calculé à partir des mesures. Le modèle se compare bien aux observations avec un état de mélange moyen simulé de 69% contre 59% dans les observations, indiquant que les particules ne sont pas en mélange interne sur Paris / This thesis present a newly developed size-composition resolved aerosol model (SCRAM), which is able to simulate the dynamics of externally-mixed particles in the atmosphere, and it evaluates its performance in three-dimensional air-quality simulations. The main work is split into four parts. First, the research context of external mixing and aerosol modelling is introduced. Secondly, the development of the SCRAM box model is presented along with validation tests. Each particle composition is defined by the combination of mass-fraction sections of its chemical components or aggregates of components. The three main processes involved in aerosol dynamic (nucleation, coagulation, condensation/evaporation) are included in SCRAM. The model is first validated by comparisons with published reference solutions for coagulation and condensation/evaporation of internally-mixed particles. The particle mixing state is investigated in a 0-D simulation using data representative of air pollution at a traffic site in Paris. The relative influence on the mixing state of the different aerosol processes and of the algorithm used to model condensation/evaporation (dynamic evolution or bulk equilibrium between particles and gas) is studied. Then, SCRAM is integrated into the Polyphemus air quality platform and used to conduct simulations over Greater Paris during the summer period of 2009. This evaluation showed that SCRAM gives satisfactory results for both PM2.5/PM10 concentrations and aerosol optical depths, as assessed from comparisons to observations. Besides, the model allows us to analyze the particle mixing state, as well as the impact of the mixing state assumption made in the modelling on particle formation, aerosols optical properties, and cloud condensation nuclei activation. Finally, two simulations are conducted during the winter campaign of MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation) in January 2010 where the composition of individual particles was measured. One simulation assumes that particles are internally mixed, while the other explicitly models the mixing state with SCRAM. The simulation results of both bulk concentrations of chemical species and concentrations of individual particle classes are compared with the measurements. Then, the single particle diversity and the mixing-state index are computed using a quantification approach based on information-theoretic entropy, and they are compared to those derived from the measurements at a urban site in Paris: the simulated mixing-state index is equal to 69% against 59% from the measurements, indicating that particles are not internally mixed over Paris
13

Les révélations d'Arrakis : une étude sur l'inscription de la transcendance dans Dune de Frank Herbert

Gill, Charles-Étienne January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Caractérisation de la toxicocinétique des trihalométhanes et des acides chloroacétiques administrés sous forme de mélanges chez le rat

St-Pierre, Annie January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
15

Explosions de poussières et de mélanges hybrides : étude paramétrique et relation entre la cinétique de combustion et la violence de l'explosion / Dust and hybrid mixtures explosions : parametric study and link between combustion kinetic and explosion violence/

Traore, Mamadou 03 April 2007 (has links)
Les risques liés aux explosions de poussières, de par leur fréquence et leur gravité, sont élevés. Nous avons donc essayé de comprendre ce phénomène par le biais d’une étude paramétrique sur l’inflammabilité (concentration, température et énergie minimales d’inflammation) et l’explosivité des poussières (surpression maximale et vitesse de montée en pression) vis-à-vis de poussières aussi bien métalliques (aluminium) qu’organiques (sucre glace et polyéthylène). Les influences de la concentration, la granulométrie, la teneur en eau et en solvant (mélanges hybrides) sur la sensibilité et la sévérité des explosions de poussière ont été étudiées. Nous avons par exemple mis en évidence un accroissement de l’explosivité des poussières en présence de solvant. Ces études paramétriques ont permis d’initier une modélisation de l’explosion poussière en reliant la cinétique de combustion à la violence des explosions / Dust explosions risks linked with their occurrence and their gravity are very high. In consequence, we try to understand this phenomenon by studying the influence of various parameters on the dust inflammability (minimum inflammation concentration, temperature and energy) and dust explosivity (maximum overpressure and rate of pressure rise) for both metallic (aluminium) and organic (icing sugar and polyethylene) dusts. Concentration, particle size distribution, water and solvent (hybrid mixtures) contents influences on dust explosion sensibility and severity have been studied. For example, we observed an increase of dust explosivity in the presence of solvent. Thanks to these parametric studies, we initiated a dust explosion modelling by linking combustion kinetic and explosion violence
16

Etudes sur la matrice de mélange leptonique et sur la matière noire

Palorini, F. 15 September 2008 (has links) (PDF)
Neutrino oscillations, the baryon asymmetry and dark matter are important evidences of new physics beyond the Standard Model. Neutrino oscillations imply neutrino masses and a lepton mixing matrix that can contribute to flavour violating processes and CP violation at low energies, accessible to next experiments, and to the CP violation necessary for baryogenesis. Among the most interesting implications, is flavour violation in the lepton sector, but it has only been observed in neutrino oscillations. By analogy with quarks, it is then possible to deduce a principle of minimal flavour violation for leptons. Since such formulation is not straightforward in the lepton sector, we discuss dierent possibilities. Then we propose a definition which could be applied to various models and could help us in selecting between the possible neutrino mass generating mechanisms. Furthermore, if the seesaw mechanism describes neutrino masses, we can have a natural explanation to the baryon asymmetry of the universe with leptogenesis. In the context of leptogenesis including flavour effects, we demonstrate that the baryon asymmetry of the universe is insensitive to the low energy CP violating phases. This study is performed in the minimal extension of the Standard Model, with the introduction of 3 right-handed neutrinos and type-1 seesaw, only, and it is extended, in a following study, to the supersymmetric case. Since the seesaw parameter space is quite large, the numerical study is developed with the Markov Chain Monte Carlo method. In relation to dark matter, we study a scenario with very weakly coupled candidates and their production through the decay of a charged long-lived scalar particle. We compute the scalar particle number density, evaluating its gauge interactions, and compare it with Big-Bang Nucleosynthesis bounds. Then, we apply our results to the Minimal Supersymmetric Standard Model scenario with axino or gravitino as Lightest Supersymmetric Particle and stau or stop as Next to Lightest Supersymmetric Particle.
17

Développement de mélanges à base de polylactide à durée de vie contrôlée. Étude des relations microstructure / propriétés / mise en œuvre

Berthé, Vincente 03 December 2010 (has links) (PDF)
La thèse s'inscrit dans le cadre d'un programme de recherche global ayant pour objectif de développer des composites à base de polymères biodégradables. L'objectif est de parvenir à contrôler à la fois la durée de vie ainsi que la fragmentation de ces matériaux. Le programme de thèse porte sur plusieurs aspects : <br/>- l'amélioration de la résilience du polylactide (P(L)LA) par incorporation d'agents modifiants au choc ou de biopolymères à faible module d'Young tels que la poly-epsilon-caprolactone (PCL) et le poly-butylène-succinate (PBS). De plus, deux voies de compatibilisation des mélanges ont été testées, par introduction d'agents de polycondensation ou de monomères photo-réticulants. <br/>- l'étude de la résistance à divers vieillissements climatiques (hydrolyse, oxydation thermique et photo-vieillissement) des systèmes présentant une bonne résistance au choc. <br/>- le contrôle de la phase de fragmentation des systèmes les plus performants via l'incorporation de catalyseurs d'oxydation.
18

Noise sources in robust uncompressed video watermarking

Dumitru, Corneliu Octavian 11 January 2010 (has links) (PDF)
Cette thèse traite de ce verrou théorique pour des vidéos naturelles. Les contributions scientifiques développées ont permis : 1. De réfuter mathématiquement le modèle gaussien en général adopté dans la littérature pour représenter le bruit de canal ; 2. D'établir pour la première fois, le caractère stationnaire des processus aléatoires représentant le bruit de canal, la méthode développée étant indépendante du type de données, de leur traitement et de la procédure d'estimation ; 3. De proposer une méthodologie de modélisation du bruit de canal à partir d'un mélange de gaussiennes pour une transformée aussi bien en cosinus discrète qu'en ondelette discrète et pour un large ensemble d'attaques (filtrage, rotation, compression, StirMark, ...). L'intérêt de cette approche est entre autres de permettre le calcul exact de la capacité du canal alors que la littérature ne fournissait que des bornes supérieure et inférieure. 4. Les contributions technologique concernent l'intégration et l'implémentions de ces modèles dans la méthode du tatouage IProtect brevetée Institut Télécom/ARTEMIS et SFR avec un gain en temps d'exécution d'un facteur 100 par rapport à l'état de l'art.
19

Formulation et morphologies de mélanges de polymères thermoplastiques à base d'amidon

Teyssandier, Fabien 06 December 2011 (has links) (PDF)
L'objectif de cette thèse est le développement de matériaux polymères injectables innovants issus de ressources renouvelables et répondant aux exigences techniques automobiles. Pour cela nous nous sommes intéressés à des mélanges de polymères modèles : le polyamide 12 et l'amidon plastifié. Nos travaux ont donc porté sur l'optimisation des propriétés de ces mélanges, via le contrôle de la morphologie. Ainsi deux stratégies ont été envisagées : la compatibilisation du mélange grâce à deux agents réactifs et la modification des paramètres de mise en œuvre. Ces deux stratégies se sont révélées être efficace pour l'amélioration des propriétés des mélanges. Enfin à partir de cette étude sur les polymères modèles, des matériaux issus de ressources renouvelables ont été formulés. De même une étape de compatibilisation à partir d'une résine époxy a été envisagée permettant au final d'obtenir des matériaux ayant des propriétés optimisées.
20

Intégration d'un mélange multibande à un algorithme de recalage panoramique par flux optique

Coiffec-Pennec, Mikael January 2013 (has links)
Les images panoramiques sont des vues en largeur d'un espace physique. Ces larges images, en plus d'être intéressantes par leur aspect esthétique, sont un support essentiel pour de nombreuses applications comme par exemple l'orientation automatique d'un robot dans son environnement ou la création de cartes satellites. Pour obtenir un panorama, deux approches sont possibles : une approche matérielle et une approche logicielle. Dans l'approche logicielle, il y a deux problématiques : le recalage des images entre elles et le mélange des valeurs radiométriques des sections se recoupant. Ce mémoire s'intéresse à la problématique de mélange. En effet, les images à regrouper peuvent présenter des différences d'intensité pour diverses raisons. Il faut alors effectuer un mélange afin de faire disparaître ces différences et pouvoir ainsi produire un panorama sans transition visible. Plus précisément, nous travaillons sur l'amélioration de l'algorithme de construction panoramique par recalage à l'aide du flux optique présenté par Rebière et Toffa. Cette méthode de positionnement très efficace repose sur le recalage de chaque pixel, à l'aide du flux optique. Malheureusement l'algorithme de Rebière et Toffa ne gère pas les différences d'intensité qui peuvent exister entre les images. Dans ces conditions, les panoramas produits ne sont pas de qualité satisfaisante. Pour régler ce problème, nous intégrons donc la méthode de mélange multibande présentée par Brown et Lowe. Nous adaptons ainsi le mélange multibande à l'algorithme de recalage par flux optique afin de le rendre robuste aux différences d'intensité.

Page generated in 0.0451 seconds