• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 77
  • 24
  • 2
  • 1
  • 1
  • Tagged with
  • 377
  • 159
  • 64
  • 56
  • 50
  • 31
  • 26
  • 26
  • 25
  • 25
  • 24
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Influence d'une période de restriction alimentaire sur les marqueurs salivaires du stress, les paramètres psychologiques et la performance chez des haltérophiles de haut niveau / Influence of a dietary restriction period on salivary biomarkers of stress, psychological parameters and performance among high-level weightlifters

Durguerian, Alexandre 27 January 2017 (has links)
La restriction des apports alimentaires est une méthode couramment utilisée pour perdre du poids dans les sports à catégories de poids. La réduction des apports caloriques se traduit par une activation des systèmes physiologiques du stress, au niveau central et périphérique, visant à préserver l’homéostasie énergétique. Néanmoins, l’influence sur les paramètres physiologiques, psychologiques et physiques reste controversée et ne permet pas de définir clairement un impact négatif de la restriction alimentaire sur la santé et le niveau de performance. L’objectif de ce travail était d’évaluer l’influence d’une restriction alimentaire sur les indicateurs psychophysiologiques du stress, ainsi que le niveau de performance chez des haltérophiles de haut niveau. Nos résultats ont montré que la restriction alimentaire ne modifiait pas le niveau de performance en haltérophilie, mais induisait une altération des paramètres psychologiques. La période de restriction alimentaire se traduisait par une dissociation de l’activité des systèmes physiologiques du stress, ainsi qu’une modification des réponses hormonales à une compétition simulée d’haltérophilie. Il reste à définir les répercussions à long terme de l’altération des paramètres psychophysiologiques sur la santé et la capacité de performance du sportif. Il serait également intéressant d'étudier l'influence de la restriction alimentaire sur le microbiote intestinal et les répercussions éventuelles sur l'axe intestin-cerveau. / Restricting dietary intake is a widespread method for losing weight in weight categories sports. Reduction of calorie intake results in an activation of the physiological stress systems, both at central and peripheral levels, aiming at preserving energy homeostasis. Nevertheless, the influence on physiological, psychological and physical parameters remains controversial and do not allows to clearly defining a negative impact of dietary restriction on health and performance level. The objective of this study was to evaluate the influence of a dietary restriction period on the psychophysiological indicators of stress, as well as the level of performance in high-level weightlifters. Our results showed that dietary restriction did not modify weightlifting performance level, but resulted in an alteration of the psychological parameters. The dietary restriction period resulted in a dissociation of the activity of the physiological stress systems, as well as a modification of the hormonal responses to a simulated weightlifting competition. It remains to define the long-term impacts of the alteration of psychophysiological parameters on the athlete’s health and performance capacity. It would also be interesting to evaluate the influence of dietary restriction on intestinal microbiota and the possible influence on the gut-brain axis.
182

Impact de l'entraînement en musculation et d'un régime hypocalorique sur la composition corporelle et la dépense énergétique de femmes post ménopausées en surpoids ou obèses

St-Onge, Maxime January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
183

Modélisation des pertes de charge en biofiltration

Perron, Jean-Michel 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les procédés d'épuration par biofiltration sont très compacts et très performants pour assurer le traitement du carbone et de l'azote. Pour conserver de bonnes performances épuratoires, les biofiltres doivent être lavés régulièrement. Le déclenchement des lavages est dicté par la perte de charge à l'intérieur du biofiltre. Cette dernière augmente durant un cycle de filtration et lorsqu'elle dépasse un seuil fixé, un lavage est déclenché. Une bonne planification du lavage des biofiltres est essentielle pour réduire les risques de débordement d'eau usée lors de fortes précipitations, pour réduire le risque de colmatage et pour réduire les coûts d'opération. Les modèles de biofiltration actuels simulent avec précision et robustesse la qualité d'eau (Vigne 2007; Bernier 2014; Zhu 2020), mais simulent difficilement le comportement des pertes de charge sur plusieurs mois. Ce projet de recherche compare le comportement des pertes de charge simulées à partir de trois sous-modèles (Carman 1937; Ergun 1952; Bernier 2014) de perte de charge. Les modèles de perte de charge de Carman (1937) et d'Ergun (1952) sont considérés, dans le cadre de ce projet de recherche, comme des simplifications du modèle de Bernier (2014). Les deux sous-modèles simplifiés ont été intégrés au modèle de biofiltration de Bernier (2014). Ils ont été calibrés et validés en suivant le protocole de Vigne (2007) et de Rittmann et collab. (2018) avec des jeux de données de l'étage de post-dénitrification sur méthanol de Seine-Centre, une des stations d'épuration de l'agglomération parisienne. Les jeux de données regroupent des mesures horaires du débit, des NOx et des pressions ainsi que des mesures récoltées sur des échantillons composites journaliers (DCO, DBO₅ PO₄³⁻, MES et NH₄⁺). Mis à part pour la densité sèche du biofilm et pour la porosité du média, la calibration des trois modèles est identique. Le sous-modèle de perte de charge de Bernier (2014) est calibré avec une densité sèche de biofilm de 100 kg[indice MES]/m³ et avec une porosité du média de 0.34 alors que les sous-modèles d'Ergun (1952) et de Carman (1937) sont calibrés avec une densité sèche de biofilm de 47 kg[indice MES]/m³ et avec une porosité du média de 0.3. Malgré cette différence, les trois sous-modèles simulent précisément la perte de charge, avec une erreur moyenne de 0.1 mètre d'eau. Durant la validation, les trois sous-modèles calibrés simulent avec précision la perte de charge initiale, mais sous-estiment l'encrassement du biofiltre avec une erreur moyenne de 0.4 mètre d'eau. Les erreurs des simulations d'encrassement durant la validation du modèle peuvent être diminuées en modifiant uniquement la densité sèche du biofilm dans les trois sous-modèles (de 100 à 80 kg[indice MES]/m³ dans le modèle de Bernier (2014) et de 47 à 39 kg[indice MES]/m³ pour les autres). Une fois bien calibrés, les trois calculs offrent des précisions similaires, mais ils ont les mêmes problèmes de robustesse durant la validation. Même si les biofiltres dénitrifiants sont l'une des configurations les plus simples pour modéliser l'encrassement des biofiltres et même si Bernier (2014) a proposé un des modèles de biofiltration les plus performants, les modèles actuels ont un problème de robustesse. Les trois sous-modèles de perte de charge comparés simulent avec précision l'encrassement sur quelques semaines, mais ils ont tous besoin d'être recalibrés pour simuler l'encrassement sur plusieurs mois. La littérature disponible met l'accent sur l'équation de perte de charge pour améliorer les sous-modèles de perte de charge, mais cette recherche montre que le problème de robustesse est lié à l'hypothèse d'un biofilm avec une densité constante. La prochaine étape pour améliorer les modèles de perte de charge sera de modéliser comment la densité du biofilm change dans le temps et selon les conditions d'opérations. Un modèle de biofilm à densité variable pourrait être lié aux substances polymériques extracellulaires (EPS). Le Bihan et Lessard (2000) ont montré qu'une production excessive des EPS dans le biofilm induit un encrassement prématuré des biofiltres et Pechaud et collab. (2012) a corrélé la présence d'EPS avec les propriétés physiques du biofilm. / Biofilters are very compact processes and very efficient for carbon and nitrogen removal. To maintain their treatment capacity, biofilters needs to be regularly backwashed. Generally, theses backwashes are triggered when a maximum headloss through the filter is reached. A good planning of these backwash events is fundamental to avoid a bypass of untreated wastewater during storm events, to avoid permanent clogging of the filter and to minimise operational costs. Mathematical models are an essential tool to improve treatment process performance. Actual biofiltration models can simulate with reliability and robustness effluent water quality (Vigne 2007; Zhu 2020) but have difficulties to simulate headloss behaviour (Bernier, 2014). This paper explores possibilities to improve clogging predictions in biofiltration models by using data from a full-scale biofilter train operated by SIAAP in Paris region, France. The behaviour of three traditional headloss models were compared and analysed to evaluate the importance of different submodels: Carman (1937), Ergun (1952) and Bernier (2014). Datasets were collected at the denitrification biofiltration process from Seine-Centre, one of the Paris WWTPs. Flowrate, methanol injection rate, nitrate and pressure were measured on an hourly basis and composite samples were collected on a daily basis and analysed for COD, BOD₅, PO₄⁺, TSS and NH₄⁺ at both influent and effluent of the biofilter. The database gathers data from July to November 2020. The model used to simulate post-denitrification process proposed by Bernier (2014) is the more complex one, the two others being considered simplification of Bernier's. The three models were calibrated and validated following the biofilm model calibration guidelines of Vigne (2007) and Rittmann et collab. (2018). It is the first time that the most common headloss equations are compared and successively implemented in a biofiltration model. Except for the biofilm density and the initial media porosity, the models fit to the dataset are almost identical for each of the clogging sub-models. Bernier (2014) sub-model is calibrated with a biofilm density of 100kg[subscript TSS]/m³ and a media initial porosity of 0.34 whereas Ergun (1952) and Carman (1937) equation are calibrated with a biofilm density of 47 kg[subscript TSS]/m³ and a media initial porosity of 0.3. Despite this difference, they can precisely simulate the clogging with a mean error (ME) around 0.1 meter of water. Each sub-model can simulate precisely headloss when properly calibrate, but fails to simulate the reversible clogging process of validation datasets from different season. Each sub-model underestimates the clogging by an average of 0.4 meter of water. However, these validation problems can easily be fixed by reducing the biofilm density in the models (from 100 to 80 kg[subscript TSS]/m³ for the Bernier (2014) model and from 47 to 39 kg[subscript TSS]/m³ for the other models). Each clogging submodel has the same robustness problem: they can simulate clogging when properly calibrated, but fail to fit an independent dataset. The robustness problem appears to be related to the biofilm density. It is the only parameter that has to be changed to fit a different dataset. Even if post-denitrification biofilters are among the simplest configuration to model clogging and even if Bernier (2014) proposed one of the most comprehensive biofiltration model, the actual clogging sub-models still fails to simulate a validation dataset. This research project has not improved actual clogging sub-model, but it clearly points out what has to be done to improve them. The litterature focuses on the headloss equation itself to improve the model, but this research shows that actual robustness problems are probably caused by the assumption that biofilm density is constant. Past research on the modelling of biofilter clogging focused on the headloss equation itself. The study of three headloss submodels showed a similar model performance in terms of fit, while having the same robustness problem under validation. A model based on a biofilm with fixed density can properly simulate a month of operation but biofilm density seem to change over several months and it is thus important to consider whether the purpose of the model is to simulate biofilter operation for a longer period. At this moment, these sub-models seem unable to properly simulate a new dataset without changing the biofilm density. The next steps to improve headloss simulation will be to identify how biofilm density changes over time and what drives these changes. The answer could be related with Extracellular Polymeric Substance (EPS). Le Bihan et Lessard (2000) shows that excessive EPS production in the biofilm leads to premature clogging of biofilter and Pechaud et collab. (2012) correlates EPS with physical property of biofilm.
184

Contribution à l'étude des architectures basées sur le multiplexage en temps et en longueur d'onde dans le réseau d'accès, permettant la migration vers la nouvelle génération de PON (NG-PON) à 10 Gbits/s

RAHARIMANITRA, Fabia Nirina 13 January 2012 (has links) (PDF)
Ces travaux de recherches visent à étudier et à proposer de nouvelles architectures dans le contexte d'une Nouvelle Génération de Réseau d'Accès Optique Passif (NG-PON). Cette nouvelle génération d'équipements se justifie par l'augmentation des besoins en débit (descendant et/ou montant), ou d'éventuelles futures obligations réglementaires. Elle a pour fil conducteur le souci d'optimiser les coûts de déploiement de l'accès FTTH. Depuis 2010, l'organisme de pré-normalisation, le FSAN (associé à l'ITU) a prévu une action sur le thème du NG-PON qui se décline en XG-PON1 pour la première vague (débit 10 Gbit/s descendant et 2.5 Gbit/s montant) puis en un deuxième volet appelé NG-PON2 (pour une offre viable commerciale basée sur un débit de l'ordre de 1 Gbit/s) pour succéder au G-PON et au XGPONl. Des évaluations ont été menées sur la transmission optique, plus exactement au niveau de la couche physique (mesures de taux d'erreur, budget optique, portée) pour en déduire par la suite la faisabilité et la performance des systèmes. Deux thématiques ont structuré le travail de thèse sur la base de ce périmètre d'analyse : i) la recherche de solutions techniques pour optimiser le nombre de centraux " opticalisés ", ii) la recherche de solutions dans le modem client pour permettre de se connecter à des solutions de type une longueur d'onde par client. Un combineur optique sans pertes répondant au meilleur remplissage des cartes OLTs (Optical Line Termination) au Central Optique a été démontré. Ce combineur optique permet la réduction des sites NRO (Noeud de Raccordement Optique). Cette thèse s'intéresse aussi à l'ONU (Optical Network Unit), l'équipement du côté du client qui est un élément fondamental qui impacte le modèle de coût dans les réseaux d'accès. Les ONU achromatiques (dont les émetteurs sont identiques quelque soit la longueur d'onde d'émission) étudiés sont soit à base de source large à découpage spectral (" Spectrum Slicing ") soit à base de lasers accordables. Ils offrent l'avantage de la simplicité dans une architecture dont le multiplexage et l'accès multiples sont basés sur la longueur d'onde. Le format de modulation avancé de type OFDM et l'emploi de la technique de traitement de signal comme l'égaliseur sont également mis en relief dans ces travaux de thèse. Ces deux aspects correspondent à des mises en oeuvre d'outils de l'état de l'art le plus récent pour compenser les pénalités d'une transmission optoélectronique.
185

Modélisation vibroacoustique de double-parois aéronautiques avec liens mécaniques par la méthode de l'analyse statistique énergétique

Campolina, Bruno 12 June 2012 (has links) (PDF)
La prédiction du bruit intérieur des avions nécessite la modélisation vibroacoustique de l'ensemble fuselage et traitements acoustiques. Cet ensemble est composé d'un panneau raidi métallique ou composite, sur lequel est posé un traitement thermo-acoustique (laine de verre) et connecté par des liens anti-vibratiles à un panneau d'habillage de type sandwich nid d'abeille. L'objectif de ce travail consiste à optimiser les traitements acoustiques en prenant en compte les contraintes de design telles que la masse et les dimensions. A ce propos, une double-paroi représentative d'avion est modélisée par la méthode de l'analyse statistique énergétique (SEA). Des excitations académiques telles que le champ diffus et la force ponctuelle sont utilisées et des tendances sont données pour des applications sous excitation aérodynamique, du type couche limite turbulente. Une première partie porte sur l'effet de compression d'une couche poreuse. Pour des applications aéronautiques, la compression de ce type de matériaux peut se produire lors de l'installation d'équipements et câbles. Elle est étudiée, de manière analytique et expérimentale, pour une simple-paroi recouverte par une couche de matériau fibreux. Le matériau est comprimé sur toute sa surface. Une réduction de la perte par transmission (TL) jusqu'à 5 dB est observée principalement en moyennes fréquences (autour de 800 Hz) lorsque l'épaisseur du poreux est comprimé de 50%. Cependant pour des cas plus réalistes, cet effet est supposé moins important pour une compression locale et plus faible. Dans une seconde partie, la transmission par les connections structurales entre panneaux est étudiée par une approche quadripolaire qui relie la paire force-vitesse de chaque côté du lien mécanique. La modélisation intègre la raideur dynamique mesurée par un banc d'essai dédié. La transmission structurale est par la suite validée avec des essais et intégrée au modèle de double-paroi comme un facteur de couplage entre panneaux. Comme les structures sont non-courbées, seule la transmission axiale est considérée. Enfin, les voies de transmission dominantes sont identifiées dans la gamme de fréquences entre 100 Hz et 10 kHz pour des double-parois sous champ diffus et sous excitation structurale ponctuelle. La transmission non-résonante est plus importante en basses fréquences (jusqu'à 1 kHz) alors que les parties structurale et aérienne dominent respectivement en moyennes et hautes fréquences. Une validation avec des résultats expérimentaux montre que le modèle est capable de prédire les changements au niveau de la transmission, causés par les différents couplages structuraux (couplage rigide, couplage via liens anti-vibratiles et découplage structural). Des différentes solutions en termes de traitement acoustique, comme par exemple l'absorption, l'amortissement et le découplage structural, peuvent par la suite être dérivées.
186

Étude des phénomènes de transport dans un réacteur catalytique pilote de type filaire

Fernandes Hipolito, Ana 26 November 2010 (has links) (PDF)
L'extrapolation des réacteurs catalytiques nécessite l'acquisition des données cinétiques sur des réacteurs à petite échelle dans les conditions opératoires industrielles. Le critère de dimensionnement utilisé lors de la réduction d'échelle est la conservation de la vitesse volumique horaire, ce qui conduit à des vitesses de circulation très faibles dans les réacteurs pilotes à lit-fixe. A ces vitesses, les flux de transfert de matière externes peuvent devenir limitant par rapport au flux de réaction. Dans ce contexte, une nouvelle géométrie de réacteur a été imaginée pour intensifier les transferts de matière et chaleur et pour augmenter les vitesses de circulation des fluides : le réacteur "filaire". Il s'agit d'un réacteur dont le diamètre est égal ou proche de celui des grains de catalyseur et avec un ratio longueur sur diamètre très élevé. Le principal objectif de cette thèse est de caractériser ce réacteur en termes d'hydrodynamique et de transferts de matière externes pour définir ses limites d'utilisation. En écoulement diphasique, ce réacteur est relativement piston et la rétention liquide est élevée, ce qui permet d'assurer un mouillage total du catalyseur. En ce qui concerne les vitesses des transferts de matière externe, celles-ci sont proches de celles d'un réacteur agité avec panier et sont supérieures à celles caractéristiques d'un réacteur pilote à lit-fixe conventionnel. Cette observation est liée à l'augmentation des vitesses locales du liquide et à la présence d'un écoulement du type Taylor modifié. En conclusion, le réacteur "filaire" constitue une alternative efficace aux réacteurs pilotes à lit-fixe pour l'étude de catalyseurs mis en forme.
187

Mesure du coefficient d 'absorption et de la diffusibilité thermique des fibres optiques par méthode photoacoustique.

Chardon, Dominique 10 June 1982 (has links) (PDF)
Non disponible
188

Ingénierie de mode en optique intégrée sur silicium sur isolant

Velha, Philippe 13 February 2008 (has links) (PDF)
Cette thèse porte sur la localisation et la manipulation de la lumière à l'échelle de la longueur d'onde. Les travaux ont d'abord porté sur des micro-cavités à grands facteurs de qualité (Q) intégrées sur des guides rubans reposant sur un substrat (SOI). L'optimisation des miroirs grâce à une ingénierie de mode basée sur l'adaptation des profils des modes, a permis d'obtenir des Q allant jusqu'à 60000 pour un volume modal de 0,6(lambda/n)3. Le confinement a pu être observé par microscopie en champ proche et nous avons montré qu'il était possible de contrôler ces cavités par une pointe SNOM. . Enfin, nous nous sommes intéressés aux modes lents en abordant de façon théorique l'injection efficace de la lumière dans un mode lent.
189

Étude de l'influence de la perte de masse sur l'évolution des anomalies d'abondance dans plusieurs types d'étoiles / A Study of the Effects of Mass Loss on the Evolution of Abundance Anomalies in Many Types of Stars

Vick, Mathieu 15 October 2010 (has links)
La diffusion atomique joue un rôle déterminant dans l'évolution d'étoiles de plusieurs types (Michaud 1970). Dans ces étoiles, la diffusion atomique est principalement régie par la compétition entre l'accélération gravitationnelle et les accélérations radiatives et peut par ce biais mener à de fortes anomalies d'abondances. À l'aide d'un modèle évolutif qui considère les accélérations radiatives de 28 espèces, il est possible de modéliser plusieurs types d'étoiles de Population I, incluant le Soleil (Turcotte et al. 1998a), les étoiles de type F (Turcotte et al. 1998b), les étoiles AmFm (Richer et al. 2000; Richard et al. 2001) et les étoiles de métallicité solaire ayant une masse entre 0.5 et 1.4 Msol (Michaud et al. 2004), ainsi que des étoiles de Pop II (Michaud et al. 2005). Cependant, les modèles qui ne considèrent que la diffusion atomique comme processus de transport dans les intérieurs stellaires génèrent des anomalies d'abondance plus grandes que celles observées pour les étoiles de type Am, Ap et HgMn. Dans ces étoiles, il y a donc un ou plusieurs autres processus qui peuvent influencer le transport de particules, tels la circulation méridionale, la turbulence et la perte de masse. L'objet de cet thèse est de contraindre l'importance de la perte de masse dans l'intérieur de plusieurs étoiles chimiquement particulières de Pop I et Pop II, tout en essayant de différencier ces effets par rapport à ceux reliés aux processus de mélange turbulents. / Atomic diffusion plays an important role in the evolution of many types of stars (Michaud 1970). In these stars, elemental migration is modulated by the competition between radiative accelerations and gravity, and can thus lead to important abundance anomalies both in the interior and at the surface of these stars. With a stellar evolution model which considers detailed particle transport with radiative accelerations for 28 elements, one can study the evolution of many types of stars of Pop II including the Sun (Turcotte et al. 1998a), F stars (Turcotte et al. 1998b), AmFm stars (Richer et al. 2000; Richard et al. 2001), as well as less massive stars (0.5 to 1.4 Msol) with solar metallicity (Michaud et al. 2004). Furthermore, such a model can also look into the evolution of Pop II chemically peculiar stars (Michaud et al. 2005). However, models which consider atomic diffusion as the sole process affecting particle transport lead to abundance anomalies which are greater than the ones observed. There is thus at least one macroscopic process which is preventing such large anomalies to appear at the surface. These processes include mass loss, meridional circulation and turbulence. The main goal of this thesis is to constrain the relative importance of mass loss in the interiors of many chemically peculiar stars of Pop I and Pop II, as well as to properly differentiate its effects from those generated by turbulent mixing processes.
190

Les prix bas en droit économique / Low prices in economic analysis of law

Lormières, Laetitia 18 December 2010 (has links)
Les prix bas suscitent de nombreux débats en droit économique. Bien que l'opportunité de leur régulation ne semble guère sujette à caution, la liberté de pratiquer une concurrence par les prix est indissociable de la liberté de commerce. Les prix bas apparaissent donc licites par principe. L'interdiction de la revente à perte fait alors figure d'exception en obligeant le législateur à déterminer un prix minimal. Lier cette prohibition au principe de non discrimination a longtemps présenté l'indéniable avantage de contourner une si flagrante difficulté. Cela a toutefois régulièrement mis le législateur au défi de concilier l'effectivité de la sanction avec la possibilité d'une réelle négociation des conditions de vente du fournisseur. La négociabilité retrouvée le place plus que jamais au défi de concilier cette effectivité avec la liberté contractuelle : puisque tout est déductible, tout doit être aisément justifiable et contrôlable. / Low prices have caused much controversy. Although the need of regulation is actually not an issue in economic analysis of law, the freedom to practise competition based on prices is linked to the freedom of trade. Consequently, low prices appear to be lawful as a rule. Prohibiting to resell at a loss is quite exceptional since it requires from the law-maker to fix a minimum price. Linking the prohibition to the principle of non-discrimination has allowed to get round such a problem for a long time. Nevertheless, it regularly challenged the law-maker to associate the effectiveness of the penalty with the possibility for the retailers to really negociate the suppliers' sales conditions. Removing the principle of non-discrimination challenges the law-maker to link the effectiveness of the penalty with the freedom of contracts, since everything is deductible, everything must be easily justified and controlled.

Page generated in 0.0374 seconds