• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 724
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8341
  • 2694
  • 2691
  • 1642
  • 1359
  • 1225
  • 866
  • 847
  • 823
  • 646
  • 587
  • 528
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Modélisation mathématique et courbes de croissance

Mir, Youness January 2015 (has links)
La modélisation mathématique est un outil largement employé dans plusieurs disciplines des sciences appliquées. En hydrologie, en biologie, en économie ainsi que d'autres domaines des sciences naturelles, sociales et humaines, le recours à la modélisation mathématique est une démarche de plus en plus fréquente. Par exemple, en hydrologie, plusieurs modèles mathématiques sont conçus pour décrire ou prédire la relation existante entre les hauteurs d'eau et les débits des rivières. Dans le cadre de cette thèse nous nous sommes intéressés au développement de nouveaux modèles permettant de modéliser les phénomènes de croissance qui nécessitent la présence d'une asymptote linéaire croissante ou curviligne. Pour atteindre cet objectif, l'idée de base a été d'utiliser quelques modèles parmi les plus répandus en pratique et de les modifier judicieusement (et simplement) de façon à introduire une asymptote soit linéaire soit curviligne tout en conservant leur unique point d'inflexion. La modification que nous avons introduite conserve aussi le caractère simple et continue de ces modèles ainsi que la forme lisse et croissante de leurs courbes. Nous obtenons ainsi des modèles qui répondent aux besoins de la modélisation lorsque les modèles standards échouent.
212

Imprégnation du bois assistée par des ondes de pression

Lagrandeur, Junior January 2010 (has links)
Cette recherche visait à développer un procédé d'imprégnation utilisant des ondes de choc pour teindre du bois franc. D'importants progrès ont été réalisés à cet égard dans le projet. Tout d'abord, un modèle théorique a montré que les ondes de choc augmentent la pénétration dans un milieu poreux de perméabilité constante, mais seulement si le liquide utilisé est rhéofluidifiant. De plus, les ondes de choc semblent atténuer les variations de perméabilité, ce qui permettrait de teindre des espèces moins perméables et de donner au bois un fini plus uniforme. En second lieu, les essais expérimentaux réalisés sur des échantillons de merisier dans un tube à choc ont confirmé que les ondes de choc imprègnent efficacement le bois. Effectivement, il a été démontré qu'une augmentation du nombre de tirs et de l'amplitude des chocs améliore l'imprégnation sous certaines conditions. De plus, les ondes de choc peuvent être combinées avec un prétraitement du bois aux micro-ondes pour une meilleure imprégnation. Cependant, la grande variabilité des résultats entre chaque série de mesure ne permet pas de prédire la pénétration en fonction des conditions du choc, possiblement parce que l'efficacité du procédé dépend du taux d'humidité du bois. Finalement, deux mécanismes sont proposés pour expliquer l'effet bénéfique des ondes de choc sur l'imprégnation. Premièrement, l'augmentation importante de la pression causée par l'onde de choc pourrait endommager la microstructure du bois, en augmentant sa perméabilité. Cependant, cette hypothèse n'a pu être validée. Ensuite, comme la teinture a un comportement rhéofluidifiant, les chocs réduisent possiblement sa viscosité. Cette hypothèse rejoint les conclusions obtenues grâce au modèle théorique et elle explique plusieurs résultats des essais expérimentaux.
213

Analyse comparative de cas de rupture de barrage avec les logiciels NWS FLDWAV et HEC RAS

Heimrich, Alexandre January 2009 (has links)
Most dam break studies require complex numerical simulations and advanced knowledge in hydraulics. A number of programs are available to perform these simulations and the choice regarding the software to be used must be done within the resources available and the complexity of the problem to be addressed. It remains that this choice is also influenced by the experience and by the knowledge of the analyst. This study reports the simulations results of a comparative study performed for three (3) cases of varying complexity with the software NWS FLDWAV and HEC RAS. Thus, the rupture of a dam in a rectangular channel with uniform characteristics showed that both of the software allows obtaining almost identical results. The other two cases associated with the historical failure of Teton Dam (Idaho, United States) and the combined failure of Drummond and Rock Forest dams (Québec, Canada) showed significant differences in dam breach flow rates and maximum tailwater levels. A comparative analysis of the results leads to recommendations intended for users of these softwares.
214

Modélisation et conception de microrésonateurs piézoélectriques pour la récupération d'énergie vibratoire

Dompierre, André January 2011 (has links)
Ce mémoire présente une méthodologie pour la conception de résonateurs piézoélectriques destinés à la transformation de l'énergie des vibrations en électricité. Cette méthodologie incorpore l'effet du couplage piézoélectrique, considère une vaste gamme de géométries, ainsi que les limites reliées à la contrainte induite sur la structure pour guider le dimensionnement des couches piézoélectriques. Tout d'abord, un modèle analytique a été développé afin d'évaluer le comportement des poutres en porte-à-faux composites soumises à des forces inertielles. Celui-ci utilise les hypothèses d'Euler-Bernoulli pour déterminer le comportement et les paramètres d'influence de la géométrie continue.Ce modèle a ensuite été réduit autour du mode fondamental à l'aide des coefficients et des paramètres équivalents pertinents. Par cette approche, de nouvelles expressions compactes, mais rigoureuses pour évaluer le déplacement, la tension, le courant et la puissance ont été formulées. Il a été démontré que l'effet piézoélectrique affecte la dynamique du résonateur comme une raideur et un amortissement électriques qui agissent simultanément. L'analyse de cette dynamique couplée a permis de reconfirmer formellement que l'amortissement électrique doit être équivalent à l'amortissement mécanique pour optimiser la puissance produite.Ce principe est utilisé afin de déterminer la charge électrique optimale et pour définir un nouveau critère comparatif des matériaux, le critère de couplage critique. Utilisé conjointement avec une démarche permettant d'isoler l'effet de la géométrie sur le couplage, ce critère est aussi utile pour le dimensionnement des couches piézoélectriques. Il permet d'évaluer le besoin du couplage pour optimiser les performances à partir du niveau d'amortissement mécanique intrinsèque du système.Ce critère démontre donc que la diminution de l'amortissement mécanique est prioritaire, car elle permet d'améliorer la puissance par unité de masse tout en éliminant la nécessité d'employer des matériaux à fort couplage ou des couches piézoélectriques épaisses. Les études paramétriques menées démontrent que les gains de performance importants sont effectivement reliés au dimensionnement de la couche dans la région de couplage sous critique, mais aussi principalement grâce à une augmentation du facteur de qualité de la structure. Il faut également minimiser la longueur de la poutre et maximiser sa masse sismique pour optimiser la puissance produite à une fréquence de résonance donnée, car ceci maximise la contrainte induite. La méthodologie proposée permet finalement de dimensionner des résonateurs piézoélectriques dans une perspective réaliste qui tient compte de la contrainte maximale et de son effet sur la fiabilité à long terme. Celle-ci a mis en évidence qu'outre le niveau de puissance visée ou les caractéristiques de la source de vibration disponible, c'est le niveau d'amortissement mécanique qui guide les spécifications géométriques obtenues. L'atténuation des pertes mécaniques devrait alors guider tous les choix de conception pour permettre de miniaturiser la masse. Ceci a par contre un effet sur la longueur requise pour limiter la contrainte induite, ce qui démontre qu'un compromis entre les performances et le coût est inévitable. Cela dit, il semble réaliste de viser des puissances de l'ordre de 1 à 10 [micro]W pour un microsystème électromécanique soumis à une source de vibration de 0.1 G d'amplitude dans une plage de 150 Hz à 1.5 kHz.
215

Modélisation des chaînes d'acquisition pour améliorer l'identification des cristaux du LabPET

Lemieux, François January 2012 (has links)
La tomographie d'émission par positrons (TEP) dédiée aux petits animaux est une technique d'imagerie métabolique très utile pour la recherche biomédicale en raison de la grande similitude du génome de la souris transgénique à celui de l'humain. Cette imagerie, de type fonctionnelle, est généralement couplée à une imagerie anatomique comme la tomodensitométrie (TDM) pour améliorer les diagnostics. C'est dans cette sphère de recherche que des travaux sont menés à Sherbrooke pour intégrer les deux modalités d'imagerie en utilisant les mêmes détecteurs et la même chaîne électronique basée sur des photodiodes à avalanche (PDA). Le premier scanner de cette génération est appelé le LabPET. Le LabPET est disponible avec 1536, 3072 ou 4608 PDA selon la longueur axiale. Malgré un rapport signal/bruit plus faible que d'autres capteurs, les PDA, couplées individuellement aux paires de cristaux, permettent d'obtenir une excellente résolution spatiale et un faible temps mort. Par contre, comme deux cristaux dont les constantes de décroissante sont différentes sont couplés à la même PDA, une identification est requise pour localiser l'interaction du rayonnement gamma et obtenir la bonne ligne de réponse. Actuellement, un filtre adaptatif avec un modèle unique de référence de la chaîne électronique pour tout le scanner permet de retrouver la fonction de transfert du cristal avec un taux d'erreur pouvant atteindre moins de 1%. Le modèle de référence contient toutes les informations connues a priori de la chaîne d'acquisition. Le modèle unique pour tout le scanner est correct comme preuve de faisabilité, mais s'avère en pratique non représentatif à cause de la variabilité des détecteurs et des composants électroniques. Un modèle non approprié dégrade l'identification globale des cristaux, ce qui affecte la résolution d'image. Ce projet de maîtrise vise à pallier ce problème en calculant automatiquement un modèle personnalisé pour chaque canal. Quatre algorithmes basés sur différentes minimisations de la fonction de coût, soit le filtre de Wiener, la maximisation de la ressemblance, la minimisation du biais temporel et la minimisation du taux d'erreur, ont été développés et caractérisés comme modèle individuel du canal. Le premier est un algorithme standard pour modéliser un signal, le second ressemble beaucoup au filtre de Wiener, mais avec quelques approximations en moins. Le troisième utilise de l'information connue a priori sur les cristaux et le dernier maximise directement l'identification des cristaux. Un taux d'erreur d'identification de cristaux pour le modèle unique de la chaîne d'acquisition dans le scanner LabPET 4-cm de Sherbrooke est d'environ 3,53 % pour une fenêtre en énergie de 350-650 keV. Les nouveaux modèles personnalisés des chaînes ont obtenu respectivement des taux d'erreurs de plus de 10 %, 3,66 %, 2,96 % et 1,45 % en fonction des algorithmes présentés précédemment. Ainsi, il devient évident qu'un modèle individuel et optimal pour chaque canal permet d'améliorer le taux d'erreur moyen pour le scanner, et ce, sans changer l'architecture matérielle ou logicielle, mais au dépend d'un temps de calibration plus longue.
216

Modélisation physique et numérique de la mise en place des colonnes ballastées dans un sable fin

Hurley, Olivier January 2014 (has links)
L’amélioration des sols par la technique de vibrosubstitution est habituellement utilisée pour les sols cohésifs, mais peut toutefois être utilisée dans les sols pulvérulents avec potentiel de liquéfaction. Cette technique permet la création d’un réseau de colonnes ballastées (CB) qui réduit le tassement et augmente la capacité portante d’un sol. L'intérêt est certes bien affiché. En effet, Geopac Inc. (entreprise spécialisée) se propose d'évaluer sa méthode d'amélioration des sols par CB en vue de réduire (voire éliminer) le potentiel de liquéfaction des sols grenus. Geopac a fait recours à une collaboration avec l'UdeS pour analyser expérimentalement et numériquement l'influence de la mise en place des CB sur les propriétés d'un sol pulvérulent. Un programme expérimental a été élaboré dans le but d’étudier l’effet de la mise en place des CB sur le sol encaissant par cette technique. À cet effet, un modèle réduit unique a été conçu, instrumenté et calibré à l’UdeS pour permettre dans un premier temps, de simuler l’incorporation de pierre nette (ballast) dans un sol lâche non saturé tout en maintenant une contrainte verticale et en mesurant la contrainte latérale générée durant l’incorporation. Le modèle réduit permet l’étude de l’expansion de cavité telle qu’obtenue durant la construction des CB par vibrosubstitution. Les colonnes sont construites à l’intérieur d’une cellule de PVC de 600 mm de haut et de 382 mm de diamètre. Un total de trois colonnes ballastées ont été construites sous une contrainte de 60, 80 et 100 kPa respectivement représentant un taux d’incorporation de près de 4 %. L’incorporation démontre une augmentation de la pression latérale caractérisée par le coefficient de pression latérale K jusqu’à 1.37 et une augmentation de la densité de 44 % à 55 % en moyenne. Une modélisation numérique a ensuite permis de confirmer les résultats expérimentaux et de vérifier le comportement du montage expérimental. La modélisation numérique a été réalisée avec le logiciel PLAXIS 2D 2012 en axisymétrie de révolution et considérant une loi comportementale de type Hardening Soil Model pour le sol encaissant et de type Mohr-Coulomb pour la colonne de pierre. La modélisation numérique a permis de déterminer que la forme de la contrainte verticale sur le sol est parabolique, c’est-à-dire maximale au centre et nulle à l’interface sol-paroi. L’expansion du sol a été simulée par l’imposition d’une déformation volumique anisotropique en cinq couches dans le sens radial et circonférentiel équivalent aux dimensions de la colonne obtenue expérimentalement. Les résultats numériques ont démontré une erreur de < 1 % pour la CB #1, de pour la CB #2 et de < 30 % pour la CB #3. L’erreur rencontrée sur la dernière colonne effectuée sous une contrainte verticale de 60 kPa peut-être associés à une mesure erronée lors de l'expérimentation. L’obtention des résultats expérimentaux par modélisation numérique a confirmé la fonctionnalité du montage expérimental et de la procédure de construction des CB en laboratoire. Cela ouvre la porte à des études subséquentes de l’effet de la mise en place des CB sur le sol encaissant en incorporant la vibration et la saturation du sable reproduisant la technique de vibrosubstitution.
217

Modélisation aérothermique pour la gestion de la chaleur sous capot d'une motoneige

Bari, François January 2016 (has links)
Les problématiques liées à la gestion de la chaleur sous capot sont importantes lors du développement de nouveaux véhicules terrestres. Jusqu’à maintenant, les approches les plus courantes pour les caractériser et s’assurer du bon comportement des véhicules étaient principalement expérimentales. Les test sont de plus en plus remplacés par des modèles numériques permettant un gain financier et de temps considérable. L’approche numérique est désormais répandue dans l’industrie automobile, et on l’applique ici dans le cas d’une motoneige afin de caractériser son comportement aérothermique, à l’aide de l’outil CFD. L’utilisation du modèle, validé à l’aide d’essais sur le terrain, permet alors l’optimisation des paramètres influençant la gestion thermique, et ainsi l’harmonisation des traitements acoustiques appliqués en vue d’une réduction de bruit tout en respectant les besoins de refroidissement de ces appareils.
218

Combustion à la ferme de cultures énergétiques : influence de leurs propriétés physico-chimiques sur les émissions atmosphériques, prédiction de la composition des gaz et cadre de qualité de la biomasse agricole

Fournel, Sébastien January 2015 (has links)
Le monde agricole québécois a actuellement la volonté de mettre en place une filière biomasse pour la production de chaleur à la ferme. Toutefois, la législation sur la qualité de l’air du Québec ne permet pas de valoriser aisément des cultures énergétiques à cette fin. Dans la littérature, le manque de facteurs d’émission en lien avec la combustion de biomasses lignocellulosiques limite l’actualisation du règlement, plutôt contraignant dans le moment, pour répondre aux besoins du milieu. Par ailleurs, la variabilité des propriétés physico-chimiques des plantes agricoles rend le dossier encore plus complexe. Le présent projet visait donc à quantifier l’influence des caractéristiques (espèce, composition chimique, date de récolte, forme, etc.) des cultures dédiées ayant le meilleur potentiel de développement au Québec sur les émissions atmosphériques (particules et gaz) lors de la combustion à la ferme. Une revue critique de la littérature a d’abord ciblé, en plus du bois (référence), quatre biomasses agricoles d’intérêt : le saule à croissance rapide, le panic érigé, le miscanthus et l’alpiste roseau. Ces cultures pérennes ont ensuite été acquises de divers producteurs selon la forme du produit (copeaux, granules ou vrac) et sa date de récolte (automne ou printemps). Au total, 12 différentes biomasses ont été brûlées dans une chaudière multi-combustible de 29 kW au Laboratoire sur les énergies en agriculture durable (LEAD) de l’Institut de recherche et de développement en agroenvironnement (IRDA). Au cours de 36 essais expérimentaux (3 répétitions), les paramètres d’opération (masse du combustible, températures de la chambre, de l’effluent gazeux et de l’eau de l’échangeur de chaleur, débits des gaz et du fluide caloporteur, etc.) et les concentrations de 11 gaz (CO, CO[indice inférieur 2], CH[indice inférieur 4], N[indice inférieur 2]O, NO, NO[indice inférieur 2], NH[indice inférieur 3], SO[indice inférieur 2], HCl, H[indice inférieur 2]O et O[indice inférieur 2]) ont été mesurés en continu. Les matières particulaires ont aussi été échantillonnées pour chaque test de combustion à l’aide de la Méthode 5 de l’United States Environmental Protection Agency (USEPA). Au final, aucune des biomasses n’a respecté les valeurs limites de particules décrites par la règlementation environnementale québécoise avec le système de combustion utilisé. Des contraintes technologiques et la vaste gamme de biomasses sélectionnées ont compliqué l’ajustement des conditions optimales d’opération pour chaque combustible. Néanmoins, plusieurs tendances ont été soulevées. Le bois, étant donné ses faibles teneurs en éléments inorganiques, a produit moins de polluants que les plantes à vocation énergétique. Dans leur cas, leurs émissions particulaires et gazeuses ont généralement été proportionnelles à leurs contenus en azote, en soufre, en chlore, en métaux alcalins et en cendres. C’est ce qui explique que le lessivage causé par la fonte des neiges et subi par une culture récoltée au printemps ait entraîné une diminution importante des rejets atmosphériques. De plus, la granulation, qui permet en densifiant et en homogénéisant le produit de mieux contrôler le procédé, a engendré une baisse des composés issus d’une combustion incomplète. L’analyse de l’impact des propriétés physico-chimiques des cultures sur les émissions lors de la combustion a mené à l’établissement d’un cadre potentiel de certification de la qualité de la biomasse agricole. Un modèle de prédiction de la composition des gaz, basé sur la notion d’équilibre thermodynamique et la minimisation de l’énergie libre de Gibbs, a également été développé pour estimer rapidement les rejets de combustion de toute biomasse et ainsi faciliter son classement à l’intérieur du cadre proposé.
219

Simplification de modèles mathématiques représentant des cultures cellulaires

Cardin-Bernier, Guillaume January 2015 (has links)
L’utilisation de cellules vivantes dans un procédé industriel tire profit de la complexité inhérente au vivant pour accomplir des tâches complexes et dont la compréhension est parfois limitée. Que ce soit pour la production de biomasse, pour la production de molécules d’intérêt ou pour la décomposition de molécules indésirables, ces procédés font appel aux multiples réactions formant le métabolisme cellulaire. Afin de décrire l’évolution de ces systèmes, des modèles mathématiques composés d’un ensemble d’équations différentielles sont utilisés. Au fur et à mesure que les connaissances du métabolisme se sont développées, les modèles mathématiques le représentant se sont complexifiés. Le niveau de complexité requis pour expliquer les phénomènes en jeu lors d’un procédé spécifique est difficile à définir. Ainsi, lorsqu’on tente de modéliser un nouveau procédé, la sélection du modèle à utiliser peut être problématique. Une des options intéressantes est la sélection d’un modèle provenant de la littérature et adapté au procédé utilisé. L’information contenue dans le modèle doit alors être évaluée en fonction des phénomènes observables dans les conditions d’opération. Souvent, les modèles provenant de la littérature sont surparamétrés pour l’utilisation dans les conditions d’opération des procédés ciblées. Cela fait en sorte de causer des problèmes d’identifiabilité des paramètres. De plus, l’ensemble des variables d’état utilisées dans le modèle n’est pas nécessairement mesuré dans les conditions d’opération normales. L’objectif de ce projet est de cibler l’information utilisable contenue dans les modèles par la simplification méthodique de ceux-ci. En effet, la simplification des modèles permet une meilleure compréhension des dynamiques à l’oeuvre dans le procédé. Ce projet a permis de définir et d’évaluer trois méthodes de simplification de modèles mathématiques servant à décrire un procédé de culture cellulaire. La première méthode est basée sur l’application de critères sur les différents éléments du modèle, la deuxième est basée sur l’utilisation d’un critère d’information du type d’Akaike et la troisième considère la réduction d’ordre du modèle par retrait de variables d’état. Les résultats de ces méthodes de simplification sont présentés à l’aide de quatre modèles cellulaires provenant de la littérature.
220

Modélisation des attributs de la fibre de bois à l’échelle locale à partir de métriques extraites du signal LiDAR terrestre : cas d’étude sur les forêts de conifères de Terre-Neuve.

Blanchette, Danny January 2015 (has links)
La capacité d’estimer les attributs de la fibre de bois (AFB) à l’échelle locale améliorerait considérablement l’information fournie par l’inventaire forestier actuel. Afin de mieux comprendre les facteurs d’influence sur les AFB, nous avons exploré la possibilité d’utiliser des estimés par télédétection de la structure forestière à l’échelle du groupement d’arbres et vérifier leur relation avec quatre AFB significatifs pour l’industrie : la densité et longueur de fibre, l’angle des microfibrilles de même que la rugosité. Notre étude a permis le développement de modèles prédictifs de ces quatre attributs en utilisant des métriques de structure en provenance de peuplements d’épinette noire (Picea mariana) et de sapin baumier (Abies Balsamea). Les métriques sélectionnées permettent de décrire quatre aspects structuraux de la forêt : la structure de canopée, la compétition dans un groupement d’arbres, la densité de végétation et la topographie locale. Des données LiDAR terrestre (Light Detection and Ranging) ont été acquises sur 53 sites répartis sur l’île de Terre-Neuve à l’aide du système Zoller+Fröhlich Imager 5006i et représentent la source d’information primaire pour l’extraction de nos métriques. Des échantillons par carottage ont été prélevés sur 10 arbres jugés représentatifs par site visité. Leur analyse par le processus SilviScan a permis de relever en détail l’état de leurs AFB. L’utilisation du critère d’information Akaike (AIC) et l’inférence multimodèle a permis d’identifier des modèles prédictifs ayant des coefficients de détermination allant de 63% à 72% dans le cas de l’épinette noire. Les métriques de structure traduisant l’aspect de compétition ont été identifiées comme étant d’importants prédicteurs. La capacité de prédiction des AFB pour le sapin baumier a toutefois été démontrée moins considérable avec des coefficients de détermination allant de 37% à 63% selon les attributs. Pour cette espèce, les métriques traduisant la structure de la canopée se sont avérées les plus importantes. Nos résultats démontrent l’importance de la structure forestière comme indicateur important de l’état des AFB et qu’ils peuvent servir dans la mise en place de modèles prédictifs pour estimer la distribution des AFB à l’échelle régionale.

Page generated in 0.0778 seconds