• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1671
  • 708
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8321
  • 2691
  • 2688
  • 1642
  • 1359
  • 1222
  • 866
  • 846
  • 823
  • 646
  • 582
  • 526
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Combustion à la ferme de cultures énergétiques : influence de leurs propriétés physico-chimiques sur les émissions atmosphériques, prédiction de la composition des gaz et cadre de qualité de la biomasse agricole

Fournel, Sébastien January 2015 (has links)
Le monde agricole québécois a actuellement la volonté de mettre en place une filière biomasse pour la production de chaleur à la ferme. Toutefois, la législation sur la qualité de l’air du Québec ne permet pas de valoriser aisément des cultures énergétiques à cette fin. Dans la littérature, le manque de facteurs d’émission en lien avec la combustion de biomasses lignocellulosiques limite l’actualisation du règlement, plutôt contraignant dans le moment, pour répondre aux besoins du milieu. Par ailleurs, la variabilité des propriétés physico-chimiques des plantes agricoles rend le dossier encore plus complexe. Le présent projet visait donc à quantifier l’influence des caractéristiques (espèce, composition chimique, date de récolte, forme, etc.) des cultures dédiées ayant le meilleur potentiel de développement au Québec sur les émissions atmosphériques (particules et gaz) lors de la combustion à la ferme. Une revue critique de la littérature a d’abord ciblé, en plus du bois (référence), quatre biomasses agricoles d’intérêt : le saule à croissance rapide, le panic érigé, le miscanthus et l’alpiste roseau. Ces cultures pérennes ont ensuite été acquises de divers producteurs selon la forme du produit (copeaux, granules ou vrac) et sa date de récolte (automne ou printemps). Au total, 12 différentes biomasses ont été brûlées dans une chaudière multi-combustible de 29 kW au Laboratoire sur les énergies en agriculture durable (LEAD) de l’Institut de recherche et de développement en agroenvironnement (IRDA). Au cours de 36 essais expérimentaux (3 répétitions), les paramètres d’opération (masse du combustible, températures de la chambre, de l’effluent gazeux et de l’eau de l’échangeur de chaleur, débits des gaz et du fluide caloporteur, etc.) et les concentrations de 11 gaz (CO, CO[indice inférieur 2], CH[indice inférieur 4], N[indice inférieur 2]O, NO, NO[indice inférieur 2], NH[indice inférieur 3], SO[indice inférieur 2], HCl, H[indice inférieur 2]O et O[indice inférieur 2]) ont été mesurés en continu. Les matières particulaires ont aussi été échantillonnées pour chaque test de combustion à l’aide de la Méthode 5 de l’United States Environmental Protection Agency (USEPA). Au final, aucune des biomasses n’a respecté les valeurs limites de particules décrites par la règlementation environnementale québécoise avec le système de combustion utilisé. Des contraintes technologiques et la vaste gamme de biomasses sélectionnées ont compliqué l’ajustement des conditions optimales d’opération pour chaque combustible. Néanmoins, plusieurs tendances ont été soulevées. Le bois, étant donné ses faibles teneurs en éléments inorganiques, a produit moins de polluants que les plantes à vocation énergétique. Dans leur cas, leurs émissions particulaires et gazeuses ont généralement été proportionnelles à leurs contenus en azote, en soufre, en chlore, en métaux alcalins et en cendres. C’est ce qui explique que le lessivage causé par la fonte des neiges et subi par une culture récoltée au printemps ait entraîné une diminution importante des rejets atmosphériques. De plus, la granulation, qui permet en densifiant et en homogénéisant le produit de mieux contrôler le procédé, a engendré une baisse des composés issus d’une combustion incomplète. L’analyse de l’impact des propriétés physico-chimiques des cultures sur les émissions lors de la combustion a mené à l’établissement d’un cadre potentiel de certification de la qualité de la biomasse agricole. Un modèle de prédiction de la composition des gaz, basé sur la notion d’équilibre thermodynamique et la minimisation de l’énergie libre de Gibbs, a également été développé pour estimer rapidement les rejets de combustion de toute biomasse et ainsi faciliter son classement à l’intérieur du cadre proposé.
212

Simplification de modèles mathématiques représentant des cultures cellulaires

Cardin-Bernier, Guillaume January 2015 (has links)
L’utilisation de cellules vivantes dans un procédé industriel tire profit de la complexité inhérente au vivant pour accomplir des tâches complexes et dont la compréhension est parfois limitée. Que ce soit pour la production de biomasse, pour la production de molécules d’intérêt ou pour la décomposition de molécules indésirables, ces procédés font appel aux multiples réactions formant le métabolisme cellulaire. Afin de décrire l’évolution de ces systèmes, des modèles mathématiques composés d’un ensemble d’équations différentielles sont utilisés. Au fur et à mesure que les connaissances du métabolisme se sont développées, les modèles mathématiques le représentant se sont complexifiés. Le niveau de complexité requis pour expliquer les phénomènes en jeu lors d’un procédé spécifique est difficile à définir. Ainsi, lorsqu’on tente de modéliser un nouveau procédé, la sélection du modèle à utiliser peut être problématique. Une des options intéressantes est la sélection d’un modèle provenant de la littérature et adapté au procédé utilisé. L’information contenue dans le modèle doit alors être évaluée en fonction des phénomènes observables dans les conditions d’opération. Souvent, les modèles provenant de la littérature sont surparamétrés pour l’utilisation dans les conditions d’opération des procédés ciblées. Cela fait en sorte de causer des problèmes d’identifiabilité des paramètres. De plus, l’ensemble des variables d’état utilisées dans le modèle n’est pas nécessairement mesuré dans les conditions d’opération normales. L’objectif de ce projet est de cibler l’information utilisable contenue dans les modèles par la simplification méthodique de ceux-ci. En effet, la simplification des modèles permet une meilleure compréhension des dynamiques à l’oeuvre dans le procédé. Ce projet a permis de définir et d’évaluer trois méthodes de simplification de modèles mathématiques servant à décrire un procédé de culture cellulaire. La première méthode est basée sur l’application de critères sur les différents éléments du modèle, la deuxième est basée sur l’utilisation d’un critère d’information du type d’Akaike et la troisième considère la réduction d’ordre du modèle par retrait de variables d’état. Les résultats de ces méthodes de simplification sont présentés à l’aide de quatre modèles cellulaires provenant de la littérature.
213

Modélisation des attributs de la fibre de bois à l’échelle locale à partir de métriques extraites du signal LiDAR terrestre : cas d’étude sur les forêts de conifères de Terre-Neuve.

Blanchette, Danny January 2015 (has links)
La capacité d’estimer les attributs de la fibre de bois (AFB) à l’échelle locale améliorerait considérablement l’information fournie par l’inventaire forestier actuel. Afin de mieux comprendre les facteurs d’influence sur les AFB, nous avons exploré la possibilité d’utiliser des estimés par télédétection de la structure forestière à l’échelle du groupement d’arbres et vérifier leur relation avec quatre AFB significatifs pour l’industrie : la densité et longueur de fibre, l’angle des microfibrilles de même que la rugosité. Notre étude a permis le développement de modèles prédictifs de ces quatre attributs en utilisant des métriques de structure en provenance de peuplements d’épinette noire (Picea mariana) et de sapin baumier (Abies Balsamea). Les métriques sélectionnées permettent de décrire quatre aspects structuraux de la forêt : la structure de canopée, la compétition dans un groupement d’arbres, la densité de végétation et la topographie locale. Des données LiDAR terrestre (Light Detection and Ranging) ont été acquises sur 53 sites répartis sur l’île de Terre-Neuve à l’aide du système Zoller+Fröhlich Imager 5006i et représentent la source d’information primaire pour l’extraction de nos métriques. Des échantillons par carottage ont été prélevés sur 10 arbres jugés représentatifs par site visité. Leur analyse par le processus SilviScan a permis de relever en détail l’état de leurs AFB. L’utilisation du critère d’information Akaike (AIC) et l’inférence multimodèle a permis d’identifier des modèles prédictifs ayant des coefficients de détermination allant de 63% à 72% dans le cas de l’épinette noire. Les métriques de structure traduisant l’aspect de compétition ont été identifiées comme étant d’importants prédicteurs. La capacité de prédiction des AFB pour le sapin baumier a toutefois été démontrée moins considérable avec des coefficients de détermination allant de 37% à 63% selon les attributs. Pour cette espèce, les métriques traduisant la structure de la canopée se sont avérées les plus importantes. Nos résultats démontrent l’importance de la structure forestière comme indicateur important de l’état des AFB et qu’ils peuvent servir dans la mise en place de modèles prédictifs pour estimer la distribution des AFB à l’échelle régionale.
214

Étude de l’estimation de paramètres structuraux de la forêt à l’aide d’un cadre de modélisation, de la photographie hémisphérique et du LiDAR.

Leblanc, Sylvain January 2014 (has links)
Résumé : La disponibilité des données des sites expérimentaux en forêt est limitée et ces données possèdent parfois de grandes erreurs de mesures. De plus les attributs de la forêt, comme la densité du feuillage, sont difficiles à estimer et à valider. Pour résoudre ce problème, nous avons conçu une étude en cinq volets : le premier volet a été de développer un cadre de modélisation pour la simulation tridimensionnelle de scènes en forêts, rendus avec le gratuiciel POV-Ray (www.povray.org). Pour ce projet, 75 peuplements ont été créés avec trois distributions angulaires des feuilles : aléatoire, érectophile et planophile. Le cadre de modélisation permet la réalisation de scènes avec un gradient de valeur précise des attributs de l’architecture de la forêt qui sont parfois difficile à mesurer. Comme deuxième volet, le cadre de modélisation est utilisé pour évaluer des méthodes existantes d’estimation de l'indice de surface totale et foliaire (IST et ISF) et de la fermeture du couvert (FC) à partir de la photographie hémisphérique (PH). Dix PHs simulées par scènes ont été analysé pour en extraire l'IST qui comprend les feuilles et les matières ligneuses (par exemple les troncs et les branches) et les résultats ont montrés que l'intégrale tronquée de Miller (10º à 65º au zénith) et l’estimation près de 57,3º (55º à 60º) sont très semblables avec des facteurs de corrélation (R[indice supérieur 2]) de plus de 0,9 entre eux. Les résultats montrent aussi que l’IST et l’ISF sont mieux estimés par rapport aux valeurs d'entrées lorsque le groupage des feuilles est considéré. En outre, le groupage considéré avec la méthode CLX-45 (pour angles de visée de 55º à 60º), a été estimé avec un R[indice supérieur 2] de 0,66, ainsi qu’une erreur RMS de 1,0 unité (23%). Les estimations de la FC près du zénith avec dix PHs étaient très bonnes avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 9 %. En troisième volet, le cadre de modélisation a été utilisé pour simuler des données de LiDAR terrestre et aéroporté. Un nouvel algorithme (LF) d’extraction de l’ISF, basé sur la méthode CLX et adaptée aux données LiDARs, a été présenté et testé sur ces données virtuelles. Les résultats de l’estimation de l’ISF sur les données TLS simulées nous montrent qu’avec la meilleur combinaison des paramètres de la méthode LF, les données TLS ont un grand potentiel pour la mesure de l’ISF avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 0,7 (20 %). Donc une amélioration du R[indice supérieur 2] de 0,17 et une diminution de l’erreur RMS de 0,3 unité (3 %) par rapport aux résultats de la PH. Le même algorithme a aussi été testé sur des données LiDAR aéroportés simulées sur les même 75 scènes virtuelles et a donnée un R[indice supérieur 2] de 0,85 et une erreur RMS de 0,6 (20 %) à l’angle de visée de 55º mais seulement un R[indice supérieur 2] de 0,18 et une erreur RMS de 2,2 (58 %) à l’angle de visée de 5º. Puis, en quatrième volet, le nouvel algorithme à été testé sur des données TLS et ALS sur la réserve de Matane, Québec. Comme cinquième et dernier volet, nous avons exploré en détails les méthodes d’évaluation de l’IST, et surtout du groupage du feuillage afin de mieux comprendre les causes et limites des erreurs mesurées. Nos résultats pour ce dernier volet ont montrés que la densité du feuillage à l’intérieur des houppiers est un facteur important dans la sous-estimation de l’IST avec la méthode CCL et que la grandeur des segments en rapport avec l’ISF détermine le nombre de segments sans trouée où la moyenne logarithmique est un problème. De plus, la difficulté à mesurer l’ISF au nadir a été démontré avec les ALS, suggérant ainsi que l’ISF soit estimé à des angles proches de 57,3º autant avec les données sur le terrain (PH et TLS) qu’aéroportées (ALS). // Abstract : The availability of experimental data from forest sites is limited and may also have large measurement error. In addition, attributes such as foliage density, are difficult to estimate and validate. To address this problem, we designed a study in five parts: the first part was the development of a modeling framework for three-dimensional simulation of forest scenes, rendered with the freeware POV-Ray (www.povray.org). For this project, 75 simulated stands were created with angular distributions of random leaves, and erectophile and planophile. The framework allows the realization of scenes with the knowledge of architectural attributes of the forest that are sometimes difficult to measure. As a second component, the modeling framework is used to evaluate existing methods for estimating the total plant and leaf area index (PAI, LAI), and canopy closure from hemispherical photography (HP). Ten HPs are simulated per scene and were analyzed to extract the PAI which includes leaves and woody material (eg trunks and branches). The results have shown that the truncated integration Miller (10º to 65º in view zenith), and estimated from 55º to 60º are very similar with coefficient of determination (R[superscript 2])of more than 0.9. The results also show that PAI and LAI are better estimated with respect to the input when the grouping of the leaves is considered. In addition, the grouping method considered with the CLX method (for viewing angles of 55º to 60º), was estimated with an R[superscript 2] of 0.66 and an RMSE of 1.0 units (23 %). Canopy closure estimates near the zenith with 10 HPs were very good with an R[superscript 2] of 0.83 and an RMSE of 9%. As third component, the modeling framework was used to simulate terrestrial and airborne LiDAR data. A new LAI algorithm (LF), based on the CLX method adapted to LiDARs data was presented and tested on these virtual data. The new algorithm has been tested with simulated terrestrial LiDAR (TLS) data for the same 75 virtual scenes. The results show a great potential using TLS data and the best LF method combinations of parameters gave an R[superscript 2] of 0.83 and an RMS error of 0.7 (20 %), thus improving the R[superscript 2] by 0.17 and a reduction of the RMSE of 0.3 units (3 %). The same algorithm was also tested on simulated airborne LiDAR (ALS) data on the same 75 virtual scenes and gave an R[superscript 2] of 0.85 and an RMSE of 0.6 (20 %) at viewing angle of 55° but only an R[superscript 2] of 0.18 and an RMSE of 2.2 (58%) at the viewing angle of 5º. Then, in the fourth part, the new algorithm was tested on ALS and TLS data from the Matane Reserve, Quebec. As the fifth and final installment, we explore in detail the evaluation of the IST methods, and especially the grouping of foliage to better understand the causes and limits of measured errors. The density of foliage within crowns is an important factor in the underestimation of the LAI with the CCL method and the size of the segments with the LX based methods determines the number of segments without holes where the logarithmic mean is a problem. In addition, the difficulty in measuring the LAI at nadir has been demonstrated with ALS, suggesting that the LAI should be estimated at angles near 57.3º for both field data (HP and TLS) and airborne data (ALS).
215

Modélisation pour l'imagerie des composites par ondes guidées

Ostiguy, Pierre-Claude January 2016 (has links)
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
216

Maîtrise des risques dans les systèmes de transport : proposition d'une nouvelle approche de modélisation dynamique

Legros, Dominique 29 December 2009 (has links) (PDF)
A partir de la définition d'un paradigme espaces - processus énonçant que tout système peut se définir comme une combinaison espaces - processus, les espaces contenant toutes les conditions et moyens nécessaires à l'achèvement du processus, le travail proposé définit une approche modélisatrice permettant de conserver une démarche purement systémique depuis l'identification des concepts du système jusqu'au modèle de représentation. Ce paradigme exprimant simplement qu'un système peut être vu à travers le comportement des différentes propriétés des entités intervenantes, le mémoire va proposer une représentation unifiée de la propriété permettant la manipulation conceptuelle et sémantique. Une forme de représentation des comportements des propriétés sera ensuite proposée. Cette représentation sera définie à partir de l'expression d'un comportement sous forme d'expressions rationnelles; ces expressions étant elles-mêmes des suites de symboles représentatives des propriétés du système observé. Le mémoire montrera comment la forme de représentation proposée permet de retranscrire et d'exploiter simplement les comportements observés ou observables. Le mémoire montrera comment manipuler ces éléments et quelles propriétés s'en dégagent. En particulier, le premier objectif de ce travail est une application à la maîtrise des risques systèmes, on exploitera donc le modèle dans la recherche et l'identification de situations dangereuses mais aussi pour la capacité d'évaluation des critères d'occurrence par un transfert de l'espace de propriétés vers un espace de probabilités.
217

Modélisation de matériaux supraconducteurs : application à un limiteur de courant

Duron, Joseph 24 March 2006 (has links) (PDF)
L'objectif principal de cette thèse est la modélisation de matériaux supraconducteurs, et plus particulièrement, de ceux dits à haute température critique. Ce travail est divisé en deux parties distinctes : dans un premier temps, nous nous intéressons à la reconstruction de la distribution dynamique du courant dans la section d'un ruban supraconducteur à l'aide d'un modèle décrivant son comportement global. Ensuite, nous nous focalisons sur la modélisation électromagnétique et thermique par éléments finis des supraconducteurs en régime sur-critique, c'est à dire au-delà du courant critique Ic. Une introduction à la supraconductivité est faite dans le premier chapitre de ce travail, présentant les propriétés physiques principales que possède un matériau supraconducteur. Ensuite, nous décrirons les différents modèles existants permettant de décrire le comportement d'un échantillon supraconducteur. En se basant sur le modèle de Bean, nous proposons une nouvelle méthode permettant d'évaluer la distribution du courant dans la section d'un ruban monofilamentaire à partir de la mesure du profil magnétique à sa surface. Les résultats obtenus sont comparés avec ceux données par une modélisation certes plus précise, mais aussi plus complexe : l'utilisation de la méthode des éléments finis. Cette dernière sera largement utilisée dans la seconde partie de ce travail, qui traite de la modélisation de matériaux en régime sur-critique. Ceci nécessite d'introduire une formulation différente de l'habituelle loi de puissance Ec(J/Jc)^n pour décrire le comportement électrique du matériau dans une plage de courant plus importante, incluant les régimes sur-critiques. Pour cela, nous proposons une méthode originale, permettant d'approcher des mesures effectuées sur des échantillons d'YBCO et autorisant la description de la transition de l'état supraconducteur vers l'état normal. La dépendance en température a aussi été introduite afin d'étudier les phénomènes thermiques qui se produisent. Il est ainsi possible de résoudre de manière couplée les équations électromagnétiques et thermiques du problème : la résolution d'un pas de temps électromagnétique conduit à la connaissance des pertes locale. Ces pertes sont injectées dans le modèle thermique, et permet de calculer l'augmentation de température correspondante. Ce résultat est alors utilisé pour modifier les paramètres électriques en vue de la résolution du prochain pas de temps. Finalement, cette méthode a été utilisée afin de simuler le comportement d'un limiteur de courant supraconducteur. Le comportement global du système peut être reproduit par le modèle numérique implémenté, autorisant ainsi l'étude des variables locales, telles que la densité de courant ou le profil de température. Les résultats obtenus peuvent être utilisés afin d'optimiser les performances du dispositif selon des critères spécifiques. C'est ainsi que nous avons proposé une modification de la géométrie permettant d'éviter un possible emballement thermique qui pourrait conduire à la destruction du système. Sur la base de cette proposition, des modifications ont été apportées au design du dispositif, et sont actuellement testées.
218

La modélisation géostatistique de la variabilité spatiale et ses applications

Chilès, Jean-Paul 26 March 2004 (has links) (PDF)
La synthèse comporte trois parties. La première présente les modèles probabilistes développés en géostatistique pour décrire la variabilité de variables naturelles réparties dans l'espace, estimer leur valeur en dehors des points de mesure, construire des modèles numériques rendant compte de la variabilité spatiale, et caractériser l'incertitude des données et des modèles numériques. Elle couvre l'ensemble de la géostatistique qui s'est développée au long de la deuxième moitié du 20e siècle sous l'impulsion de Georges Matheron : analyse structurale (calcul et modélisation du variogramme), estimation linéaire (krigeage), modèles non stationnaires, méthodes multivariables, changement de support et méthodes non linéaires (krigeage disjonctif), simulations conditionnelles, effet d'échelle et problèmes inverses. Les différentes méthodes géostatistiques sont mises en perspective en présentant à la fois les aspects théoriques et pratiques. Des applications réelles sont présentées, comme une modélisation des formations géologiques pour le tunnel sous la Manche et la comparaison entre prédiction et réalité. La seconde partie présente les développements réalisés pour la modélisation stochastique des milieux fracturés, et principalement pour la modélisation de réseaux de fractures à partir d'observations en forage ou sur affleurement. Deux modèles très flexibles ont été développés à partir d'observations de sites réels, l'un pour les granites (disques aléatoires éventuellement en salves ou à densité régionalisée), l'autre pour des milieux sédimentaires stratifiés (modèle hiérarchique). Des méthodes d'identification des paramètres sont proposées, ainsi que des méthodes de simulation conditionnelle. Les effets d'échelle et le lien avec la modélisation des écoulements sont également abordés. La dernière partie est consacrée aux travaux en cours ou en projet : identification de lois marginales non stationnaires, statistiques multipoints et choix de modèles, modèles spatiotemporels, modélisation géologique 3D, données territoriales ou sur graphes, modèles génétiques stochastiques, assimilation de données, prise en compte d'essais hydrauliques dans la simulation de réseaux de fractures.
219

Du diagnostic à l'action en agriculture. Activités, espaces et modèles.

Poussin, Jean Christophe 19 May 2008 (has links) (PDF)
L'activité de l'agronome s'ancre dans la parcelle cultivée. La parcelle expérimentale lui sert à connaître les processus biophysiques de production agricole ; la parcelle paysanne le confronte à la gestion de cette production. Pour identifier les déterminants de cette gestion, l'agronome doit élargir son champ d'analyse et changer d'échelle d'observation. Le diagnostic agronomique relie alors ces déterminants aux modalités de conduite des cultures et à leurs conséquences biophysiques. L'agronome peut aussi proposer d'améliorer les performances du processus de production en jouant sur des leviers biophysiques, techniques ou organisationnels. La conception d'outils d'aide à la décision relève de ces propositions et s'alimente des connaissances issues du diagnostic. Cette démarche de recherche-action est illustrée dans la vallée du Sénégal et concerne le développement de la riziculture irriguée dans des aménagements hydro-agricoles. Le diagnostic de la situation articule plusieurs échelles : parcelle, exploitation, périmètre irriguée, filière rizicole. La proposition qui est faite pour améliorer les performances de cette riziculture concerne l'organisation des producteurs au sein d'un aménagement. Mais d'autres propositions pourraient être faites à une échelle plus vaste pour réduire les dysfonctionnements de la filière entière. Restant dans le domaine de l'irrigation, le projet de recherche concerne la représentation de la demande agricole en eau. Un cadre de modélisation s'appuyant sur un concept simple d'activité de production associée à un espace géographique est proposé. Ce cadre est utilisé pour construire avec les acteurs une représentation des activités agricoles à l'échelle régionale. La spatialisation des résultats de ces activités et leur superposition avec d'autres cartes constituent ensuite des bases de réflexion sur les interrelations entre usages et ressources. Car c'est l'évolution de ces interrelations qui est au cœur de l'anthropisation des milieux, de sa maîtrise et de son caractère durable.
220

Analyse et modélisation de l'impact de la météorologie sur le trafic routier

Billot, Romain 08 December 2010 (has links) (PDF)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles.

Page generated in 0.0778 seconds