Spelling suggestions: "subject:"modélisation"" "subject:"odélisation""
221 |
Étude de l’estimation de paramètres structuraux de la forêt à l’aide d’un cadre de modélisation, de la photographie hémisphérique et du LiDAR.Leblanc, Sylvain January 2014 (has links)
Résumé : La disponibilité des données des sites expérimentaux en forêt est limitée et ces données possèdent parfois de grandes erreurs de mesures. De plus les attributs de la forêt, comme la densité du feuillage, sont difficiles à estimer et à valider. Pour résoudre ce problème, nous avons conçu une étude en cinq volets : le premier volet a été de développer un cadre de modélisation pour la simulation tridimensionnelle de scènes en forêts, rendus avec le gratuiciel POV-Ray (www.povray.org). Pour ce projet, 75 peuplements ont été créés avec trois distributions angulaires des feuilles : aléatoire, érectophile et planophile. Le cadre de modélisation permet la réalisation de scènes avec un gradient de valeur précise des attributs de l’architecture de la forêt qui sont parfois difficile à mesurer. Comme deuxième volet, le cadre de modélisation est utilisé pour évaluer des méthodes existantes d’estimation de l'indice de surface totale et foliaire (IST et ISF) et de la fermeture du couvert (FC) à partir de la photographie hémisphérique (PH). Dix PHs simulées par scènes ont été analysé pour en extraire l'IST qui comprend les feuilles et les matières ligneuses (par exemple les troncs et les branches) et les résultats ont montrés que l'intégrale tronquée de Miller (10º à 65º au zénith) et l’estimation près de 57,3º (55º à 60º) sont très semblables avec des facteurs de corrélation (R[indice supérieur 2]) de plus de 0,9 entre eux. Les résultats montrent aussi que l’IST et l’ISF sont mieux estimés par rapport aux valeurs d'entrées lorsque le groupage des feuilles est considéré. En outre, le groupage considéré avec la méthode CLX-45 (pour angles de visée de 55º à 60º), a été estimé avec un R[indice supérieur 2] de 0,66, ainsi qu’une erreur RMS de 1,0 unité (23%). Les estimations de la FC près du zénith avec dix PHs étaient très bonnes avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 9 %. En troisième volet, le cadre de modélisation a été utilisé pour simuler des données de LiDAR terrestre et aéroporté. Un nouvel algorithme (LF) d’extraction de l’ISF, basé sur la méthode CLX et adaptée aux données LiDARs, a été présenté et testé sur ces données virtuelles. Les résultats de l’estimation de l’ISF sur les données TLS simulées nous montrent qu’avec la meilleur combinaison des paramètres de la méthode LF, les données TLS ont un grand potentiel pour la mesure de l’ISF avec un R[indice supérieur 2] de 0,83 et une erreur RMS de 0,7 (20 %). Donc une amélioration du R[indice supérieur 2] de 0,17 et une diminution de l’erreur RMS de 0,3 unité (3 %) par rapport aux résultats de la PH. Le même algorithme a aussi été testé sur des données LiDAR aéroportés simulées sur les même 75 scènes virtuelles et a donnée un R[indice supérieur 2] de 0,85 et une erreur RMS de 0,6 (20 %) à l’angle de visée de 55º mais seulement un R[indice supérieur 2] de 0,18 et une erreur RMS de 2,2 (58 %) à l’angle de visée de 5º. Puis, en quatrième volet, le nouvel algorithme à été testé sur des données TLS et ALS sur la réserve de Matane, Québec. Comme cinquième et dernier volet, nous avons exploré en détails les méthodes d’évaluation de l’IST, et surtout du groupage du feuillage afin de mieux comprendre les causes et limites des erreurs mesurées. Nos résultats pour ce dernier volet ont montrés que la densité du feuillage à l’intérieur des houppiers est un facteur important dans la sous-estimation de l’IST avec la méthode CCL et que la grandeur des segments en rapport avec l’ISF détermine le nombre de segments sans trouée où la moyenne logarithmique est un problème. De plus, la difficulté à mesurer l’ISF au nadir a été démontré avec les ALS, suggérant ainsi que l’ISF soit estimé à des angles proches de 57,3º autant avec les données sur le terrain (PH et TLS) qu’aéroportées (ALS). // Abstract : The availability of experimental data from forest sites is limited and may also have large measurement error. In addition, attributes such as foliage density, are difficult to estimate and validate. To address this problem, we designed a study in five parts: the first part was the development of a modeling framework for three-dimensional simulation of forest scenes, rendered with the freeware POV-Ray (www.povray.org). For this project, 75 simulated stands were created with angular distributions of random leaves, and erectophile and planophile. The framework allows the realization of scenes with the knowledge of architectural attributes of the forest that are sometimes difficult to measure. As a second component, the modeling framework is used to evaluate existing methods for estimating the total plant and leaf area index (PAI, LAI), and canopy closure from hemispherical photography (HP). Ten HPs are simulated per scene and were analyzed to extract the PAI which includes leaves and woody material (eg trunks and branches). The results have shown that the truncated integration Miller (10º to 65º in view zenith), and estimated from 55º to 60º are very similar with coefficient of determination (R[superscript 2])of more than 0.9. The results also show that PAI and LAI are better estimated with respect to the input when the grouping of the leaves is considered. In addition, the grouping method considered with the CLX method (for viewing angles of 55º to 60º), was estimated with an R[superscript 2] of 0.66 and an RMSE of 1.0 units (23 %). Canopy closure estimates near the zenith with 10 HPs were very good with an R[superscript 2] of 0.83 and an RMSE of 9%. As third component, the modeling framework was used to simulate terrestrial and airborne LiDAR data. A new LAI algorithm (LF), based on the CLX method adapted to LiDARs data was presented and tested on these virtual data. The new algorithm has been tested with simulated terrestrial LiDAR (TLS) data for the same 75 virtual scenes. The results show a great potential using TLS data and the best LF method combinations of parameters gave an R[superscript 2] of 0.83 and an RMS error of 0.7 (20 %), thus improving the R[superscript 2] by 0.17 and a reduction of the RMSE of 0.3 units (3 %). The same algorithm was also tested on simulated airborne LiDAR (ALS) data on the same 75 virtual scenes and gave an R[superscript 2] of 0.85 and an RMSE of 0.6 (20 %) at viewing angle of 55° but only an R[superscript 2] of 0.18 and an RMSE of 2.2 (58%) at the viewing angle of 5º. Then, in the fourth part, the new algorithm was tested on ALS and TLS data from the Matane Reserve, Quebec. As the fifth and final installment, we explore in detail the evaluation of the IST methods, and especially the grouping of foliage to better understand the causes and limits of measured errors. The density of foliage within crowns is an important factor in the underestimation of the LAI with the CCL method and the size of the segments with the LX based methods determines the number of segments without holes where the logarithmic mean is a problem. In addition, the difficulty in measuring the LAI at nadir has been demonstrated with ALS, suggesting that the LAI should be estimated at angles near 57.3º for both field data (HP and TLS) and airborne data (ALS).
|
222 |
Modélisation pour l'imagerie des composites par ondes guidéesOstiguy, Pierre-Claude January 2016 (has links)
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
|
223 |
Maîtrise des risques dans les systèmes de transport : proposition d'une nouvelle approche de modélisation dynamiqueLegros, Dominique 29 December 2009 (has links) (PDF)
A partir de la définition d'un paradigme espaces - processus énonçant que tout système peut se définir comme une combinaison espaces - processus, les espaces contenant toutes les conditions et moyens nécessaires à l'achèvement du processus, le travail proposé définit une approche modélisatrice permettant de conserver une démarche purement systémique depuis l'identification des concepts du système jusqu'au modèle de représentation. Ce paradigme exprimant simplement qu'un système peut être vu à travers le comportement des différentes propriétés des entités intervenantes, le mémoire va proposer une représentation unifiée de la propriété permettant la manipulation conceptuelle et sémantique. Une forme de représentation des comportements des propriétés sera ensuite proposée. Cette représentation sera définie à partir de l'expression d'un comportement sous forme d'expressions rationnelles; ces expressions étant elles-mêmes des suites de symboles représentatives des propriétés du système observé. Le mémoire montrera comment la forme de représentation proposée permet de retranscrire et d'exploiter simplement les comportements observés ou observables. Le mémoire montrera comment manipuler ces éléments et quelles propriétés s'en dégagent. En particulier, le premier objectif de ce travail est une application à la maîtrise des risques systèmes, on exploitera donc le modèle dans la recherche et l'identification de situations dangereuses mais aussi pour la capacité d'évaluation des critères d'occurrence par un transfert de l'espace de propriétés vers un espace de probabilités.
|
224 |
Modélisation de matériaux supraconducteurs : application à un limiteur de courantDuron, Joseph 24 March 2006 (has links) (PDF)
L'objectif principal de cette thèse est la modélisation de matériaux supraconducteurs, et plus particulièrement, de ceux dits à haute température critique. Ce travail est divisé en deux parties distinctes : dans un premier temps, nous nous intéressons à la reconstruction de la distribution dynamique du courant dans la section d'un ruban supraconducteur à l'aide d'un modèle décrivant son comportement global. Ensuite, nous nous focalisons sur la modélisation électromagnétique et thermique par éléments finis des supraconducteurs en régime sur-critique, c'est à dire au-delà du courant critique Ic. Une introduction à la supraconductivité est faite dans le premier chapitre de ce travail, présentant les propriétés physiques principales que possède un matériau supraconducteur. Ensuite, nous décrirons les différents modèles existants permettant de décrire le comportement d'un échantillon supraconducteur. En se basant sur le modèle de Bean, nous proposons une nouvelle méthode permettant d'évaluer la distribution du courant dans la section d'un ruban monofilamentaire à partir de la mesure du profil magnétique à sa surface. Les résultats obtenus sont comparés avec ceux données par une modélisation certes plus précise, mais aussi plus complexe : l'utilisation de la méthode des éléments finis. Cette dernière sera largement utilisée dans la seconde partie de ce travail, qui traite de la modélisation de matériaux en régime sur-critique. Ceci nécessite d'introduire une formulation différente de l'habituelle loi de puissance Ec(J/Jc)^n pour décrire le comportement électrique du matériau dans une plage de courant plus importante, incluant les régimes sur-critiques. Pour cela, nous proposons une méthode originale, permettant d'approcher des mesures effectuées sur des échantillons d'YBCO et autorisant la description de la transition de l'état supraconducteur vers l'état normal. La dépendance en température a aussi été introduite afin d'étudier les phénomènes thermiques qui se produisent. Il est ainsi possible de résoudre de manière couplée les équations électromagnétiques et thermiques du problème : la résolution d'un pas de temps électromagnétique conduit à la connaissance des pertes locale. Ces pertes sont injectées dans le modèle thermique, et permet de calculer l'augmentation de température correspondante. Ce résultat est alors utilisé pour modifier les paramètres électriques en vue de la résolution du prochain pas de temps. Finalement, cette méthode a été utilisée afin de simuler le comportement d'un limiteur de courant supraconducteur. Le comportement global du système peut être reproduit par le modèle numérique implémenté, autorisant ainsi l'étude des variables locales, telles que la densité de courant ou le profil de température. Les résultats obtenus peuvent être utilisés afin d'optimiser les performances du dispositif selon des critères spécifiques. C'est ainsi que nous avons proposé une modification de la géométrie permettant d'éviter un possible emballement thermique qui pourrait conduire à la destruction du système. Sur la base de cette proposition, des modifications ont été apportées au design du dispositif, et sont actuellement testées.
|
225 |
La modélisation géostatistique de la variabilité spatiale et ses applicationsChilès, Jean-Paul 26 March 2004 (has links) (PDF)
La synthèse comporte trois parties. La première présente les modèles probabilistes développés en géostatistique pour décrire la variabilité de variables naturelles réparties dans l'espace, estimer leur valeur en dehors des points de mesure, construire des modèles numériques rendant compte de la variabilité spatiale, et caractériser l'incertitude des données et des modèles numériques. Elle couvre l'ensemble de la géostatistique qui s'est développée au long de la deuxième moitié du 20e siècle sous l'impulsion de Georges Matheron : analyse structurale (calcul et modélisation du variogramme), estimation linéaire (krigeage), modèles non stationnaires, méthodes multivariables, changement de support et méthodes non linéaires (krigeage disjonctif), simulations conditionnelles, effet d'échelle et problèmes inverses. Les différentes méthodes géostatistiques sont mises en perspective en présentant à la fois les aspects théoriques et pratiques. Des applications réelles sont présentées, comme une modélisation des formations géologiques pour le tunnel sous la Manche et la comparaison entre prédiction et réalité. La seconde partie présente les développements réalisés pour la modélisation stochastique des milieux fracturés, et principalement pour la modélisation de réseaux de fractures à partir d'observations en forage ou sur affleurement. Deux modèles très flexibles ont été développés à partir d'observations de sites réels, l'un pour les granites (disques aléatoires éventuellement en salves ou à densité régionalisée), l'autre pour des milieux sédimentaires stratifiés (modèle hiérarchique). Des méthodes d'identification des paramètres sont proposées, ainsi que des méthodes de simulation conditionnelle. Les effets d'échelle et le lien avec la modélisation des écoulements sont également abordés. La dernière partie est consacrée aux travaux en cours ou en projet : identification de lois marginales non stationnaires, statistiques multipoints et choix de modèles, modèles spatiotemporels, modélisation géologique 3D, données territoriales ou sur graphes, modèles génétiques stochastiques, assimilation de données, prise en compte d'essais hydrauliques dans la simulation de réseaux de fractures.
|
226 |
Du diagnostic à l'action en agriculture. Activités, espaces et modèles.Poussin, Jean Christophe 19 May 2008 (has links) (PDF)
L'activité de l'agronome s'ancre dans la parcelle cultivée. La parcelle expérimentale lui sert à connaître les processus biophysiques de production agricole ; la parcelle paysanne le confronte à la gestion de cette production. Pour identifier les déterminants de cette gestion, l'agronome doit élargir son champ d'analyse et changer d'échelle d'observation. Le diagnostic agronomique relie alors ces déterminants aux modalités de conduite des cultures et à leurs conséquences biophysiques. L'agronome peut aussi proposer d'améliorer les performances du processus de production en jouant sur des leviers biophysiques, techniques ou organisationnels. La conception d'outils d'aide à la décision relève de ces propositions et s'alimente des connaissances issues du diagnostic. Cette démarche de recherche-action est illustrée dans la vallée du Sénégal et concerne le développement de la riziculture irriguée dans des aménagements hydro-agricoles. Le diagnostic de la situation articule plusieurs échelles : parcelle, exploitation, périmètre irriguée, filière rizicole. La proposition qui est faite pour améliorer les performances de cette riziculture concerne l'organisation des producteurs au sein d'un aménagement. Mais d'autres propositions pourraient être faites à une échelle plus vaste pour réduire les dysfonctionnements de la filière entière. Restant dans le domaine de l'irrigation, le projet de recherche concerne la représentation de la demande agricole en eau. Un cadre de modélisation s'appuyant sur un concept simple d'activité de production associée à un espace géographique est proposé. Ce cadre est utilisé pour construire avec les acteurs une représentation des activités agricoles à l'échelle régionale. La spatialisation des résultats de ces activités et leur superposition avec d'autres cartes constituent ensuite des bases de réflexion sur les interrelations entre usages et ressources. Car c'est l'évolution de ces interrelations qui est au cœur de l'anthropisation des milieux, de sa maîtrise et de son caractère durable.
|
227 |
Analyse et modélisation de l'impact de la météorologie sur le trafic routierBillot, Romain 08 December 2010 (has links) (PDF)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles.
|
228 |
L'impact de l'activité humaine sur la composition chimique de la troposphère au-dessus de l'Océan Pacifique : développement d'un modèle téléscopique de chimie et de transport atmosphériques et interprétation des résultats de la campagne de mesures MLOPEXGinoux, Paul 19 September 1997 (has links)
<p align='justify'>De manière à mieux comprendre l'impact des émissions anthropiques sur la troposphère reculée, les concentrations d'un nombre important de composés atmosphériques ont été mesurés dans la troposphère libre au-dessus d'Hawaii durant la campagne Mauna Loa Observatory Photochemistry Experiment (MLOPEX) accomplie au cours des années 1991 et 1992. Le constituant chimique fondamental pour évaluer cet impact est le radical hydroxyle OH qui fut mesuré au printemps et en été de l'année 1992. La variation diurne de la direction du vent génère pendant la journée un mélange des masses d'air de la couche limite planétaire avec la troposphère libre. Actuellement les modèles régional et global de chimie troposphérique ne peuvent tenir compte à la fois du transport à grande échelle et du mélange local. Nous avons développé un modèle tridimensionnel qui nous permet d'analyser la chimie et la dynamique troposphérique à ces deux échelles. Pour ce faire, nous avons utilisé une grille non-structurée qui offre un moyen efficace de caractériser la région d'Hawaii à l'aide d'une haute résolution et le restant de l'hémisphère Nord avec une résolution qui décroît au fur et à mesure que l'on s'éloigne d'Hawaii. La distribution de 46 composés gazeux avec 138 réactions, incluant une chimie détaillée des hydrocarbures non-méthaniques (isoprène, éthane, éthène, propène et alpha-pinène) est calculée avec un pas de temps de 20 minutes. A l'aide de notre modèle nous avons simulé une période de huit jours pour chacune des saisons. Les résultats des simulations ont été comparés aux observations et interprétés à l'aide d'études de rétro-trajectoires, de traceurs passifs et de bilans chimiques local et régional de l'ozone et de ses précurseurs.</p>
|
229 |
Etude théorique et expérimentale de la structure, des propriétés magnétiques et de la conductivité des oligomères conjugués contenant de l'azoteRomanova, Yuliya 01 July 2010 (has links) (PDF)
La conductivité électronique de l'éméraldine sel dépend des conditions de sa synthèse (solvant et dopant utilisés) et de son traitement après synthèse. L'objectif principal de cette thèse est de démontrer et d'interpréter les corrélations entre l'environnement et les propriétés de la forme conductrice de la polyaniline. Dans la partie théorique, nous avons examiné l'influence des différents dopants et solvants sur la structure et les propriétés de la polyaniline. Pour atteindre cet objectif, un large dispositif de méthodes de chimie quantique a été testé et une méthode appropriée a été choisie. Dans la partie expérimentale nous avons utilisé une nouvelle approche pour accéder aux propriétés intrinsèques de la polyaniline i.e. sans utiliser ni solvants ni dopants autres que ceux utilisés lors de la synthèse. Les calculs montrent que la description théorique de la polyaniline dépend fortement du choix de la méthode. La modélisation de l'effet de la polarité du solvant grâce à l'utilisation de la méthode PMC semble être cruciale pour une description fiable de l'interaction polyaniline-dopant. Les résultats obtenus démontrent pour la première fois que les interactions, de la polyaniline avec les dopants dépendent de la nature chimique du solvant et pas du dopant lui-même. De plus, nous avons montré que la stabilité de la forme polaronique (conductrice) augmente avec l'augmentation de la polarité du solvant. Ces conclusions correspondent parfaitement à nos résultats expérimentaux qui montrent le rôle crucial du solvant (et pas des dopants) sur les propriétés de la polyaniline.
|
230 |
Développement d'une méthode de modélisation pour l'évaluation de la performance de stratégies de sécurité incendieMuller, Anne 08 December 2010 (has links) (PDF)
Aujourd'hui en France, l'évaluation de la performance de stratégies de sécurité à déployer pour mettre un bâtiment en sécurité vis-à-vis de l'incendie repose sur une étude d'ingénierie en sécurité incendie. Cette étude a pour objectif l'estimation du risque incendie pour différentes stratégies, et pour des scénarios d'incendies jugés pertinents. Pour parvenir à cette estimation, le Centre Scientifique et Technique du Bâtiment français (CSTB) a mis au point un outil de simulation appelé SCHEMA-SI. Cet outil utilise des réseaux de Petri prédicat-transition différentiels orientés objets et des simulations de Monte Carlo pour générer de multiples scénarios d'incendie. Ces scénarios sont ensuite utilisés pour évaluer le risque incendie encouru avec une stratégie de sécurité. La stratégie est alors jugée d'autant plus performante que le risque incendie est faible. L'objectif de la thèse consiste à contribuer au développement d'une méthode d'analyse de risque incendie utilisant l'outil de simulation SCHEMA-SI. La réflexion a débuté par la définition de ce que devrait être cette méthode. A ce stade, il est apparu que l'une des difficultés que la méthode doit surmonter est celle de la mise en donnés du problème par un groupe d'acteurs impliqués dans la sécurité incendie du bâtiment étudié. Pour résoudre cette difficulté, une méthode de modélisation spécifique a été construite. Cette méthode, baptisée ISI-Systema, repose sur deux fondements principaux : d'une part, un langage graphique de modélisation permettant au groupe d'acteurs de réfléchir à la mise en données du problème en s'appuyant sur une approche systémique ; d'autre part, une démarche de traduction des modèles graphiques obtenus avec le langage systémique en réseaux de Petri compatibles avec SCHEMA-SI.Enfin, une application pratique de cette méthode de modélisation est proposée.
|
Page generated in 0.1251 seconds