• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 602
  • 191
  • 4
  • Tagged with
  • 799
  • 799
  • 491
  • 237
  • 106
  • 101
  • 98
  • 91
  • 90
  • 85
  • 79
  • 66
  • 62
  • 60
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Construction dynamique de fragments par minimisation de l'énergie libre lors de collisions d'ions lourds

Vallée, Alexandre 17 April 2018 (has links)
La recherche théorique en physique des ions lourds se fait essentiellement avec des simulations numériques de leurs collisions. Cependant, pour que la description soit fondamentale, les calculs doivent se dérouler sur les constituants élémentaires des noyaux: les nucléons. Ces réactions produisent des sources excitées qui ne sont que des nuages de nucléons à la sortie de la simulation dynamique. Pour pouvoir procéder à la désexcitation de ces sources et ensuite à la comparaison expérimentale, une importante étape doit être franchie en construisant des fragments depuis la distribution des nucléons dans l'espace des phases. Appelée "clusterisation", cette reconnaissance peut être faite selon diverses approches, toutes devant produire un portrait statique très similaire sur une distribution de nucléons en fin de réaction dite de "freeze-out". Aussi, il est aussi très intéressant d'étudier la formation de ces fragments avant le freeze-out, i.e. dans la phase d'expansion. Des modèles existent déjà, utilisant un critère énergétique en recherchant la partition la plus liée (minimisation de l'énergie totale). Ce projet propose un critère entropique, soit la maximisation de l'entropie sous contraintes. Parmi les contraintes envisagées, l'énergie des partitions sera retenue en première approximation. Dans ce contexte, la clusterisation se fera donc par minimisation de l'énergie libre d'Helmoltz. L'étude des différentes façons de regrouper les nucléons en fragments et ainsi former des configurations pose un important problème de combinatoire. L'exploration de ces partitions sera faite à l'aide d'un calcul Monte Carlo (algorithme de Metropolis). Etant donné la contrainte utilisée dans la maximisation de l'entropie, le seul paramètre intensif associé devant être déterminé dans le calcul Monte Carlo est la température. Cette dernière sera extraite selon des règles de "correspondance", qui seront établies entre des ensembles statistiques à l'équilibre thermodynamique, dont les propriétés sont bien connues, et un ensemble hors équilibre constitué des différentes voies de la réaction sous clusterisation. Ces différentes voies sont produites par la dynamique qui est, dans ce projet, décrite par la Dynamique Moléculaire Antisymétrisée (AMD). L'étude de la clusterisation dynamique se fera sur des événements centraux de la réaction ⁴⁰Ca -I- ⁴⁰Ca à 35AMeV. Elle permettra d'évaluer le temps de formation des fragments puis mesurera l'effet de la température des sources sur leur formation.
272

La conception et la gestion d'un réseau de service ambulancier

Carpentier, Guillaume 12 April 2018 (has links)
Un déploiement adéquat et une bonne gestion des ambulances amènent des temps de réponse plus courts lors d'un appel d'urgence et ainsi permettent de réduire la souffrance, la mortalité et les conséquences néfastes sur la santé des patients. Ce mémoire est divisé en deux parties et adresse sous forme de deux articles les problèmes de la localisation des ambulances et de leur gestion. L'objectif du premier article est de résoudre le problème de localisation d'ambulances multi-périodes en faisant l'hypothèse d'une demande déterministe, dynamique et cyclique. Un modèle mathématique ainsi que deux méthodes heuristiques sont proposés pour aider à résoudre ce problème. La première heuristique utilise de façon répétitive la version mono-période du modèle mathématique proposé alors que la deuxième est une heuristique itérative composée d'une phase de construction et une phase d'amélioration. L'efficacité de ces méthodes est démontrée par leur application pour résoudre des problèmes fictifs ainsi qu'un problème réel fourni par la corporation Urgences-santé. Les résultats obtenus avec les deux méthodes heuristiques nous indiquent que ces méthodes, en plus d'être très rapides, donnent des plans de déploiement près du plan optimal. De plus, la méthode heuristique basée sur le modèle mono-période semble dominer la méthode heuristique itérative sur tous les points en plus d'être plus simple. L'objectif du deuxième article est d'évaluer l'efficacité de plusieurs règles de répartition dans le cadre de la gestion des demandes d'intervention d'un réseau de service ambulancier. Deux types de décisions font l'objet de cette étude : le choix d'une ambulance pour répondre à une demande d'intervention et le choix du poste d'attente où ce véhicule sera redéployé après son intervention. Les règles généralement utilisées en pratique sont comparées à des règles visant non seulement la réduction des temps d'attente mais aussi le maintient d'une bonne couverture territoriale. Différentes règles sont testées sur des problèmes fictifs ainsi que sur un problème réel fourni par la corporation Urgences-santé. Les résultats obtenus démontrent que l'application d'une règle d'assignation simple comme affecter l'ambulance qui peut se rendre le plus rapidement possible sur les lieux de la demande d'intervention peut être efficace seulement si un bon plan de déploiement et de redéploiement est maintenu. On démontre que l'utilisation d'une règle de redéploiement visant la maximisation de la couverture du territoire permet d'atteindre un bon niveau d'efficacité.
273

Développement d'un modèle numérique thermo-hydrique advectif pour l'optimisation de la technique d'échantillonnage des sables pulvérulents par gel thermo-fluidifiant (EGT)

St-Laurent, Jean-François 12 April 2018 (has links)
La méthode d'échantillonnage par gel thermo-fluidifiant (EGT), élaborée par Robichaud (2004), permet d'obtenir en laboratoire des échantillons de sables pulvérulents exempts de remaniement mécanique. Afin d'approfondir et d'optimiser cette nouvelle méthode d'échantillonnage, des travaux de laboratoire et un modèle numérique ont été réalisés et développés. Ces travaux ont permis d'étudier le comportement de la solution de gélatine lors de son injection, de son écoulement et de sa gélification. Les injections réalisées au laboratoire ont montré une gélification de la gélatine à une température de 25 °C et ont validé le modèle numérique. Une étude paramétrique a permis de démontrer l'implantation possible du processus EGT sur le terrain.
274

Analyzing individual-based models of microbial systems

Mabrouk, Nabil 07 January 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du débat en écologie théorique entre ceux qui favorisent les modèles mathématiques agrégés contenant un nombre relativement faible d'équations exprimant quelques principes généraux et ceux qui préfèrent les modèles individus-centré (multi-agents) qui sont structurellement plus réalistes et comprennent une représentation détaillées des processus et interactions à l'échelle de l'individu. Dans cette thèse nous proposons d'établir un lien entre ces deux approches en dérivant des modèles déterministes basés sur les moments spatiaux et approximant la dynamique des modèles individus-centrés de systèmes microbiens. Nous illustrons cette approche sur l'exemple de croissance d'un bio lm formé par des bactéries mobiles ou immobiles. Nous montrons que les modèles des moments peuvent rendre compte des principales propriétés des structures spatiales obtenues par simulation individus-centrée. En n nous explorons les limites des modèles des moments notamment à rendre compte de l'e et des uctuations locales de l'environnement des individus lorsque celles ci a ectent la dynamique du système microbien simulé par le modèle individus-centré.
275

Fate and behaviour of acidic rice herbicides in lagoon waters of camargue / Devenir et comportement des herbicides acides de riziculture dans les eaux des lagunes de camargue

Alhousari, Fadi 04 February 2011 (has links)
Le delta du Rhône est une vaste plaine alluviale recouverte d’étangs et de lagunes, parsemée de cultures diverses, principalement du riz (21’100 ha en 2009, Centre Français du Riz, 2010). Des herbicides répandus en avril (pré levée, prétilachlor) et en juin (poste levée, bentazone ; MCPA et dichlorprop) sont utilisés dans la riziculture pour lutter contre les mauvaises herbes. L’étang de Vaccarès, qui est classé «réserve de biosphère» par l’UNESCO pour sa grande richesse biologique reçoit des pesticides directement issus des rizières par les canaux de drainage. D’un point de vue scientifique, peu d’études sont consacrées au devenir des pesticides dans les eaux estuariennes. En outre, la plupart de ces études ont été focalisées sur la photochimie bien que la biodégradation soit impliqué dans l’atténuation des pesticides. Alors le but de ce travail de thèse est de comprendre le devenir des herbicides de riziculture en évaluant le rôle de la photochimie direct et indirect et de la biodégradation. Nous avons développé donc un modèle capable de décrire la transformation de molécules organique par la voie photochimique dans les eaux estuariennes. Enfin nous avons déterminé les processus principaux impliqués dans l'atténuation rapide des herbicides de riziculture en Camargue. / The Ile de Camargue basin is the central part of the Rhône Delta in the south of France included between the two branches of the river. The higher parts of this area are agricultural lands, mainly rice fields, whereas the lower parts are lagoons and natural wetlands of international importance for biodiversity preservation.Bentazone, dichlorprop, and MCPA are post-emerging herbicides applied in rice fields from mid April to mid June. Rice fields grown under flooded conditions represent an environment where these conditions increase the potential for pesticides to transport in runoff from rice fields to non- target surface waters.To predict their fate in the surface waters of the Camargue and to asses their risk, it is necessary to understand their chemical reaction under environmental conditions.Reactive photoinduced species (RPS, hydroxyl radical HO., singlet oxygen 1O2 and dissolved organic matter triplet state) in estuarine waters (Vaccarès lagoon) were characterized experimentally to estimate the role of photochemistry in rice paddy. We then developed a kinetic model describing the solar photo-transformation of xenobiotic organic compounds induced by the three different photooxidants RPS. Sunlight photodegradation of bentazone, dichlorprop (DCPP), MCPA and alachlor (used as a surrogate for the similar Pretilachlor, pre-emergence herbicide) and microbial transformation were conducted experimentally to estimate near-surface half-lives in surface water. Parallel to the experimental study, an assessment of the elimination rates of those herbicides by sorption and sedimentation, and volatilization were obtained by the model MASAS (Modelling of Anthropogenic Substances in Aquatic Systems).The half-lives of the herbicides obtained experimentally were then compared with those obtained from field data. This allowed to assessing the main processes involved in the attenuation of herbicide concentrations.
276

Méthodologie de synthèse et d'optimisation de radiopile bornée à un domaine de fonctionnement

Douyère, Alexandre 11 April 2008 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans la thématique du Transport d'Energie Sans Fil (TESF). Cette étude a pour objectif l'optimisation de la partie réception du système de TESF où s'opère le redressement de l'énergie micro-onde en énergie continue. Ce processus complexe de nature non-linéaire est délicat à appréhender aussi bien en théorie qu'en pratique. Ainsi, une optimisation ne sera concevable que si l'on maîtrise d'un point de vue conceptuel, expérimental et technologique, la mise en oeuvre d'une radiopile. Ceci a motivé la démarche de mise en place d'une méthodologie de synthèse de radiopile bornée à un domaine de fonctionnement. La démarche choisie consiste, partant de données expérimentales, à établir une modélisation simple et précise des différents éléments constituant la radiopile afin d'optimiser efficacement le système complet à l'aide d'un environnement de simulation unique
277

Un modèle générique d'agrégation des feulles dans un couvert végétal: application à la simulation du transfert radiactif

Rochdi, Nadia 18 December 2003 (has links) (PDF)
-
278

Étude de la dispersion atmosphérique du pollen de maïs : contribution à la maîtrise des risques de pollinisation croisée

JAROSZ, Nathalie 19 December 2003 (has links) (PDF)
Le maïs est l'une des plantes les plus utilisées dans le monde. Le maïs cultivé aujourd'hui résulte de cinq siècles d'amélioration par l'homme. Les techniques d'hybridation ainsi que l'utilisation des biotechnologies ont abouti à une grande diversité de variétés de<br />maïs, face auxquelles les croisements intervariétaux nécessitent d'être maîtrisés. En particulier, la coexistence entre maïs transgénique et non transgénique est actuellement au<br />cœur du débat scientifique. Pour répondre à cette question, l'approche actuelle est de mesurer directement la fécondation croisée. Cependant, elle ne permet pas de fournir un outil prédictif car elle ne fait pas le lien avec les conditions de l'environnement physique, et plus particulièrement les conditions météorologiques. L'objet de ce travail est de mieux comprendre les processus de dispersion atmosphérique du pollen de maïs à l''aide d''une approche mécaniste à l'échelle de la parcelle. Dans un premier temps, un modèle mécaniste initialement développé pour étudier la dispersion atmosphérique de l'ammoniac a été adapté à la dispersion du pollen de maïs. Ensuite, pour valider le modèle, des mesures dispersion de pollen ont été effectuées.
279

Méthodes variationnelles et séquentielles pour l'étude de la contraction cardiaque

Moreau-Villéger, Valérie 15 December 2005 (has links) (PDF)
L'utilisation de l'imagerie médicale et de mesures électrophysiologiques pour l'étude du cœur permet de mieux comprendre son fonctionnement et les pathologies cardiaques, de fournir des outils d'aide au diagnostic et à la planification de thérapies. Dans cette thèse, nous nous intéressons à l'exploitation de ces données sous deux angles différents. La première partie du travail concerne l'estimation de mouvements dans des séquences d'images échocardiographiques à l'aide de l'imagerie par Doppler tissulaire (TDI). La deuxième partie de ce travail concerne l'analyse de mesures de l'activité électrique du cœur en estimant des paramètres d'un modèle électrophysiologique du cœur. La modalité TDI fournit une information quantitative sur la vitesse des tissus dans la direction de la sonde échographique. Le but de ce travail est d'étudier la déformation du muscle cardiaque en utilisant conjointement le TDI et l'échographie classique. Notre approche combine des calculs de flot optique par la méthode de Horn et Schunck sur la séquence classique d'images échographiques, la mesure partielle de vitesse issue de l'imagerie par Doppler tissulaire (TDI) et une régularisation spatio-temporelle pour estimer les champs de vitesse dans un cadre variationnel. Nous validons cette méthode sur des données synthétiques puis nous l'utilisons sur des séquences réelles. Dans la deuxième partie de cette thèse, nous nous intéressons à l'estimation de paramètres du modèle d'Aliev et Panfilov de propagation du potentiel d'action dans les ventricules en utilisant des mesures électrophysiologiques. Grâce à une collaboration avec le ''National Institutes of Health'', nous disposons des temps de dépolarisation mesurés sur l'épicarde de plusieurs cœurs de chiens. Les méthodes classiques ne permettent pas de minimiser l'écart entre le modèle et les données dans ce cas spécifique. Après une étape d'ajustement global, nous proposons de minimiser l'écart quadratique entre les données et le modèle en fonction d'un des paramètres que nous faisons varier localement. Le paramètre choisi est le coefficient de diffusion que nous appelons conductivité apparente car ses variations reflètent à la fois les variations de conductivité et les variations des paramètres de réaction. En utilisant la causalité de la propagation modélisée, nous ramenons le problème à des minimisations unidimensionnelles successives par la méthode de Brent. Nous appliquons cette approche à des données réelles dans des cas normaux et aussi dans des cas de cœurs infarcis. Dans ce dernier cas, nous trouvons une forte corrélation entre les zones de faibles conductivités apparentes et l'infarctus. A l'issue de ce travail, nous envisageons l'utilisation de ces méthodes avec des mesures moins invasives telles que celles obtenues par des systèmes intracavitaires sans contact ou même des électrocardiogrammes. Une autre perspective pour ce travail est l'estimation de paramètres d'un modèle du fonctionnement électromécanique du cœur à partir d'images de déplacement comme celles obtenues grâce à l'IRM marquée.
280

Problèmes de placement 2D et application à l'ordonnancement : modélisation par la théorie des graphes et approches de programmation mathématique

Joncour, Cédric 14 December 2011 (has links) (PDF)
Le problème de placement sur deux dimensions consiste à décider s'il existe un rangement d'objets rectangulaires dans une boîte donnée. C'est un problème combinatoire difficile (à la complexité du respect des capacités s'ajoute celle du positionnement des objets). Nous considérons les variantes sans rotation des objets et avec ou sans optimisation de la valeur des objets placés. Nous menons une étude exploratoire des méthodologies qui peuvent être développées à l'interface de la programmation mathématique, de l'optimisation combinatoire et de la théorie des graphes. Nous comparons les formulations de la littérature et en proposons de nouvelles. Nous développons et testons deux approches de résolution innovantes. L'une est basée sur la décomposition de Dantzig-Wolfe (avec un branchement sur les contraintes disjonctives de non recouvrement des objets). L'autre constitue en une approche combinatoire basée sur diverses caractérisations des graphes d'intervalles (modélisant le chevauchement des objets selon chaque axe).

Page generated in 0.0549 seconds