Spelling suggestions: "subject:"échelle""
201 |
Entre territoires et réseaux : la requalification des espaces locaux en France et en Allemagne. Jeux d'acteurs, d'échelles et de projetsQueva, Christophe 05 December 2007 (has links) (PDF)
Depuis le milieu des années 1990, les États européens explorent de nouvelles politiques d'aménagement et de développement. L'accent est mis sur la mobilisation d'acteurs à l'échelle locale pour élaborer des projets. En France et en Allemagne, ces pratiques contrastent avec l'héritage d'aménagements exogènes (DATAR, Raumplanung/Territorialplanung). La requalification des espaces locaux est comprise comme une nouvelle qualification de l'échelon local par le projet, et comme sa revalorisation par l'investissement croissant des acteurs locaux. Elle s'articule à deux modèles différenciés de requalification : territorialisé en France, avec la politique des Pays, et largement plus réticulaire en Allemagne, avec les Projets de développement régional (Regionalentwicklungskonzepte). <br />En confrontant des expériences locales de projet (Libournais et Périgord noir en France, Thuringe du Sud-Ouest en Allemagne) aux nouvelles attentes législatives, ce travail mobilise la notion de jeu comme grille de lecture des dynamiques à l'œuvre. Il met en évidence une multiplicité et une complexité réelles de l'espace et des objectifs du jeu (jeux de projets), des rôles et stratégies d'acteurs (jeux d'acteurs) et des relations entre les échelons territoriaux (jeux d'échelles), intervenant dans la dynamique de requalification. Le tout entretient une certaine hybridation des espaces locaux émergents, situés dans un « entre » territoires et réseaux, dont les enjeux épistémologiques et méthodologiques concernent à la fois la discipline géographique et les pratiques d'aménagement, que ce soit en France, en Allemagne ou dans le cadre européen.
|
202 |
Filtrage, partitionnement et visualisation multi-échelles de graphes d'interactions à partir d'un focusBoutin, François 28 November 2005 (has links) (PDF)
Cette thèse étudie les caractéristiques de réseaux interactions réels, notamment les propriétés « petit monde » et « sans échelle ». Elle présente diverses techniques de filtrage, partitionnement et visualisation de ces réseaux.<br />La propriété « sans échelle » provient du fait que ces réseaux d'interactions sont le plus souvent dans un processus de croissance : les nouveaux noeuds établissent, de préférence, des liens avec des noeuds existants à fort degré. On parle d'« attachement préférentiel ». La propriété « petit monde » s'explique par l'adage : « les amis de mes amis sont mes amis ».<br />Les réseaux d'interaction présentent souvent un noyau dense difficilement analysable et visualisable à l'aide de techniques de partitionnement et de dessin classiques.<br />Cette étude introduit une nouvelle technique de filtrage permettant l'extraction d'une structure dite « arborée » ayant également les propriétés « petit monde » et « sans échelle ». Le réseau, ainsi filtré, est organisé en un arbre de silhouettes emboîtées. Cette structure multi-échelles, facilement visualisable et navigable, présente une organisation contextuelle du réseau autour d'un focus<br />utilisateur.<br />La nouvelle technique de partitionnement optimise les critères de qualité recensés et introduits dans cette thèse. Par ailleurs, l'étude du contenu des silhouettes, menée a posteriori, souligne la qualité de l'utilisation conjointe du filtrage et du partitionnement.
|
203 |
Analyse mathématique et numérique de modèles pour les matériaux, de l'échelle microscopique à l'échelle macroscopiqueLelievre, Tony 03 June 2009 (has links) (PDF)
La première partie du mémoire concerne l'étude de modèles multi-échelles (ou micro-macro) pour les fluides complexes. L'intérêt de ces modèles est d'éviter d'avoir à postuler des lois de comportements phénoménologiques, en couplant une description macroscopique classique (lois de conservations de la quantité de mouvement et de la masse) sur la vitesse et la pression, à des modèles microscopiques pour l'évolution des microstructures dans le fluide, à l'origine du caractère non-newtonien du fluide. La loi de comportement consiste alors à exprimer le tenseur des contraintes en fonction de la conformation des microstructures. Durant la thèse, nous avons obtenu quelques résultats d'existence et de convergence des méthodes numériques utilisées pour ces modèles. Plus récemment, nous proposons une méthode numérique pour coupler des modèles micro-macro (fins mais chers) avec des modèles macroscopiques (plus grossiers, mais beaucoup plus économiques en temps de calcul). Nous analysons par ailleurs une méthode de résolution des équations aux dérivées partielles en grande dimension qui a été proposée dans le contexte de la résolution numérique des modèles à l'échelle microscopique pour les fluides polymériques.<br /><br />L'essentiel de nos travaux les plus récents sur le sujet concerne le comportement en temps long de ces modèles, avec un double objectif : théoriquement, la compréhension des modèles physiques passe souvent par l'étude de la stabilité des solutions stationnaires, et de la vitesse de convergence vers l'équilibre ; numériquement, la stabilité des schémas en temps long est cruciale, car on utilise typiquement des simulations instationnaires en temps long pour calculer des solutions stationnaires. Nous montrons comment analyser le comportement des modèles micro-macro en temps long, en utilisant des méthodes d'entropie. Cette étude a ensuite permis de comprendre le comportement en temps long de modèles macroscopiques standard (type Oldroyd-B), et de préciser sous quelles conditions les schémas numériques vérifient des propriétés similaires de stabilité en temps long.<br /><br /><br />La seconde partie du mémoire résume des travaux en simulation moléculaire, à l'échelle quantique, ou à l'échelle de la dynamique moléculaire classique. A l'échelle quantique, nous nous intéressons aux méthodes Quantum Monte Carlo. Il s'agit de méthodes numériques probabilistes pour calculer l'état fondamental d'une molécule (plus petite valeur propre de l'opérateur de Schrödinger à N corps). Essentiellement, il s'agit de donner une interprétation probabiliste du problème par des formules de Feynman-Kac, afin de pouvoir appliquer des méthodes de Monte Carlo (bien adaptées pour des problèmes de ce type, en grande dimension). Nous proposons tout d'abord une étude théorique de la méthode Diffusion Monte Carlo, et notamment<br />d'un biais introduit par l'interprétation probabiliste (appelé fixed node approximation). Nous analysons ensuite les méthodes numériques utilisées en Diffusion Monte Carlo, et proposons une nouvelle stratégie pour améliorer l'échantillonnage des méthodes Variational Monte Carlo.<br /><br />En dynamique moléculaire, nous étudions des méthodes numériques pour le calcul de différences d'énergie libre. Les modèles consistent à décrire l'état d'un système par la position (et éventuellement la vitesse) de particules (typiquement les positions des noyaux dans un système moléculaire), qui interagissent au travers d'un potentiel (qui idéalement proviendrait d'un calcul de mécanique quantique pour déterminer l'état fondamental des électrons pour une position donnée des noyaux). L'objectif est de calculer des moyennes par rapport à la mesure de Boltzmann-Gibbs associée à ce potentiel (moyennes dans l'ensemble canonique). Mathématiquement, il s'agit d'un problème d'échantillonnage de mesures métastables (ou multi-modales), en très grande dimension. La particularité de la dynamique moléculaire est que, bien souvent, on a quelques informations sur les "directions de métastabilité" au travers de coordonnées de réaction. En utilisant cette donnée, de nombreuses méthodes ont été proposées pour permettre l'échantillonnage de la mesure de Boltzmann-Gibbs. Dans une série de travaux, nous avons analysé les méthodes basées sur des équations différentielles stochastiques avec contraintes (dont les solutions vivent sur des sous-variétés définies comme des lignes de niveaux de la coordonnée de réaction). Il s'agit en fait d'analyser des méthodes d'échantillonnage de mesures définies sur des sous-variétés de grande dimension. Plus récemment, nous avons étudié des méthodes adaptatives qui ont été proposées pour se débarrasser des métastabilités. Mathématiquement, il s'agit de méthodes d'échantillonnage préférentiel, avec une fonction d'importance qui est calculée au cours de la simulation de manière adaptative. Nous avons étudié la vitesse de convergence vers la mesure d'équilibre pour ces méthodes adaptatives, en utilisant des méthodes d'entropie. Nous avons proposé de nouvelles méthodes numériques à la communauté appliquée pour utiliser au mieux ces idées.<br /><br /><br />La troisième partie du mémoire résume des travaux issus d'une collaboration avec l'entreprise Rio Tinto (anciennement Pechiney puis Alcan), leader mondial pour la technologie des cuves d'électrolyse de l'aluminium. Cette collaboration a été entamée il y a plusieurs années par C. Le Bris, et notamment au travers de la thèse de J-F. Gerbeau. Mathématiquement, il s'agit d'analyser et de discrétiser les équations de la magnétohydrodynamique pour deux fluides incompressibles non miscibles, séparés par une interface libre. Nous expliquons le contexte industriel et la modélisation, nous résumons la méthode numérique adoptée (méthode Arbitrary Lagrangian Eulerian) et donnons quelques propriétés satisfaites par le schéma (stabilité, conservation de la masse). Nous montrons ensuite comment ce modèle permet d'étudier un phénomène (potentiellement déstabilisant) observé dans les cuves d'électrolyse : le rolling. Ces résultats ont été pour la plupart obtenus durant la thèse.<br /><br />Plus récemment, dans le prolongement de l'étude industrielle, nous nous sommes intéressés à un problème de modélisation fondamentale pour les écoulements à surface (ou interface) libre: le mouvement de la ligne de contact (i.e. le bord de la surface libre qui glisse le long de la paroi). En résumé, nos travaux consistent essentiellement en deux contributions: (i) une compréhension variationnelle d'une condition aux limites permettant de modéliser correctement le mouvement de la ligne de contact (Generalized Navier Boundary Condition), et son implémentation dans un schéma Arbitrary Lagrangian Eulerian, (ii) une analyse de la stabilité du schéma obtenu.
|
204 |
COMPORTEMENT HYDRO-MECANIQUE DE ROCHES RESERVOIR SOUS CONTRAINTES :<br />Relations entre évolution de perméabilité et échelles des mécanismes d'endommagementDautriat, Jérémie 19 January 2009 (has links) (PDF)
La compréhension et la prévention des mécanismes d'endommagement ayant un impact sur les cinétiques de production et les taux de récupération reste un problème ouvert en ingénierie de réservoir. L'objectif de cette étude repose sur la caractérisation du comportement hydromécanique de roches gréseuses et carbonatés en 'condition de réservoir' et l'identification des mécanismes locaux responsables des évolutions de perméabilité mesurables macroscopiquement. L'essentiel du travail expérimental s'est articulé autour d'un dispositif triaxial original, permettant de mesurer en cours de chargement les évolutions de perméabilité dans les directions principales du tenseur de contraintes. La validation de notre protocole effectuée, une première campagne d'essais en compression hydrostatique et uniaxiale sur les grès de Fontainebleau et de Bentheim permet, d'une part, une analyse plus fine du comportement intrinsèque de ces matériaux par la mise en évidence et la prise en compte d'effets expérimentaux, et d'autre part d'étudier l'impact de l'endommagement fragile sur les perméabilités directionnelles. Une seconde série d'expériences de compression, selon différents chemins de chargement, a été réalisée sur un carbonate, le calcaire d'Estaillades. En régime de déformation élastique, la modélisation de la réduction de perméabilité a été appréhendée par une approche Réseau de Pores, basée sur une représentation simplifiée de l'espace poreux et extraite des reconstructions 3D par µ-tomographie RX. Si la rupture fragile des échantillons ne perturbe que très peu la perméabilité initiale, à plus haute pression effective, les diminutions de perméabilité peuvent atteindre 90% et sont alors associées aux mécanismes de pore collapse. L'analyse des échantillons déformés, couplée aux techniques de corrélation d'images acquises in-situ sur des dispositifs de compression simple sous MEB et sous Optique, permet une meilleure prise compte du rôle des échelles d'hétérogénéités dans la localisation des déformations et de mieux définir leur impact sur les évolutions de perméabilités à l'échelle de l'échantillon.
|
205 |
Modélisation phénoménologique de pulvérisation de sprays couplée à une approche LES pour la phase gazeuse.Jouanguy, Julien 05 July 2007 (has links) (PDF)
La pulvérisation du liquide est un mécanisme très important lors de la combustion dans les moteurs de fusée et de type diesel. C'est dans ce cadre que s'inscrivent les travaux réalisés dans cette thèse. L'objectif est de modéliser les mécanismes physiques qui pilotent l'atomisation assistée par air. Dans cette configuration, de nombreux paramètres peuvent influer sur la fragmentation du liquide tels que les vitesses initiales du liquide ou du gaz, les masses volumiques des deux phases ou la tension de surface par exemple ... Ce phénomène est donc particulièrement complexe et la résolution exacte de chaque fragmentation est très difficile. Dans ce travail, une approche stochastique est proposée afin de modéliser les différentes étapes d'atomisation assistée par air. Celle-ci permet de décrire la phase d'atomisation primaire et les statistiques du liquide non fragmenté au voisinage de l'injecteur. A partir de ces résultats, des fragments liquides sont formés et transportés dans l'écoulement de façon à décrire l'intégralité du spray. Le mouvement de la phase gazeuse est résolu par simulation des grandes échelles. Le caractère turbulent et instationnaire de l'écoulement est ainsi pris en compte, ce qui permet le suivi lagrangien des éléments liquides issus de la phase d'atomisation primaire. Leurs collisions ainsi que les fragmentations ou coalescences qui en résultent sont également modélisés par l'intermédiaire d'une approche stochastique. Ces différentes étapes permettent de simuler l'atomisation assistée par air et de déterminer la longueur du cœur liquide, l'angle du spray, le diamètre de Sauter moyen et de comparer ces résultats à des données expérimentales.
|
206 |
Modélisation et étude expérimentale de la turbulence au sein des couches limites atmosphériques.Tomas, Séverine 30 January 2007 (has links) (PDF)
La première partie de cette thèse se concentre sur la modélisation unidimensionnelle de la zone à contre-gradient pour les couches limites convectives. La méthode développée consiste à prendre en compte les moments d'ordre trois dans un modèle à l'ordre 1.5. La seconde partie concerne la modélisation de couches limites neutres. Afin d'initialiser et de valider des simulations LES, une série d'expériences en veine hydraulique a été réalisée. Outre l'estimation des quantités moyennes et turbulentes, les mesures obtenues par vélocimétrie par imagerie de particules ont permis de paramétrer la longueur de mélange.
|
207 |
Simulation multi-échelles des solides par une approche couplée dynamique moléculaire/éléments finis. De la modélisation à la simulation haute performance.Anciaux, Guillaume 06 July 2007 (has links) (PDF)
Cette thèse porte sur l'étude de la simulation des solides par des méthodes de couplage multi-échelles (méthode atomique/continue ACM). Dans ce travail de thèse, nous abordons des modéles mathématiques jusqu'à la réalisation informatique dans un contexte de calculs hautes performances parallèles. Après avoir appelé le fonctionnement des méthodes numériques utilisées dans le cadre de la simulation des solides, tels que la dynamique moléculaire et la mécanique des milieux continus, nous présentons les différentes méthodes de couplage existantes utilisées pour les coupler. Nous considérons la méthode Bridging Method développée par T. Belytschko et S. Xiao qui utilise une zone de recouvrement spatiale entre les deux modèles pour réaliser le couplage des degrès de libertés. Après avoir présenté une modification améliorant la stabilité de cette solution, nous ferons une analyse spectrale d'un cas unidimensionel couplé par cette méthode. Nous présenterons ensuite les techniques informatiques qui ont été mise en place afin de réaliser l'implémentation d'un prototype. La plateforme informatique est basé sur une philosophie de composants des entités logicielles qui autorise, in fine, de coupler les codes génériques dans un environnement logiciel. Notamment on s'intéressera à l'implémentation des routines qui permettent de paralléliser le couplage. Nous présenterons enfin les résultats numériques obtenus sur des cas tests en dimension 2 et 3 pour des cas de propagations d'ondes et de propagation de fissures.
|
208 |
Développement instrumental pour les mesures de résistivité sous pression hydrostatique. Étude de systèmes à électrons corrélés d'ytterbium et de la famille A0,33V2O5.Colombier, Estelle 26 May 2008 (has links) (PDF)
Nous souhaitons étudier, sous hautes pressions et basses températures, le diagramme de phase (p,T) de composés à électrons corrélés à base d'ytterbium, et la phase supraconductrice qui apparaît sous pression dans le système a échelles de spins Na0,33V2O5. Nous nous attachons à mesurer des cristaux de très bonne qualité dans des conditions de pression hydrostatiques.<br />Dans ce but, une nouvelle technique de mesure de résistivité sous pression a été mise au point pour appliquer jusqu'à 8 GPa à des échantillons de taille millimétrique.<br />Nous avons montré qu'aucune phase magnétique n'apparait sous pression au-dessus de 2 K pour le composé YbAl3, jusqu'à 6 GPa.<br />Des mesures de résistivité sur des monocristaux d'YbCu2Si2 ont mis en évidence une anisotropie. YbCu2Si2, magnétique à partir d'environ 8 GPa, a été mesuré sous pression pour établir un diagramme de phase précis.<br />Enfin, nous discutons des raisons expérimentales qui nous ont empêché d'observer la supraconductivité dans le composé Na0,33V2O5.
|
209 |
Le signal complexe de la diffusion collective de la lumière et les écoulements turbulentsHonoré, Cyrille 05 June 1996 (has links) (PDF)
La diffusion collective de la lumière est un moyen d'observation des gaz turbulents. Un laser éclaire le volume étudié. Le champ diffusé par les molécules du gaz est détecté, sous un angle proche de la direction de propagation avant. L'information recueillie est proportionnelle à la transformée de Fourier spatiale de la densité du gaz, sur le volume d'observation, suivant le vecteur d'onde de diffusion. La détection hétérodyne permet d'avoir accès au module et à la phase de ce signal complexe.<br /> L'effet Doppler implique qu'il est possible de mesurer la vitesse de l'écoulement: à travers le spectre du signal, on retrouve, sous certaines conditions, la distribution de probabilité de la vitesse moyenne sur le volume observé. De manière instantanée, on a étudié la dérivée de la phase du signal pour déterminer sous quelles conditions, cette dérivée approche la vitesse instantanée moyenne sur le volume. L'évolution temporelle de la vitesse moyenne sur le volume est alors connue. Son spectre peut être calculé. Un coefficient de diffusion turbulente peut être établi. Les expériences liées à cette étude, ont été faites sur une couche de mélange supersonique, dans la soufflerie S150 du LÉA de Poitiers.<br /> La diffusion a aussi la propriété de sélectionner une longueur d'onde, donc une échelle du milieu observé. Cette information est présente dans le module du signal. Un dispositif permettant d'observer simultanément deux diffusions à des échelles différentes a été monté. L'expérience a porté sur un jet à symétrie axiale. L'étude des auto- et intercorrélations entre signaux à échelles différentes laisse apparaitre deux échelles de temps distinctes: un temps court, visible uniquement sur l'autocorrélation, propre à l'échelle observée, et un temps plus long, observable dans tous les cas. Ce dernier ne dépend que de l'échelle de production et de la vitesse moyenne. On a montré que ce temps long est propre aux grandes structures de la turbulence.
|
210 |
Etude de la couronne solaire en 3D et de son évolution avec SOHO/EITPortier-Fozzani, Fabrice 15 December 1999 (has links) (PDF)
Pour mieux comprendre les structures de la couronne solaire de température élevée et leurs évolutions, des méthodes de vision à 3 dimensions à partir des images EUV de SOHO/EIT ont été développées. Des anaglyphes ont servi à mieux comprendre le rôle du champ magnétique et des intéractions entre champs<br />fermés et ouverts. Il est apparu que la reconnection entre des trous coronaux (CH) et des régions actives (AR) peut expliquer certaines disparitions de boucles coronales fermées. De plus, des analyses multi-instruments ont montré que la structuration des<br />CHs résulte parfois de changements dans l'activité magnétique voisine.<br />Les mesures d'incertitudes sur les reconstructions par stéréovision n'ont pas permis de valider une méthode générale pour visualiser la couronne globalement en 3D. Par contre, le principe a pu être utilisé avec succès pour la reconstruction en 3 dimensions de boucles coronales. Ainsi après analyse des paramètres physiques de 30 boucles EUV de températures intermédiaires d'une région active, il est apparu que contrairement aux boucles chaudes en X, elles étaient en équilibre hydrostatique.<br />Les boucles d'une région active émergentes sont apparues comme se détorsadant au fur et à mesure de son grandissement ce qui correspond à un transfert de l'hélicité.<br />Des corrélations entre des brusques détorsadages et des éruptions ont aussi été établis dans les cas où la torsion initiale est trop importante et permet le développement<br />d'instabilités.<br />Ces études 3D vont pouvoir permettre de mieux contraindre les bilans énergétiques pour le chauffage coronal gràce à la conservation de l'hélicité et d'améliorer la prévision de la météorologie spatiale. L'utilisation de techniques d'imageries adaptées (comme<br />le dégrillage ou le Modèle de Vision Multi-échelle) a permis de faire ressortir certains détails dans la formation de CMEs par exemple.
|
Page generated in 0.3014 seconds