• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 32
  • 4
  • Tagged with
  • 98
  • 81
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

La ville nouvelle de Marne-la-Vallée et son insertion dans la dynamique francilienne : évaluation des enjeux du renforcement de la structure polycentrique sur les systèmes de déplacements / The new town of Marne-la-Vallée and its insertion into the dynamic area of greater Paris : assessment of the reinforcement issues of the polycentric structure on travel demand systems

Aw, Thierno 06 December 2010 (has links)
Pour planifier le devenir d'un territoire, il est classique de projeter l'évolution de l'usage du sol et du système de transport. La projection est fondée sur le principe que les lieux d'activités, selon leurs fonctions urbaines respectives, sont en relations de complémentarité : cette complémentarité induit des besoins de déplacements, lesquels se concrétisent en des flux de transport. Souvent les projections sont réalisées de manière séparée par grand domaine, occupation des sols d'une part et transport de l'autre, or il y a des interactions. La politique polycentrique poursuivie depuis plus d'une génération en région francilienne part de cette volonté de répartition spatiale optimale des activités humaines avec la création des Villes Nouvelles. Leur localisation dans des zones préférentielles d'extension urbaine desservies par des axes structurants de transports devait apporter une cohérence d'ensemble à la région urbaine et contribuer efficacement à une meilleure gestion des flux de déplacements à la fois en termes de structure géographique, pour limiter la congestion en direction du centre, et de répartition modale en faveur des transports collectifs. L'analyse récente des données d'occupation des sols comme celle des comportements de mobilité tend à confirmer que l'Ile-de- France reste encore caractérisée par une forme urbaine à dominante monocentrique. Le niveau de masse et de centralité défini dans le schéma initial d'aménagement n'a pas été atteint pour les « centres urbains nouveaux », la dépendance au cœur de l'agglomération est toujours vérifiée, et la voiture particulière reste privilégiée comme mode de déplacement.Pour vérifier la capacité de la forme urbaine polycentrique à favoriser une mobilité durable, notre thèse prospecte deux partis d'aménagement pour la période 2004-2030, tous deux favorisant la densification de l'agglomération mais l'un de manière homogène et l'autre de manière ciblée, orientant davantage la localisation des activités humaines dans les grands pôles d'urbanisation. Dans cet objectif, nous avons simulé de manière intégrée l'usage du sol et les transports en mobilisant le modèle d'offre de transport et de demande de déplacements de la Driea-IDF, et une méthode de projection démographique spatialisée basée sur le modèle Omphale de l'Insee et ajoutant une focalisation par sous-ensemble territorial.Dans ces conditions, nous avons montré que l'évolution démographique prévue d'ici 2030, canalisée dans l'espace selon une logique de densification, devrait permettre un renforcement de la centralité urbaine dans les grands pôles d'aménagement que sont les Villes Nouvelles, avec une intensification de la cohérence urbaine entre les domiciles et les emplois, une réduction des distances moyennes entre domicile et travail, une proportion accrue de déplacements effectués par des modes non motorisés, et une amélioration de la performance territoriale des réseaux de transport. Ces effets seraient plus forts avec le scénario de densification ciblée qu'avec celui de densification homogène. Les transformations dans la structure des interactions spatiales et dans les besoins de déplacement, couplées au développement programmé des réseaux routiers et collectifs de transport, mais confrontées à l'accroissement démographique, sembleraient permettre de maintenir la qualité de service pour les modes individuels de transport. Le développement démographique et le maintien de la qualité de service en transport concourraient à améliorer non seulement les centralités secondaires donc l'accessibilité dans un cadre de proximité, mais encore les effectifs de population susceptibles d'atteindre une destination en un temps limité, ou le nombre d'emplois pouvant être visés depuis un lieu de domicile / When envisioning the future of a territory, public authorities typically make an effort to anticipate changes in land-use and transport systems. These projections are based on the principle that different zones are complementary, as they have varying urban functions. These differences generate transport demand, which then leads to concrete transport flows. Land use and transport forecasts are often carried out independently despite the well-known interactions between these two domains. The Greater Paris Area has pursued a polycentric New Town policy for over a generation, seeking an optimal spatial distribution of human activities. These New Towns were located in "preferential urban growth" zones served by major transport infrastructures in hopes of increasing the urban region's geographic coherence and better managing transport demand by reducing congestion toward the centre city and increasing public transit's mode share. Nonetheless, recent analyses of land-use data and mobility behaviour reveal that Greater Paris still possesses a dominantly monocentric urban form. The New Towns remain dependent on central Paris, and the private car is still the favoured transport mode ; these areas never attained the degree of importance and centrality called for in the initial development plans. In order to verify the polycentric urban form's capacity to foster sustainable mobility, our thesis investigates two scenarios for urban development over the 2004-2030 period. Both involve increasing urban density, but this increase is spatially homogeneous in one scenario and more targeted in the other, with human activities clustered near urban subcentres. We carry out an integrated land-use and transport simulation, employing a supply and demand model from the Driea-IDF (Regional Direction for Infrastructure and Spatial Planning), as well as spatially focussed demographic projections based on the Omphale model from INSEE (the National Institute for Statistics and Economic Studies). In this way, we show that spatially channelling expected population growth before 2030 with the goal of increasing density could intensify urban centrality in the New Towns, leading to an increase in coherence (in terms of jobs-housing balance), a reduction in average commuting distances, a greater share of non-motorized transport, and transport network performance improvements. These effects are stronger in our targeted scenario than in the homogeneous case. Despite the challenges presented by population growth, it appears possible to maintain private transport modes' quality of service through changes in the structure of spatial interactions and transport requirements, in conjunction with planned road and transit development. Quality of service stabilization would require increased reliance on high-capacity urban trunk roads. In the targeted density scenario, traffic on the road network could even decrease in certain places, and capacity could then be reallocated to sustainable transport modes. Demographic change and transport quality of service can work together to both enhance secondary centres (improving accessibility through nearness) and increase the number of inhabitants capable of reaching a destination in a given amount of time, or the number of jobs accessible from residential areas
42

Expérience comportementale et modélisation par réseau neuronal des différences entre les processus de catégorisation par règles logiques et par ressemblance familiale

Morissette, Laurence 05 1900 (has links)
Notre étude est bipartite. En premier lieu nous avons effectué une étude empirique des différences entre les processus de catégorisation explicite (verbalisable) et implicite (non-verbalisable). Nous avons examiné la difficulté et le temps nécessaire pour apprendre trois tâches de catégorisation dites par air de famille, par règle logique conjonctive et par règle logique disjonctive. Nous avons ensuite utilisé un réseau neuronal pour modéliser la catégorisation en lui faisant compléter les mêmes tâches. La comparaison entre les deux nous permet de juger de l’adéquation du modèle. Les données empiriques ont montré un effet de la typicité et de la familiarité en accord avec la documentation et nous trouvons que la tâche de catégorisation par règle disjonctive est la plus difficile alors que la tâche de catégorisation par air de famille est la plus facile. La modélisation par le réseau est une réussite partielle mais nous présentons des solutions afin qu’un réseau futur puisse modéliser le processus catégoriel humain efficacement / Our present research was twofold. First, we conducted a study of the differences in the categorization processes between explicit (verbalizable) and implicit (nonverbalizable) tasks. The differentiation was done in term of difficulty and time necessary to learn the rule of the category for family resemblance, conjunctive and disjunctive rules. We then used a neural network to model the categorization and had it complete the same tasks. The comparison between the two gave us insight into how (and if) the network can be used as a model of human categorization. The empirical data confirmed an effect of familiarity and typicality, as supported by previous studies, and we confirmed that the disjunctive task was the hardest to learn for humans while our results point toward the family resemblance task as being the easiest. The modelization by the neural network was partially successful at best but we present options that could permit a next generation neural network to model the categorization process truthfully
43

Présentation et étude de quelques problèmes d’algorithmique distribuée / Presentation and study of some distributed algorithm problems

Morsellino, Thomas 25 September 2012 (has links)
Nous proposons tout d'abord une étude de plusieurs problèmes de l'algorithmique distribuée. Nous fournissons un modèle formel appliqué aux réseaux de diffusion anonymes. Dans ce modèle, nous caractérisons les graphes dans lesquels il est possible de résoudre l'énumération et l'élection. Cette caractérisation se base sur la notion d'homomorphisme de graphes. Nous proposons deux algorithmes dont la complexité est polynomiale et qui améliorent les complexités exponentielles connues jusqu'à présent. Dans un second temps, nous étudions le problème du calcul de l'état global et nous introduisons la notion de weak snapshot. Nous montrons qu'il existe des solutions pour ce problème dans les réseaux anonymes. Nous présentons plusieurs résultats concernant le calcul de l'état global en liaison avec des applications telles que le calcul de points de reprise, la détection de la terminaison ou encore le calcul d'une cartographie du réseau. Dans un cadre plus pratique, nous présentons la conception, le développement et l'implémentation des algorithmes proposés pour le calcul de l'état global au sein du logiciel de simulation et de visualisation ViSiDiA. / In this thesis, we first present a study of several problems in the field of distributed algorithms. We provide a formal model that relies on anonymous networks. In this model, we characterize graphs in which it is possible to solve enumeration and leader election problems. This characterization is based on graph homomorphism. We introduce two algorithms with polynomial complexities that improve existing works with exponential complexities. On the other hand, we study the snapshot problem and we introduce the notion of weak snapshot. We show that there exist solutions for this problem in the context of anonymous networks. We present several results about distributed snapshots that deal with checkpoint and rollback recovery, termination detection or the cartography computation of a network. In a practical aspect, we present the conception, the development process and the implementation of these distributed snapshot algorithms within the simulation and visualization software ViSiDiA.
44

Intégration de nanostructures plasmoniques au sein de dispositifs photovoltaïques organiques : étude numérique et expérimentale.

Vedraine, Sylvain 26 October 2012 (has links)
Les cellules solaires en couches minces permettent de produire de l'énergie à bas-coût et sans émission de gaz à effet de serre. Dans le but de réaliser des dispositifs toujours plus performants, nous étudions l'impact de l'intégration de nanostructures métalliques (NSs) au sein de cellules solaires organiques (CSO). Ces NSs peuvent alors générer des effets diffusifs et des résonances issues de plasmons de surface. A l'aide d'un modèle numérique FDTD, nous démontrons que l'ingénierie plasmonique peut servir à augmenter l'absorption dans le matériau photoactif tout en limitant l'énergie perdue sous forme de chaleur dans les NSs. L'influence de paramètres opto-géométriques de structures associant matériaux organiques et effets plasmoniques est étudiée (diamètre, position des particules dans la couche et période du réseau de particules sphériques). Expérimentalement, des NSs d'argent ont été réalisées par évaporation sous vide puis intégrées dans des couches organiques. Nous avons mesuré une exaltation de l'absorption optique dans la gamme spectrale utile à la photo-conversion. Trois architectures différentes de CSO plasmonique ont été fabriquées et caractérisées par MEB, TEM et ToF-SIMS, puis modélisées, permettant d'identifier des verrous technologiques et de proposer des pistes d'amélioration. Nous avons aussi intégré des NSs au sein d'un empilement transparent et conducteur de type oxyde/métal/oxyde, dans le but de remplacer l'électrode classique en oxyde d'indium et d'étain d'une CSO. Le rôle de chaque couche de l'empilement sur le comportement optique de l'électrode est discuté. Les épaisseurs des couches d'une électrode de type ZnO/Ag/ZnO ont été optimisées. / Thin-film solar cells are able to produce low-cost energy without greenhouse gas emissions. In order to increase devices performance, we investigate the impact of metallic nanostructures (NSs) integrated in organic solar cells (OSC). These NSs can generate scattering effects and surface plasmon resonances. Using FDTD modeling, we demonstrate that plasmon engineering can be used to increase light absorption in a photoactive material while minimizing the energy lost as heat in the NSs. The influence of opto-geometrical parameters of plasmonic structures in organic material is investigated (diameter, position of particles in the layer and period of spherical particles array). Experimentally, silver NSs are deposited by evaporation and incorporated into an organic layer. We measured an optical absorption enhancement in the spectral range useful for photo-conversion. Three different architectures of plasmonic OSC are fabricated and characterized by SEM, TEM and ToF-SIMS, then modeled, allowing us to identify some technological obstacles and to propose possible improvements. We also integrated NSs inside a transparent and conductive multilayer stack composed of oxide/metal/oxide, in the aim of replacing the traditional indium tin oxide electrode of a OSC. The role of each layer of the stack on the electrode optical behavior is discussed. Layers thicknesses of a ZnO/Ag/ZnO electrode were optimized.
45

Mise au point d'un réacteur photocatalytique pour la dépollution de l'eau / Development of a photocatalytic reactor for wastewater treatment

Zekri, Mohamed el Mehdi 25 September 2012 (has links)
L’objectif de cette étude est de mettre au point une méthodologie de travail dédiée à la conception d’un réacteur photocatalytique pour la purification des eaux. Notre ambition étant de passer de la photocatalyse comme processus chimique à la photocatalyse comme procédé de dépollution. Pour cela il nous a paru nécessaire de répondre à deux questions, à savoir : - Dans un tel système, quels seront les phénomènes physico-chimiques majeurs mis en jeux ? -Y-a-t’il un moyen de prédire les performances de notre système ?Tout d’abord, nous avons essayé de travailler sur des photocatalyseurs en suspension, donc non immobilisés sur un support. Le but est d’éviter une étape de filtration couteuse et techniquement difficile. Ainsi différents types de dioxyde de titane ont été déposés sur des supports de différentes géométries.Le premier média obtenu était du dioxyde de titane commercial (P25 de Evonik et UV100 de Sachtleben) déposé sur des billes en verre de diamètre 2 et 4 mm, introduit dans un réacteur annulaire siège de la réaction de dégradation photocatalytique et éclairé par une seule source de lumière UV. La photoactivité de ce média a été testée sur du phénol, le polluant primaire modèle choisi dans cette étude. L’hydroquinone et la benzoquinone, deux de ses principaux intermédiaires de dégradation ont également été analysés. L’efficacité du dépôt a ainsi été calculée sur les différentes configurations obtenues. Les résultats ont été satisfaisants sans arriver à avoir un niveau de photoactivité comparable à celui du TiO2 en mode suspension. Nous avons donc cherché à améliorer les performances de notre système réactionnel en travaillant sur un support ayant une autre géométrie. Notre choix s’est porté sur des mousses en alumine épousant parfaitement le vide réactionnel. Le même protocole expérimental a été appliqué à ces dernières. Les résultats de photodégradation ont montrés une durabilité meilleure que celle obtenue sur les billes en verre, mais aussi une photoperformance dépassant celle réalisée sur du dioxyde de titane en mode suspension.Afin de mieux comprendre les différences de photoactivité entre les supports, nous avons tenté de simuler, par la méthode Monte Carlo, la propagation de la lumière à travers les photocatalyseurs, qu’ils soient en mode suspension ou déposés. Les résultats ont montrés que le dioxyde de titane en suspension avait le meilleur taux d’absorption de la lumière comparé au TiO2 fixé sur les supports. Néanmoins l’absorption se fait sur un volume très petit du réacteur et la meilleure répartition de l’énergie lumineuse se trouve dans les mousses en alumine.Les données issues de ces simulations notamment, la LVRPA pour « Local Volumetric Rate of Photon Absorption » nous ont permis d’entamer la dernière étape de notre travail à savoir la construction d’un modèle prédictif des performances photocatalytiques du système réactionnel. Nous avons pour cela introduit un terme qui traduit la probabilité qu’un photon absorbé par le photocatalyseur donne un radical hydroxyle. Les résultats obtenus par notre environnement mathématique ont montrés de bonnes corrélations avec les expériences et ont permis de tirer certaines conclusions quand à l’amélioration de notre système photocatalytique. / The objective of this work is to develop a methodology dedicated to the design of a photocatalytic reactor for water purification. The principle is to go from photocatalysis as chemical process to photocatalysis as remediation method.Iit necessary for that to respond to two questions: - In such a system, what are the major physico-chemical phenomena? - Is there a way to predict the performance of our system?First of all, we tried to work on suspended photocatalysts to avoid a costly filtration step and technical difficulties. Thus, different types of titanium dioxide were deposited on substrates of different geometries.The first obtained medium was commercial titanium dioxide (P25 from Evonik and UV100 from Sachtleben) deposited on glass beads of 2 and 4 mm, inserted into an annular reactor illuminated by a single UV light source. The photoactivity of this media has been tested on phenol, the primary pollutant model chosen in this study. Hydroquinone and benzoquinone, two of its main degradation intermediates were also analyzed. The deposition efficiency has been estimated on different configurations. The results were satisfactory but did not reach a level comparable to that of photoactivity of TiO2 in suspend mode. Thus, we sought to improve the performance of our reaction system working on a support having a different geometry. Our choice fell on alumina foams perfectly matching the vacuum in the reactor. The same experimental protocol was applied to the foam. The results have shown photodegradation durability better than that obtained on glass beads and also the photoperformance exceeding that of titanium dioxide in suspend mode.To understand better the photoactivity of our media, we simulated by the Monte Carlo method the propagation of the light through the different photocatalysts (suspend mode or deposited). The results showed that the titanium dioxide suspension had the best absorption of light compared to TiO2 fixed on media. Nevertheless, absorption was located on a very small volume of the reactor and a better distribution of the light energy occurs in the alumina foams.The data obtained from these simulations, including the LVRPA "Local Volumetric Rate of Photon Absorption", allowed us to achieve the final step of our work, which is the construction of a predictive model of photocatalytic performance of the reaction system. Thus, we have introduced a term that reflects the probability that a photon absorbed by the photocatalyst gives a hydroxyl radical. The results obtained by our mathematical environment have shown a good correlation with experiments and helped us to draw some conclusions for the improving of our photocatalytic system.
46

Optimisation des pratiques de gestion des déchets agricoles en lien avec leur valorisation par méthanisation / Optimization of management practices of agricultural wastes before anaerobic digestion

Teixeira Franco, Rùben 12 October 2017 (has links)
A l’instar d’autres pays européens, la France se mobilise actuellement pour la valorisation énergétique de ses déchets agricoles par méthanisation. Néanmoins, la production d’une partie de ces ressources n’est pas constante toute au long de l’année. En conséquence, afin de permettre l'approvisionnement continu des installations de biogaz, elles doivent être conservées parfois pendant de longues périodes (plusieurs mois). Cette thèse porte sur l’optimisation des pratiques de gestion des ressources agricoles avant méthanisation. Différentes conditions de stockage ont été étudiées, en particulier le stockage aérobie ainsi que l’ensilage, dans l’optique de l’amélioration de la conservation du potentiel bio-méthanogène et de l’optimisation de la conversion de la matière organique lors de la méthanisation. Grâce à une méthode expérimentale originale, la caractérisation multiphasique des déchets à différents stades de leur gestion a été mise en œuvre, à la fois sur les compartiments biochimiques et sur la biodisponibilité du carbone pour la méthanisation. Dans une première partie, la préparation et le stockage de cultures intermédiaires à vocation énergétique ont été étudiés au laboratoire. Les résultats obtenus ont permis de démontrer l’avantage majeur de l’ensilage plutôt que le stockage à l’air libre pour la conservation du pouvoir méthanogène. Deuxièmement, des essais de stockage de longue durée ont été réalisés pour des fumiers de bovin. Ces expériences ont permis de mettre en évidence la mauvaise conservation des fumiers et l’intérêt de l’utilisation de co-substrats pour améliorer la performance du stockage en conditions d’ensilage. Afin d’expliquer les mécanismes majeurs qui se produisent au cours de l’ensilage, une approche de modélisation a été utilisée pour synthétiser et interpréter les résultats. Ces travaux de recherche ont permis d’identifier les bonnes pratiques de gestion pour les intrants de méthanisation agricole afin d’optimiser au mieux la conservation des ressources. / Like other European countries, France is currently mobilizing for the energy recovery of its agricultural wastes by anaerobic digestion. Nevertheless, the production of these resources undergoes several fluctuations throughout the year. Consequently, in order to allow the continuous supply of biogas plants, these raw materials must be often stored for long periods (several months). This thesis focuses on the optimization of agricultural wastes management practices before anaerobic digestion. Different storage conditions were studied, notably the open-air storage and ensiling, with the aim of improving the conservation of the biochemical methane potential and optimizing the conversion of organic matter during anaerobic digestion. An original experimental methodology was developed and implemented for the multiphasic characterization of biomass at different stages of its management and storage, including analysis on the different biochemical fractions and bioavailability of carbon for anaerobic digestion. First, this methodology was applied to the preparation and long-term storage of catch crops. This evidenced a major advantage of using ensiling rather than open-air storage for the preservation of biomass and methane potential. Second, long-term storage trials were conducted for cattle manure. These experiments highlighted the poor conservation of manure and the benefits of co-substrates in the improvement of storage performances under ensiling conditions. To explain the major mechanisms that occur during the ensiling process, a modelling approach was used to synthesize and interpret the results. Finally, this research work led to the identification of good conservation practices for the major feedstocks of agricultural biogas plants.
47

Representações do espaço geográfico: mapas dasimétricos, anamorfoses e modelização gráfica / Representations of geographical space: dasymetric maps, anamorphosis and graphic modelization

Dutenkefer, Eduardo 24 September 2010 (has links)
Esta pesquisa trabalha com dois instrumentos importantes que representam o espaço geográfico, bem como, permitem perceber, conhecer, apreender e atuar sobre a realidade: os mapas e a modelização gráfica. O mapa como uma abstração da realidade espacial, que é modelizado e codificado com o propósito de ser apreendido. Mais que representar fenômenos espaciais, o mapa espacializa os fenômenos que representa, sejam eles espaciais ou não, materiais ou ideais. Todo mapa é fruto de transformações cartográficas espaciais. Transformação no sentido de que vai além da forma original que deveria representar, dando outra forma ao espaço geográfico analisado. Cartográfica, porque o objeto que é transformado é o mapa. Espacial, pois se refere às localizações, direções, distâncias e áreas. A modelização gráfica, por sua vez, é apoiada nos elementos estruturantes primordiais do espaço geográfico: os coremas [chorème]. Sob forma de figuras geométricas simples, os coremas escrituram modelos geográficos e estão estreitamente relacionados e próximos da cartografia, mas não se confundem. A modelização gráfica é geográfica, pois se refere às formas espaciais produzidas na apropriação do espaço pela sociedade. Mapas e modelização gráfica têm a função primordial de comunicar e de serem instrumentos de análise do espaço geográfico. Espaço geográfico compreendido aqui como dimensão da sociedade. Dimensão estabelecida pelo conjunto de relações sociais que se dão simultaneamente e mediadas pela(s) distância(s) que aproximam ou afastam realidade(s) diferentes ou iguais. Para dimensionar esta sociedade usando o mapa e a modelização gráfica, o recorte espacial foi a metrópole de São Paulo. Metrópole como lugar de concentração humana, de equipamentos culturais, sociais, de densidades e diversidades de um modo de vida típico de nosso mundo atual o urbano. Espaço representado em mapas e modelos coremáticos por meio de uma característica fundamental que evidencia seu caráter urbano: a densidade. Densidade expressa em mapa dasimétrico literalmente métrica da densidade evidenciando particularmente a densidade de população da metrópole e os mapas em anamorfose e cartogramas em anamorfose, que alterando o fundo de mapa tradicional, criam imagens de densidades. Estes mapas revelam estruturas e organizações que ajudam a compor uma síntese gráfica final da metrópole de São Paulo. / This research discuss two important ways to represent geographical space. Those representation techniques allow us to notice, know, apprehend and face reality: they are maps and graphic modelization. Map as an abstraction of spatial reality modelized and codified to be apprehended. More than represent spatial phenomena, the map turn visible the element that represent. The spatial distribution element might be spatial or not and might be material and ideal or not. Every map results from a spatial cartographic transformation. Transformation considered in a sense that goes beyond the original form that should be represented, giving another form to the analyzed geographical space. Cartographic, since the map is the object to be transformed. Spatial, since it refers to locations, directions, distances and areas. Graphic modelization, is based in the components that express geographic space: the choremes [chorème]. The choremes describe geographical models in graphical forms and are deeply related to cartography, but are not the same. Graphic modelization is geographical, because it refers to the social appropriation of space. Both, maps and graphic modelization aim to analyze and present the geographical space. To analyze the society spatial dimension through graphic modelization, the São Paulo Metropolitan Area was defined. Metropolis characterized by the concentration of people, cultural equipment, densities and diversities of urban life. Space that is represented in maps and with chorematic models that make evident their urban character: density. Density presented in dasymetric maps showing the metropolis population density and the cartogram. Those cartograms presenting the transformed map background generates an image of the densities. Those maps present structure and organization that contribute in the comprehension of the Sao Paulo Metropolis.
48

Hybrid modular models for the dynamic study of high-speed thin -rimmed/-webbed gears / Modèles modulaires hybrides pour l'étude dynamique à haute-vitesse des engrenages à voile-minces

Guilbert, Bérengère 08 December 2017 (has links)
Ces travaux de thèse ont été réalisés grâce à une collaboration entre Safran Helicopter Engines (anciennement Turbomeca) et le Laboratoire de Mécanique des Contacts et des Structures (LaMCoS) de l’INSA de Lyon (UMR CNRS 5259). Les boîtes de transmission par engrenages des moteurs d’hélicoptères convoient la puissance mécanique du turbomoteur aux accessoires (pompes, démarreur) et au rotor. Leur conception dépend des nécessités des équipements embarqués, en particulier l’allègement pour réduire la consommation en carburant. Les engrenages haute vitesse de la transmission sont allégés grâce à des enlèvements de matière dans les corps sous la denture, les voiles-minces. Un modèle dynamique d’engrenages a été développé pendant ce projet de recherche. Son approche modulaire permet l’inclusion conjointe des sollicitations dues aux vibrations de l’engrenage et de la nouvelle flexibilité des voiles-minces. Il dérive d’un modèle à paramètres concentrés, comprenant des arbres en poutre, des paliers et carters sous forme de raideurs additionnelles et un élément d’engrenage rigide inclus par son nœud central. Hypothèse est faite que tous les contacts sont situés sur les lignes de contact du plan d’action. Ces lignes sont discrétisées selon des tranches-minces dans les dents et la déviation normale des cellules est recalculée à chaque pas de temps selon la déflexion de la denture. Le nouveau modèle remplace l’engrenage rigide par une modélisation EF du pignon et/ou de la roue condensée sur les nœuds de jante. Une interface lie les raideurs du plan d’action discrétisé aux éléments finis du corps d’engrenage. L’élément prend donc en compte à la fois les sollicitations de l’engrenage et le comportement statique et modal des corps flexibles en dynamique. Des comparaisons sont faites avec des données numériques et expérimentales. Elles attestent de la capacité du nouveau modèle à prédire le comportement dynamique des engrenages flexibles à hauts régimes de rotation. Ces résultats intègrent entre autres des données locales et globales en dynamique. Finalement, le modèle est utilisé sur les deux cas académiques validés pour visualiser les effets des corps flexibles plus en détails. Un premier focus sera fait sur la déflexion statique due aux charges d’engrènement et sur l’optimisation sur le fonctionnement dynamique possible. Puis, les impacts des sollicitations de l’engrènement sur le voile en rotation seront étudiés. Enfin, le pignon et la roue seront affinés, afin de visualiser l’optimisation massique possible et son impact sur la dynamique de l’engrenage. / The research work presented in this manuscript was conducted in the Contact and Structural Mechanics Laboratory (LaMCoS) at INSA Lyon, in partnership with Safran Helicopter Engines (formerly-Turbomeca). In helicopters, the power from the turboshaft is transmitted to the rotor and the various accessories (pumps, starters etc…) via transmission gearboxes. In the context of high-speed, light-weight aeronautical applications, mechanical parts such as gears have to meet somehow contradictory design requirements in terms of reliability and mass reduction thus justifying precise dynamic simulations. The present work focuses on the definition of modular gear dynamic models, capable of integrating both the local phenomena associated with the instant contact conditions between the tooth flanks and the more global aspects related to shafts, bearings and particularly the contributions of light thin-rimmed /-webbed gear bodies. The proposed models rely on combinations of condensed sub-structures, lumped parameter and beam elements to simulate a pinion-gear pair, shafts, bearings and housing. Mesh elasticity is time-varying, possibly non-linear and is accounted for by Winkler foundations derived from a classic thin-slice model. The contact lines in the base plane are therefore discretised into elemental segments which are all attributed a mesh stiffness function and a normal deviation which are updated depending on the pinion and gear angular positions. The main originality in this PhD consists in inserting condensed finite elements models to simulate flexible gear bodies while keeping the simple and faster rigid-body approach for solid gears. To this end, a specific interface has been developed to connect the discretised tooth contact lines to the continuous finite element gear body models and avoid numerical spikes in the tooth load distributions for example. A number of comparisons with numerical and experimental results show that the proposed modelling is sound and can capture most of the quasi-static and dynamic behaviour of single stage reduction units with thin-webbed gears and/or pinions. The model is then applied to the analysis of academic and industrial gears with the objective of analysing the contributions of thin, flexible bodies. Results are presented which highlight the role of centrifugal effects and tooth shape modifications at high speeds. Finally, the possibility to further improve gear web design with regard to mass reduction is investigated and commented upon.
49

Etude du décolmatage, par procédés chimiques et biologiques, des membranes échangeuses d'ions utilisées en électrodialyse dans le domaine agroalimentaire / Cleaning study of ion-exchange membranes used in electrodialysis for food industry by chemical and biological processes

Bdiri, Myriam 30 October 2018 (has links)
L’électrodialyse (ED) est principalement basée sur l’action spécifique des membranes échangeuses d’ions (MEIs) et est largement répandue en industrie agroalimentaire pour la stabilisation tartrique des vins, la désacidification et le traitement des jus de fruits, la déminéralisation du lactosérum ou l’élimination et le fractionnement des protéines du lait. Le colmatage organique, accentué par la complexité de composition des effluents alimentaires et leur richesse en composés phénoliques, représente un facteur majeur de limitation de l’efficacité des procédés et des performances des MEIs. Ce phénomène provoque une diminution de la sélectivité de membranes, une augmentation de leur résistance électrique et réduit le rendement énergétique du procédé conduisant à des pertes économiques en industrie. Cette étude consiste principalement à étudier le décolmatage de MEIs par procédés chimiques et biologiques. Des lots de membranes échangeuses de cations (MECs) et d’anions (MEAs) neuves (1 lot de MEC et 1 lot de MEA) et usées (3 lots de MECs et 2 lots de MEAs) à différentes durées d’utilisation en ED dans l’industrie agroalimentaire –application confidentielle- ont été étudiés. L’ensemble des échantillons ont préalablement été caractérisés pour détermination des paramètres physicochimiques (capacité d’échange (CE), épaisseur (Tm), conductivité électrique (km), angle de contact (θ), teneur en eau (WC) ainsi que la fraction volumique de la solution inter-gel (f2) résultant de l’exploitation du modèle microhétérogène), de structure et morphologiques par spectroscopie IR-TF, microscopie optique, microscopie électronique à balayage et mécaniques par essais de traction. Les effets directs et indirects (causés par les opérations de lavage régulières en industrie) du colmatage ainsi que l’anisotropie des propriétés mécaniques de membrane ont été mis en évidence. Des méthodes de nettoyage non agressives et respectueuses de l’environnement ont été expérimentées en mode statique en ex-situ : Solutions salines (NaCl à 35 g.L-1 et eau de mer reconstituée), solution hydro-alcoolique (mélange eau-éthanol 12%, pH=3,5) et solutions biologique utilisant 3 catégories d’agents enzymatiques (Rohalase BX-BXL, β-glucanase / Corolase 7089, endo-peptidase / Tyrosinase, polyphenol-oxydase) dont les conditions opératoires d’activité enzymatiques optimale ont été déterminées. L’évolution de CE, km, θ et f2 ont été suivis en fonction de la durée de nettoyage. Les solutions salines ont un effet négligeable sur le nettoyage en profondeur mais restent efficaces pour le nettoyage de surface. Cependant, l’application de la solution hydro-alcoolique et des solutions d’enzymes se sont avérées être efficaces pour le décolmatage interne et externe et parviennent à rétablir significativement les paramètres suivis. Il a été démontré que les composés phénoliques, principaux constituants des effluents traités, sont en majeure partie responsables du colmatage des MEIs. Ceux-ci forment des nanoparticules colloïdales denses, non perméables aux ions dans les méso- et macropores des MEIs et ne pénètrent pas dans ses micropores. Une modification du modèle microhétérogène selon cette hypothèse a permis de fournir une interprétation adéquate du km et de modéliser la modification structurale de la phase inter-gel engendrée par les mécanismes de colmatages de polyphénols et expliquer les raisons de diminution du facteur f2app. Une méthode d’extraction utilisant un mélange de solvants (25%V/V, acétone/méthanol/isopropanol/eau) a été mise au point et a permis d’extraire certains composés phénoliques de différents lots de MECs et MEAs usées et ont été identifiés par chromatographie liquide à haute performance. Il a été démontré que les interactions entre les composés phénoliques et la matrice polymère étaient principalement régies par l’empilement des cycles aromatiques et des interactions électrostatiques du type CH-pi et pi-pi ainsi que les liaisons hydrogènes / Conventional electrodialysis (ED) is mainly based on the specific action of ion exchange membranes (IEMs) and is widely used in food industry for tartaric stabilization of wines, deacidification and treatment of fruit juices, demineralization of whey or elimination and fractionation of milk proteins. The organic fouling, accentuated by the complex composition of the food effluents and their richness in phenolic compounds, represents a major limitative factor of the process efficiency and the IEMs performance. This phenomenon causes a decrease in the selectivity of membranes, an increase in their electrical resistance and reduces the energy efficiency of the process leading to economic losses in industry. This study mainly consists in studying the IEMs cleaning by chemical and biological methods. Two batches of new membranes (cation- (CEMs) and anion-exchange membranes (AEMs)) and five batches of used ones (3 CEMs and 2 AEM) with different durations of use in ED units in food industry -confidential application- have been studied. All the samples have been previously characterized to determine their physicochemical parameters (ion-exchange capacity (IEC), thickness (Tm), electrical conductivity (km), contact angle (θ), water content (WC) and the volume fraction of the inter-gel solution (f2) resulting from the study of the micro heterogeneous model), structure and morphology by FTIR spectroscopy, optical microscopy, scanning electron microscopy and mechanical by tensile strength tests. The direct and indirect effects (caused by the regular cleaning operations in industry) of fouling as well as the anisotropy of the membranes mechanical properties have been highlighted. Non-aggressive and environmentally friendly cleaning methods have been experimentally tested in ex-situ static mode: Saline solutions (35 g.L-1 NaCl and reconstituted seawater), hydro-alcoholic solution (12% water-ethanol mixture, pH = 3,5) and biological solutions using 3 categories of enzymatic agents (Rohalase BX-BXL, β-glucanase / Corolase 7089, endo-peptidase / Tyrosinase, polyphenol oxidase) whose operating conditions of optimal enzymatic activity have been determined. The evolution of IEC, km, θ and f2 were followed in function of the cleaning duration. Saline solutions have a negligible effect on intern cleaning but remain efficient for extern cleaning. However, the application of the hydro-alcoholic solution and enzyme solutions have been found to be efficient for both intern and extern cleaning and led to significant recoveries of the studied parameters. It has been shown that phenolic compounds, the principal constituents of treated effluents, are mainly responsible for MEIs fouling. Apparently, they form dense colloidal nanoparticles not permeable for ions within membrane meso- and macropores, not penetrating into micropores. A modification of the micro heterogeneous model under this assumption allowed an adequate interpretation of km and the modelization of structural modifications of the inter-gel phase generated by the fouling mechanisms by polyphenols and explained the reasons why the f2app decreases. An extraction method using a mixture of solvents (25% V/V, acetone/methanol/ isopropanol/water) was developed and made it possible to extract certain phenolic compounds from different batches of used CEMs and AEMs that were identified by high performance liquid chromatography. It has also been demonstrated that the interactions between the phenolic compounds and the polymer matrix are mainly governed by the stacking of aromatic rings and electrostatic interactions of the CH-pi and pi-pi type as well as the hydrogen bonds
50

Modeling and simulation with molecular dynamics of the edge dislocation behavior in the presence of Frank loops in austenitic stainless steels Fe-Ni-Cr / Modélisation et simulation par dynamique moléculaire du comportement d'une dislocation coin en présence de boucles de Frank dans les aciers austénitiques Fe-Ni-Cr

Baudouin, Jean-Baptiste 05 June 2014 (has links)
Les aciers inoxydables austénitiques sont très utilisés dans l’industrie nucléaire comme structure interne. Ces structures se retrouvent en grande majorité dans la cuve du réacteur et, du fait de leur proximité avec les assemblages combustibles, sont soumis à de rudes conditions d’utilisation. Ces éléments sont donc exposés à des doses d’irradiation élevées et peuvent atteindre 100 dpa après 40 ans d’utilisation, à une température proche de 350°C. Ces conditions d’utilisation modifient la microstructure de l’acier et son comportement mécanique, ce qui entraîne une dégradation de leurs propriétés mécaniques et de leur résistance à la corrosion. L’objectif de cette thèse est d’établir à l’échelle atomique une loi de comportement décrivant le déplacement d’une dislocation coin dans une solution solide Fe-Ni10-Cr20, d’apporter une compréhension des mécanismes d’interaction entre une dislocation coin et une boucle de Frank et d’investiguer l’effet de la température, du générateur aléatoire d’alliage, de l’orientation et du diamètre de la boucle sur la contrainte mécanique. Pour atteindre ces objectifs, des simulations en dynamique moléculaire sont réalisées, basées sur potentiel FeNiCr récemment développé pour imiter le comportement de l’acier austénitique inoxydable. Les simulations sont réalisées en conditions statiques, à 300 K, 600 K et 900 K et les interactions effectuées pour des tailles de boucle de Frank de 2 nm et 10 nm. nous proposons une loi de comportement où sont incluses la température et la vitesse de déformation; l’interaction entre la dislocation coin et la boucle de Frank révèle trois types de mécanismes d’interactions : le cisaillement simple, le défautement et l’absorption de la boucle. L’absorption est le mécanisme le plus stable ; Les analyses des propriétés mécaniques résultantes ont montré que le mécanisme de défautement requiert la contrainte la plus élevée pour que la dislocation franchisse l’obstacle. D’autre part, contrairement aux études précédentes, le défautement de la surface de la boucle n’a lieu que lorsque celle-ci entre en contact avec la dislocation coin ; dans le cas de la boucle de Frank de 2 nm, la corrélation entre la probabilité du mécanisme d’interaction et la force moyenne de l’obstacle constitue des données utiles pour les simulations en Dynamique des Dislocations. Les observations des configurations résultantes de la boucle de Frank suite à l’interaction avec la dislocation permettent de justifier l’apparition de bandes claires observées au MET. Ce travail a été partiellement soutenu par la Commission européenne FP7 par le numéro de subvention 232612 dans le cadre du projet PERFORM 60. / Austenitic stainless steels are widely used in the nuclear industry as internals. These structures reside mainly in the reactor vessel and, due to their proximity with fuel assemblies, are subjected to severe operating conditions. These elements are exposed to high irradiation doses which can reach 100 dpa after 40 years of operating, at a temperature close to 350°C. These operating conditions affect the microstructure of steels and their mechanical behavior, which leads to the deterioration of their mechanical properties and their corrosion resistance. The objective of this PhD research work is to establish at the atomic scale a constitutive law describing the edge dislocation motion in a random Fe-Ni10-Cr20 solid solute solution, to bring a comprehensive understanding of the interaction mechanism between the edge dislocation and the Frank loops and to investigate the effect of temperature, alloying random generator, orientation and size of the Frank loop on the mechanical stress. To achieve these objectives, molecular dynamics simulations were conducted with a recently developed FeNiCr potential used to mimic the behavior of austenitic stainless steels. These simulations have been performed in static conditions as well as at 300 K, 600 K and 900 K and the interactions realized for loop sizes of 2nm and 10nm. A constitutive law taking into account the temperature and strain rate is proposed; the interaction between the edge dislocation and the Frank loop revealed 3 kinds of interaction mechanisms: simple shearing, unfaulting and absorption of the loop. Absorption is the most stable mechanism; the analyses of the resulting mechanical properties have shown that the unfaulting mechanism requires the highest stress to make the dislocation overcome the obstacle. On the other hand, contrary to previous studies, the unfaulting of the loop surface occurs only when the dislocation comes into contact with the edge dislocation; for the 2 nm Frank loop size, the coupling between the probability of the outcome of the reaction and the average strength of the obstacle constitutes useful data for Dislocation Dynamics simulations. The observations of the resulting Frank loop configurations following the interaction with the dislocation allow justifying the emergence of clear bands observed in TEM. This work has been partially supported by the European Commission FP7 with the grant number 232612 as part of the PERFORM 60 project.

Page generated in 0.5018 seconds