• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 724
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8341
  • 2694
  • 2691
  • 1642
  • 1359
  • 1225
  • 866
  • 847
  • 823
  • 646
  • 587
  • 528
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Méthodes morphologique et par éléments finis combinées pour une nouvelle approche de la modélisation 3D du dépôt par projection dynamique par gaz froid (« cold spray ») / A new approach to 3D modeling of the cold spray process, combining morphological methods and finite element simulations

Delloro, Francesco 08 July 2015 (has links)
L'objectif principal de cette étude était de réaliser une modélisation du procédé cold spray, fondée sur l'observation expérimentale et sur des modèles physiques capables de prédire la microstructure du dépôt en fonction de la morphologie de la poudre et des paramètres de projection. Pour y arriver, le travaux se sont organisés autour de trois axes principaux de recherche : caractérisation de la poudre en 3D, simulations d'impact par éléments finis et modélisation d'empilement. Un procédé innovant de caractérisation morphologique de la poudre en 3D, utilisant la microtomographie par rayons X, a été développé. Le traitement des images résultantes a permis d'isoler les particules individuelles, regroupées dans une bibliothèque 3D d'environ 18000 objets. Leur taille et forme ont été caractérisées quantitativement. La méthode de partitionnement des données dite « K-means » a été utilisée pour la répartition des particules en 7 classes de forme.Le deuxième axe de recherche portait sur la simulation d'écrasement des particules, par la méthode des éléments finis (logiciel Abaqus, approche lagrangienne). L'utilisation d'outils de maillage adaptés a permis de réaliser des simulations d'écrasement des particules réelles (en provenance de la bibliothèque 3D). L'automatisation de ces simulations visait la possibilité d'en effectuer en grand nombre mais, face aux problèmes de robustesse rencontrés, le nombre de simulations menées à bien fut limité.Le troisième axe de recherche portait sur le développement d'un modèle d'empilement itératif, fondé sur l'utilisation des résultats des simulations d'écrasement. Ce modèle a été mis en place en 2D par simplicité. Différentes implémentations ont été essayées mais leur développement ne fut pas suffisamment abouti pour l'application à des cas pratiques.La validation des modèles s'est limitée aux simulations d'impact par éléments finis. Les deux types de splats (Ta sur Cu et Ta sur Ta), exigeant de méthodes d'observation expérimentale différentes, ont été traités séparément. Les premiers ont pu être directement observés par microtomographie et regroupés dans une bibliothèque 3D des splats Ta sur Cu. Ensuite, ils ont été comparés, de façon statistique mais aussi individuellement, aux correspondants simulés sans qu'aucune divergence évidente n'apparaisse. Le cas des Ta sur Ta est, en revanche, compliqué du fait de l'homogénéité du système qui empêche l'utilisation directe de la microtomographie. Bien que différentes méthodes visant à apporter une couche du contraste entre particule et substrat aient été essayées, la construction d'une bibliothèque 3D des splats Ta sur Ta n'a pas été possible.L'optimisation des poudres (choix de la granulométrie et de la forme, en vue d'une application donnée) est une des utilisations envisagées pour le modèle d'empilement, ainsi que la simulation de la projection de poudres composites (métal et oxyde). L'inclusion dans le modèle des transformations de phase ouvrirait la porte de la famille de la projection plasma ou de la fabrication additive. Plus généralement, la philosophie derrière la modélisation d'empilement développée dans cette thèse peut être appliquée à tout procédé où l'apport de matière est fait à partir d'une « poudre » subissant une certaine transformation. Enfin, le couplage avec un modèle de comportement pourrait permettre l'estimation de certaines propriétés physiques (par exemple, les conductivités thermique et électrique), dépendant de la microstructure du dépôt. / This study on the cold spray process aimed at achieving an original coating build-up model, capable of predicting the resulting microstructure as a function of powder morphology and process parameters. The work focused on three main interrelated subjects: 3D powder characterization, simulation of individual impacts on a flat substrate by the finite element method and deposition build-up modeling.An innovative method based on microtomographical observations was used for 3D characterization of the powder. Image analysis allowed to separate single powder particles and to gather them into a 3D collection containing approximatively 18 000 objects. Their size and shape were quantitatively measured. A cluster analysis method (K-means) was then applied to this data set to divide the particles into 7 classes based on their shape.The second main research topic consisted in performing particle impact simulations on a flat substrate by the finite element method (using the commercial software Abaqus). The use of dedicated meshing tools allowed to simulate the impact of real particles, as observed by microtomography. Scripting techniques were used to carry out a large number of these simulations but, due to limited robustness of the procedure, only few of them were successfully conducted.The third research area focused on the development of a deposition build-up model (in 2D to allow a simpler implementation). Data from finite element results were interpolated and used in an iterative simulation, where impacting particles were deposited one by one. Different approaches were tested but the development of the model could not be completed in the framework of this thesis.Model validation could be performed on finite element simulations. The two kinds of splats (Ta on Cu and Ta on Ta) were considered separately. Concerning the first, direct microtomographical imaging could be applied, due to the heterogeneity of materials. Splats were observed, individually separated and gathered in a 3D collection as done before with powder particles. Simulated and observed splats could then be compared on a statistical basis. No particular discrepancy was observed, confirming the impact simulation method used. The second kind of splats (Ta on Ta) was complicated by the homogeneity of the materials, preventing the use of microtomography. The deposition (before spraying) of a contrast layer between Ta substrate and Ta particle was tried by different techniques. The only method giving exploitable results was the chemical vapor deposition of a Fe layer onto the powder particles. However, the small number of adherent particles and the weak contrast obtained in the images prevented the use of the methods already applied to powder particles and Ta splats onto Cu.The optimization of powder granulometry and shape (towards a specific application) is one of the main expected applications of the deposition build-up model, together with the simulation of composite powders (typically, metal and oxide). The involvement of phase transformation phenomena into the model could extend its application to the whole family of thermal spray processes (plasma, HVOF, etc.) or to other additive manufacturing techniques. In general, the philosophy behind our modeling approach could be applied to every manufacturing/coating technique where the supply material is in powder form and undergoes a certain transformation during the process. Finally, the coupling of such a model with homogenization techniques would allow the prediction of macroscopic properties depending on deposit microstructure (e.g. thermal or electrical conductivity).
492

Modélisation et analyse de la sécurité au niveau système des primitives cryptographique / System-level security modeling and analysis of cryptographic primitives

Sbiaa, Fatma 10 September 2016 (has links)
Le présent travail porte sur la modélisation et l’implémentation un crypto-processeur reconfigurable capable de garantir le niveau de sécurité exigé. L’étude de la résistance du crypto-système étudié aux différents types d’attaques (statistiques, linéaires et différentielles) peut nous mettre sur la trace de possibles failles, d’en extraire les points faibles et de proposer les contres mesures adéquates. C’est ainsi qu’on a pu proposer des approches de correction afin d’améliorer la robustesse de l’algorithme de cryptage symétrique par blocs. Pour cet effet, on a proposé un flot de conception optimisé pour la modélisation, la vérification et la correction des primitives cryptographiques. Mais la contribution majeure du présent travail fût l’exploitation des propriétés de la théorie de chaos. Pour la conception du crypto-processeur proposé, on a fait appel aux avantages de la modélisation à haut niveau. On a proposé d'utiliser les deux niveaux d'abstraction CABA et TLM. L’utilisation simultanée de ces deux niveaux est possible par le biais du niveau ESL, ce qui garantit de minimiser d’une part l’effort permettant de spécifier les fonctionnalités demandées et d’autre part de négliger les détails inutiles au niveau haut de la conception. / Regarding the increasing complexity of cryptographic devices, testing their security level against existing attacks requires a fast simulation environment. The Advanced Encryption Standard (AES) is widely used in embedded systems in order to secure the sensitive data. Still, some issues lie in the used key and the S-BOX. The present work presents a SystemC implementation of a chaos-based crypto-processor for the AES algorithm.The design of the proposed architecture is studied using the SystemC tools. The proposed correction approach exploits the chaos theory properties to cope with the defaulting parameters of the AES algorithm. Detailed experimental results are given in order to evaluate the security level and the performance criteria. In fact, the proposed crypto- system presents numerous interesting features, including a high security level, a pixel distributing uniformity, a sufficiently large key-space with improved key sensitivity, and acceptable speed.
493

Modélisation du transfert des pesticides du sol jusqu'à l’aquifère : étude par approches de complexité croissante - site de Montreuil-sur-Epte / Transfer modelling of pesticides from ground to aquifer

Gigleux, Sylvain 08 July 2009 (has links)
Le continuum sol-zone non saturée-aquifère est rarement abordé en modélisation des pesticides car il requiert des outils et une méthodologie élaborés. Ces outils peuvent avoir des niveaux de complexités variables, le plus simple étant le modèle global et le plus complexe, le modèle hydrogéologique de transport en 3 dimensions prenant en compte chacun des compartiments dans le détail. Dans ce contexte une modélisation associant de manière dynamique des outils ou des méthodes propres à chaque compartiment propose une solution intermédiaire intéressante. Une approche progressive de la modélisation hydrodynamique ainsi que de la modélisation des transferts de pesticides, appliqué au cas du bassin versant hydrogéologique de la source des Brévilles à Montreuil-sur-Epte (Val d’Oise) a pu être réalisée et fournir un modèle couplé 1D / 2D prenant en compte l’écoulement et le transport dans le sol, la zone non saturée et la zone saturée / The continuum ground-vadose zone-aquifer is rarely studied in the modeling of pesticides because it requires elaborate tools and methodology. These tools may have variable levels of complexity, the simplest being the global model and most complex, the hydrogeological model of transport in 3D taking into account each compartment in detail. In this context, a modeling associating in a dynamic way, tools or specific methods to each compartment will be an interesting intermediate solution. A progressive approach of hydrodynamic modeling and transfer modeling of pesticides applied to the case of the Brévilles spring catchment in Montreuil-sur-Epte (Val d'Oise) has been carried out and provided a coupled model 1D / 2D taking into account the flow and transport in the ground, the unsaturated zone and the saturated zone
494

Contribution à la simulation numérique des crash de véhicules : prise en compte des non-linéarités matérielles et géométriques des composants de fonderie

Flidrova, Kamila 16 December 2010 (has links)
La sécurité routière est aujourd’hui un des objectifs principaux des constructeurs automobiles. Pour garantir un haut niveau de sécurité aux conducteurs et passagers mais aussi aux autres usages de la route, comme les piétons et les deux roues, les véhicules sont testés sous tous les angles avant leur commercialisation. Qu’ils soient virtuels ou réels, les essais jalonnent la conception et le développement d’une voiture. Aujourd’hui, la simulation numérique joue un rôle primordial dans le développement des nouveaux dispositifs et équipements. Pour que les modèles numériques offrent toujours plus de prédictivité, le domaine de la simulation numérique est en constante évolution. L’objectif de cette thèse est de contribuer à l’amélioration de la simulation des crash de véhicules. Le sujet de l’étude présentée dans ce document est composé de deux problématiques. La première consiste en la prise en compte des non-linéarités matérielles de type rupture dans le processus de dimensionnement au choc. Dans le domaine du crash, deux types de pièces sont distingués. Celles qui doivent casser en choc comme les suspensions moteur et celles dont rupture est interdite comme le carter moteur ou bien le carter d’embrayage. La rupture est un phénomène délicat à modéliser et également coûteux en temps de calcul. Par conséquent, les premiers modèles pour la simulation de la rupture ont été seulement fonctionnels (désactivation des ressorts de rupture). Avec l’arrivée de méthodes numériques telles que la méthode de suppression d’éléments, de nombreux modèles de rupture ont été développés. Comme ces modèles sont relativement récents, les bases de données matériaux sont souvent incomplètes ce qui rend difficile leur utilisation. Un des objectifs de la thèse est donc l’identification des paramètres matériaux pour le modèle de Mohr-Coulomb et le modèle de Johnson-Cook à l’aide d’essais sur éprouvettes. Une campagne d’essais sur un sous-système automobile a été également effectuée. La corrélation numérique des essais a permis de valider la modélisation« volumique » de la rupture et d’identifier des voies de progrès de la méthodologie actuelle. Le deuxième sujet présenté dans ce document est la modélisation du comportement élastique linéaire des composants qui ne doivent pas casser en choc et la prise en compte des non-linéarités géométriques de type grandes rotations et de contact. Une modélisation par des super-éléments élastiques linéaires adaptés pour les calculs explicites avec grandes rotations a été proposée pour les pièces massives de fonderie. La modélisation par super-élément est réalisée dans Radioss via un fichier.fxb. Une nouvelle méthode de réduction dérivée à partir de la méthode de MacNeal a été proposée. La base de transformation de celle-ci est constituée par des modes libres complétés par des modes de souplesse résiduelle (MLSR). Le modèle réduit à l’aide de la méthode MLSR est généré avec des routines Matlab développées dans le cadre de la thèse. Afin d’intégrer la modélisation par super-élément dans le processus de dimensionnement au choc PSA, une filière de calcul Abaqus–Matlab–Radioss a été proposée. Un processus de génération du fichier.fxb à l’aide des outils CFAO utilisés chez PSA a été établi. Afin d’optimiser la performance des calculs avec super-élément, trois nouvelles modélisations pour la gestion de contact avec super-élément ont été proposées. Une application de la modélisation par super-élément a été faite pour un modèle de test et également pour un modèle de choc de véhicule. / Nowadays, road safety is one of the main aims of car makers. To guarantee a high level of security to car drivers and passengers and also to other road users, such as for example pedestrians and two wheelers, the cars are submitted to a lot of tests before their commercialisation. Whether they are virtual or real, the experiments set out the conception and the development of a car. Nowadays, the numerical simulation plays a prime role in the development of new systems and equipments. In order to offer more and more predictivity by numerical models, the domain of the numerical simulation is inconstant evolution. The aim of this thesis is to contribute to the improvement of a car crash simulation. The subject of the study presented in this document is composed by two themes. The first one consists in inclusion of the material nonlinearities as fracture in the car crash dimensioning process. In car crash, two types of components are distinguished. Those which have to brake during the shock such as engine suspensions and those which have not to brake such as crankcase or clutch housing. The fracture is a phenomenon difficult to model, moreover, its computational time is important. Thus, the first fracture models were only functional (deactivation of fracture springs). With the arrival of numerical methods such as element deletion method, a lot of fracture models were developed. Because these models are relatively recent, the material databases are often incomplete which makes their use more difficult. Thus, one of the aims of this study is the material parameters identification of Mohr-Coulomb and Johnson-Cook fracture model with the aid of experiments on specimens. Another experiment campaign on an automotive subsystem was also realized. The numerical correlation using the material fracture parameters identified in the first step enabled to validate the "volumic"fracture modelisation and to identify the ways of progress of the current methodology. The second theme presented in this document is the modeling of linear elastic behavior of components which have not to brake in car crash and inclusion of geometrical nonlinearities as large rotations and contact. A modeling by linear elastic super elements adapted for explicit simulations with large rotations was proposed for massive cast iron components. The modeling by super elements was realized in Radioss by means of the file.fxb. A new reduction method derived from that of MacNeal was proposed. Its transformation basis is constituted by a free eigen-modes completed by residual flexibility modes. The model is reduced by means of Matlab routines which were developed in the framework of the thesis. In order to integrate the modeling by superelements in the dimensioning car crash process used at PSA, a procedure Abaqus–Matlab–Radioss was proposed. A process for the generation of the file.fxb by means of the CAD/CAMtools used at PSA was established. In order to optimize the simulation performance with superelements, three new models for contact management with a superelement were proposed. The modeling by superelement was applied in a test model and also in a frontal car crash simulation.
495

Modèles éléments-finis mixtes réduits pour l'optimisation en dynamique des structures

Garambois, Pierre 17 November 2015 (has links)
L’utilisation de structures fines est croissante dans bon nombre d’industries. En ce sens, leur représentation mécanique et optimisation est un enjeu majeur de la recherche actuelle. De façon classique, l’optimisation s’effectue avec un critère de contrainte, obtenue à partir d’une modélisation éléments-finis en déplacements. L’idée de ces travaux est de construire un modèle éléments-finis mixte déplacements-contraintes et de développer des méthodes de réduction adaptées, de façon à améliorer l’efficacité des méthodes d’optimisation existantes. On construit d’une part deux modèles élément-finis mixtes déplacements-contraintes généralisées, pour des analyses dynamiques de structures “plaque” fines et épaisses. Ces derniers présentent l’avantage de donner des résultats identiques aux modèles classiques en déplacements, avec un meilleur temps de reconstruction des champs de contraintes. Cependant, ils s’avèrent être délicats pour plusieurs raisons : la taille des matrices associées, la difficulté de faire une analyse modale rapide, et un temps d’assemblage accru. C’est la raison pour laquelle nous développons par la suite des méthodes de sous-structuration et de double synthèse modale spécifiquement dédiées aux modèles mixtes. L’idée est d’utiliser des bases modales tirées du modèle équivalent en déplacements pour composer une nouvelle base mixte réduite. Dix méthodes sont implémentées, basées sur des modes encastrés, libres et de branche, parmi lesquelles certaines s’avèrent très efficaces pour réduire le nombre de degrés de liberté du système mixte, sans passer par ses modes propres. Enfin, nous intégrons les modèles mixtes sous-structurés sous forme de super- éléments mixtes dans un algorithme génétique, dans le but de mener une optimisation multi-objectif de structures “plaque” académiques sous chargement dynamique, avec critères de contrainte et paramètres d’épaisseur. Les modèles précédemment définis sont ainsi paramétrés en épaisseur, et ne nécessitent plus d’être ré-assemblés pour chaque configuration. Nous disposons désormais d’un modèle mixte “plaque”, qui conserve les avantages d’un accès direct aux contraintes, tout en étant affranchi de sa taille importante par le biais des méthodes de réduction, et de son assemblage grâce au paramétrage. Il en résulte des modèles mécaniques originaux et efficaces, permettant de réduire les coûts de calcul des algorithmes d’optimisation classiques. Ce type de méthode, couplé à de puissants algorithmes génétiques, permet d’avoir une bonne vue d’ensemble des solutions optimales, et laissent augurer des perspectives intéressantes pour une utilisation industrielle. / The use of thin structures is increasing in many industries. Their mechanical representation and optimization is therefore a major challenge in modern research. Usually, the optimization is done with a stress criterion which is determined through displacements finite-element model. The idea of this work is to build a mixed displacements-stresses finite-element model and to develop adapted reduction procedures, in order to improve the efficiency of existing optimization methods. On the one hand, we build two mixed displacements-generalized stresses finite element models, for thin and thick dynamic plate structures analysis. They afford the advantage of giving identical results as classical displacements models with a better computational time to re-build the stress fields. Nevertheless, they turn out to be tricky for some reasons : the bigger matrices size, the difficulty of modal analysis and an assembling time higher. That is the reason why we develop afterwards some sub-structuring methods and double modal synthesis specifically dedicated to mixed models. The idea is to use modal basis taken from the equivalent displacement model so as to build a new mixed reduced basis. Ten methods are implemented, based on fixed modes, free modes, and branch modes. Some of them turn out to be very efficient to drastically reduce the amount of degrees of freedom of the mixed model, without using its eigenmodes. Finally, we embed the sub-structured mixed model in the form of Mixed Super- Element in a genetic algorithm, with the aim of conducting a multi-objective optimization of academic plate structures under dynamic loads, with stresses criterion and thicknesses parameters. The models previously defined are configured with thicknesses as parameters, and therefore don’t need to be re-assembled for each configuration. We now dispose of a powerful thickness-parametrized mixed reduced plate finite element model : it keeps the advantages of an easy access to the stresses and is free of its important size thanks to the reduction method and of its assembling thanks to the parametrization. The result is an original and efficient mechanical model that reduces the computational cost of classical optimization algorithms. That type of model, coupled with powerful genetic algorithms, permits a global optimization with a good overview of the solutions and promises interesting perspectives for industrial uses.
496

Détermination et modélisation du couplage en champ proche magnétique entre systèmes complexes

Zangui, Sanaa 14 October 2011 (has links)
Dans la conception d’un système en électronique de puissance par exemple dans le cas d’un convertisseur ou d’un filtre CEM, les problèmes de la compatibilité électromagnétique ne sont pris en compte que lors de la phase finale durant des tests de vérification et de certification du système. Ainsi un prototype non-conforme à ces tests va engendrer des surcoûts importants ou l’adoption de solutions de « secours » non nécessairement reproductibles et surtout non satisfaisantes car elles impliquent dans la majorité des cas l’ajout d’éléments initialement non prévus (filtres, blindages, ‘). Aussi, il s’avère important et utile d’étudier les problèmes de la CEM dès la phase de conception, c’est l’objectif principal de ce travail de recherche.L’objectif de ce travail est d’établir des modèles permettant de prédire le couplage en champ proche entre les systèmes ou les sous systèmes, comme par exemple entre les éléments constituant un convertisseur. Cette « brique élémentaire » de modélisation est un élément actuellement manquant pour contribuer à la modélisation globale des systèmes d’électronique de puissance d’un point de vue CEM. Pour ce faire, il suffit de recréer le champ électromagnétique rayonné par chacun des systèmes, qui sera représenté comme une source équivalente.Ces sources équivalentes seront utilisées pour calculer le couplage entre les différents éléments en fonction de la distance et de leur placement respectif. La détermination de ces différents couplages nous aidera à mieux optimiser la position des différents composants au sein de la structure pour minimiser les perturbations et augmenter son efficacité.Le modèle construit qui représente le rayonnement en champ proche des différents éléments nous permettra de fournir des bibliothèques qui seront intégrées par la suite dans un logiciel de type circuit, pour une modélisation « globale » du système. / To design a system in power electronics, for instance a converter or an EMC filter, the problems of electromagnetic compatibility are taken into account during the final phase of testing, verification and certification of the system. The aim of our research is to consider the problems of EMC early in the design flow of a product. The objective of this work is to develop models to predict the near-field coupling between systems or subsystems, such as between elements of a converter. To do this, it is important to re-create the electromagnetic field radiated by each system, which will be represented as equivalent source. These equivalent sources are used to compute the coupling between the different elements depending on the distance and their respective position. The determination of these couplings can allow optimizing the position of the components in the structure to minimize the electromagnetic interferences and increase the performance of the system. The method used for the implementation of this approach is the multipolar expension, it can model the influence of generic structures (coils, capacitors, ...) in a spherical reference (r,θ, φ).This representation allows the construction of equivalent field sources for each element. For information or to validate some of our equivalent models, we used the software Flux3D®which is a calculation tool based on the finite element method, developed by CEDRAT andG2Elab.Furthermore, it was important to use a measurement protocol that allows us to inform or validate our models if we do not know all the electrical and geometrical parameters of the system or when the system have a too complex geometry to be modeled numerically in 3D.A measurement bench that can directly measure the components of the decomposition in spherical harmonics is used. The constructed model which represents the near-field radiation of the different elements will allow providing libraries that will be integrated later in a circuit software.
497

Développement d'un procédé de lissage de charge par adsorption/désorption en amont d'une épuration biologique pour le traitement d'eaux résiduaires industrielles.

Bourneuf, Séda 10 July 2015 (has links) (PDF)
Les sites chimiques, pétrochimiques et pétroliers génèrent des effluents chargés en polluants soumis à une réglementation de plus en plus stricte. Le travail de thèse se focalise sur le traitement des effluents industriels et plus spécifiquement sur l'amortissement des pics de pollution via un procédé d'adsorption/désorption afin de minimiser les impacts négatifs sur l'épuration biologique. Pour cela, deux études complémentaires ont été menées en parallèle. La première étude concerne l'adsorption et la désorption de polluants en phase aqueuse avec notamment la sélection d’un adsorbant puis la détermination de ses capacités d'adsorption vis-à-vis de deux molécules modèles. Plusieurs cycles d'adsorption et de désorption ainsi que des pics de pollution ont été réalisés afin de (i) démontrer la faisabilité du procédé, (ii) d'identifier les phénomènes mis en jeu et les paramètres déterminants dans la capacité d'amortissement d'une colonne d'adsorbant et (iii) étudier les phénomènes de compétition entre molécules. Les données expérimentales ont pu être modélisées avec succès à l'aide d’un couplage du modèle Linear Driving Force (LDF) et de l'isotherme de Freundlich. D'autre part, l'impact d'une variation de charge sur les performances épuratoires du traitement biologique seul a été examiné et comparé aux effets observés lors d'un pic de pollution sur un procédé couplant une colonne d'adsorbant (en amont) et le traitement biologique. Un intérêt a également été porté aux foisonnements de bactéries filamenteuses, survenus à plusieurs reprises : une identification des filaments a été réalisée et un traitement de lutte efficace a été mis en place. Les résultats ont démontré qu'une colonne d'adsorbant placée en amont du bassin de biodégradation permet d'améliorer la qualité de l'effluent traité et ainsi de respecter les normes de rejet fixées par la législation.
498

Transport par fluidisation en phase hyperdense : amélioration technologique, modélisation et dimensionnement

Turzo, Gabriel 15 February 2013 (has links) (PDF)
Cette étude est consacrée à la compréhension des phénomènes mis en jeu dans les écoulements fluidisés denses verticaux ascendant et descendant, ainsi que dans leur couplage avec un écoulement fluidisé dense horizontal dans une enceinte à pression contrôlée. Tout d'abord une étude hydrodynamique, réalisée dans une colonne de fluidisation classique sans circulation de solide, a permis de déterminer les différentes grandeurs caractéristiques de la suspension lors de sa fluidisation et de sa désaération, indispensables à la compréhension et à la modélisation des écoulements : Vitesses minimales de fluidisation et de bullage. Porosités au minimum de fluidisation et de bullage. Porosité de la phase dense. Vitesse de désaération et de sédimentation. Puis, l'influence des paramètres tant géométriques (diamètre de la colonne d'expédition, longueur de la partie horizontale, …) qu'opératoires (vitesses de fluidisation de la partie horizontale et d'aération de la colonne d'expédition, politique de dégazage, …) sur le comportement global de deux unités pilotes a mis en évidence les paramètres clés du procédé : Vitesse de fluidisation de la partie horizontale. Politique de dégazage. Aération de la colonne d'expédition. Les transferts de gaz entre les différentes zones du procédé ont également été mis en évidence grâce à l'utilisation d'un traceur gazeux. Enfin, une modélisation de type monodirectionnelle est entreprise dans le but de simuler le comportement des suspensions fluidisées denses en écoulement verticaux ascendant et descendant. Les résultats obtenus concordent de manière très satisfaisante avec les mesures expérimentales. Ils permettent de mettre en évidence les mécanismes de transport ascendant de solide. De plus, le logiciel de calcul ainsi créé permet d'optimiser les dimensions d'une conduite verticale accueillant une suspension fluidisée dense en écoulement descendant afin d'en garantir le bon fonctionnement.
499

Modélisation des calottes polaires par des formulations multi-modèles, / Modeling ice flow dynamics with advanced multi-model formulations

Seroussi, Hélène 22 December 2011 (has links)
La modélisation numérique des écoulements de glace est indispensable pour prédire l’évolution des calottes polaires suite au réchauffement climatique. De récentes études ont souligné l’importance des modèles d’écoulement dits d’ordre supérieur voir même de Stokes au lieu de la traditionnelle approximation de couche mince dont les hypothèses ne sont pas valables dans certaines zones critiques mais à l’étendue limitée. Cependant, ces modèles d’ordre supérieur sont difficiles à utiliser à l’échelle d’un continent en raison de leurs temps de calculs prohibitifs. Ce travail de thèse propose une nouvelle technique qui permet de réduire les temps de calculs tout en maximisant la précision des modèles. Plusieurs modèles d’écoulement de glace de complexité variables ont été mis en place dans ISSM (Ice Sheet System Model), un code élément fini massivement parallèle développé par le Jet Propulsion Laboratory. L’analyse et la comparaison des différents modèles, à la fois sur des cas théoriques et réels, montrent que l’utilisation des modéles les plus complets est principalement nécessaire au voisinage de la zone d’échouage, transition entre les parties flottantes et posées de la glace, mais aussi que des modèles plus simples peuvent être utilisés sur la majeure partie des glaciers. Coupler différents modèles présente donc un avantage significatif en terme de temps de calcul mais aussi d’amélioration de la physique utilisées dans les modèles. Plusieurs méthodes de couplage de modèles existent et sont présentées dans ce manuscrit. Une nouvelle technique, dite de tuilage, particulièrement adaptée au couplage de modèles d’écoulement de glace est décrite ici : son principe repose sur la superposition et le raccordement de plusieurs modèles mécaniques. Une analyse mathématique est effectuée afin de définir les conditions d’utilisation de cette méthode de tuilage. Le traitement du couplage entre un modèle de Stokes et des modèles simplifiés, pour lesquels le calcul des vitesses horizontales et verticales est découplé, est ensuite présenté. Cette technique a été mise en place dans ISSM afin de pouvoir créer des modèles hybrides combinant plusieurs modèles d’écoulement de complexité variable. Après avoir été validée sur des cas synthétiques, cette technique est utilisée sur des glaciers réels comme Pine Island Glacier, dans l’Antarctique de l’Ouest, afin d’illustrer sa pertinence. Les modèles hybrides ont le potentiel d’améliorer la précision des résultats en combinant différents modèles mécaniques, utilisés chacun dans les zones où leurs approximations sont valides, tout en réduisant les temps de calcul et en étant compatibles avec les ressources informatiques actuelles. / Ice flow numerical models are essential for predicting the evolution of ice sheets in a warming climate. Recent research emphasizes the need for higher-order and even full-Stokes flow models instead of the traditional Shallow-Ice Approximation whose assumptions are not valid in certain critical but spatially limited areas. These higher-order models are however computationally intensive and difficult to use at the continental scale. The purpose of this work, therefore, is to develop a new technique that reduces the computational cost of ice flow models while maximizing their accuracy. To this end, several ice flow models of varying order of complexity have been implemented in the Ice Sheet System Model, a massively parallelized finite element software developed at the Jet Propulsion Laboratory. Analysis and comparison of model results on both synthetic and real geometries shows that sophisticated models are only needed in the grounding line area, transition between grounded and floating ice, whereas simpler models yield accurate results in most of the model domain. There is therefore a strong need for coupling such models in order to balance computational cost and physical accuracy. Several techniques and frameworks dedicated to model coupling already exist and are investigated. A new technique adapted to the specificities of ice flow models is developed: the Tiling method, a multi-model computation strategy based on the superposition and linking of different numerical models. A mathematical analysis of a mixed Tiling formulation is first performed to define the conditions of application. The treatment of the junction between full-Stokes and simpler models that decouple horizontal and vertical equation is then elaborated in order to rigorously combine all velocity components. This method is finally implemented in the Ice Sheet System Model to design hybrid models that combine several ice flow approximations of varying order of complexity. Following a validation on synthetic geometries, this method is applied to real cases, such as Pine Island Glacier, in West Antarctica, to illustrate its relevance. Hybrid models have the potential to significantly improve physical accuracy by combining models in their domain of validity, while preserving the computational cost and being compatible with the actual computational resources.
500

Extracting cell complexes from 4-dimensional digital images / Généralisation à dimension 4 des méthodes pour manipuler des images numériques binaires

Pacheco-Martínez, Ana María 10 July 2012 (has links)
Une image numérique peut être définie comme un ensemble de n-xels sur une grille constituée de n-cubes. La segmentation consiste à calculer une partition d'une image en régions. Les n-xels ayant des caractéristiques similaires (couleur, intensité, etc.) sont regroupés. Schématiquement, à chaque n-xel est attribuée une étiquette, et chaque région de l'image est constituée de n-xels de même étiquette. Les méthodes "de type" Marching cubes et Kenmochi et al. construisent des complexes représentant la topologie de la région d'intérêt d'une image numérique binaire de dimension 3. Dans la première méthode, l'algorithme construit un complexe simplicial, dont 0-cellules sont des points des arêtes de la grille duale. Dans la deuxième méthode, les auteurs construisent un complexe cellulaire sur une grille duale, c.a.d les 0-cellules du complexe sont des sommets de la grille duale. Afin de construire le complexe, Kenmochi et al. calculent (à rotations près) les différentes configurations de sommets blancs et noirs d'un cube, puis, ils construisent les enveloppes convexes des points noirs de ces configurations. Ces enveloppes convexes définissent les cellules du complexe, à rotations près. Le travail développé dans cette thèse étend la méthode de Kenmochi et al. en dimension 4. L'objectif est de construire un complexe cellulaire à partir d'une image numérique binaire définie sur une grille duale. Nous calculons d'abord les différentes configurations de sommets blancs et noirs d'un 4-cube (à isométries près), puis, nous construisons des enveloppes convexes définies par ces configurations. Ces enveloppes convexes sont construites par déformation du 4-cube d'origine, et nous distinguon / A digital image can be defined as a set of n-xels on a grid made up by n-cubes. Segmentation consists in computing a partition of an image into regions. The n-xels having similar characteristics (color, intensity, etc.) are regrouped. Schematically, each n-xel is assigned a label, and each region of the image is made up by n-xels with the same label. The methods "type" Marching cubes and Kenmochi et al. construct complexes representing the topology of the region of interest of a 3-dimensional binary digital image. In the first method, the algorithm constructs a simplicial complex, whose 0-cells are points of the edges of the dual grid. Inthe second one, the authors construct a cell complex on a dual grid, i.e. the 0-cells of the complex are vertices of the dual grid. In order to construct the complex, Kenmochi et al. compute (up to rotations) the different configurations of white and black vertices of a cube, and then, they construct the convex hulls of the black points of these configurations. These convex hulls define the cells of the complex, up to rotations. The work developed in this thesis extends Kenmochi et al. method todimension 4. The goal is to construct a cell complex from a binary digital image defined on a dual grid. First, we compute the different configurations of white and black vertices of a 4-cube, up to isometries, and then, we construct the convex hulls defined by these configurations. These convex hulls are constructed by deforming the original 4-cube, and we distinguishseveral basic construction operations (deformation, degeneracy of cells, etc.). Finally, we construct the cell complex corresponding to the dual image by assembling the cells so o / Una imagen digital puede ser definida como un conjunto de n–xeles en un mallado constituido de n–cubos. Los n–xeles pueden ser identificados con: (1) los n–cubos del mallado, o con (2) los puntos centrales de estos n–cubos. En el primer caso, trabajamos con un mallado primal, mientras que en el segundo, trabajamos con un mallado dual construido a partir del mallado primal. La segmentación consiste en calcular una partición de una imagen en regiones. Los n–xeles que tienen características similares (color, intensidad, etc.) son reagrupados. Esquemáticamente, a cada n–xel se le asocia una etiqueta, y cada región de la imagen está constituida de n–xeles con la misma etiqueta. En particular, si las únicas etiquetas permitidas para los n–xeles son “blanca” y “negra”, la segmentación se dice binaria: los n–xeles negros forman el primer plano (foreground) o región de interés en cuestión de análisis de la imagen, y los n–xeles blancos forman el fondo (background). Ciertos modelos, como los Grafos de Adyacencia de Regiones (RAGs), los Grafos Duales (DGs) y la carta topológica, han sido propuestos para representar las particiones en regiones, y en particular para representar la topología de estas regiones, es decir las relaciones de incidencia y/o adyacencia entre las diferentes regiones. El RAG [27] es un precursor de este tipo de modelos, y ha sido una fuente de inspiración de los DGs [18] y de la carta topológica [9, 10]. Un RAG representa una imagen primal etiquetada por un grafo: los vértices del grafo corresponden a regiones de la imagen, y las aristas del grafo representan las relaciones de adyacencia entre la regiones. Los DGs son un modelo que permite resolver ciertos inconvenientes de los RAGs para representar imágenes de dimensión 2. La carta topológica es una extensión de los modelos anteriores definida para manipular imágenes primales de dimensión 2 y 3, representando no solamente las relaciones topológicas, sino también las relaciones geométricas.

Page generated in 0.1074 seconds