Spelling suggestions: "subject:"• modélisation"" "subject:"• odélisation""
481 |
Structure de réseaux biologiques : rôle des noeufs internes vis à vis de la production de composés / Structure of biological networks : role of internal nodes in the production of compoundsLaniau, Julie 23 October 2017 (has links)
Durant cette thèse nous nous sommes intéressés aux réseaux métaboliques et notamment leur modélisation sous forme d'un graphe bipartite dirigé pondéré. Ce dernier permet d'étudier la production d'éléments cibles métaboliques regroupés dans une biomasse à partir de composants provenant du milieu de croissance de l'organisme. Nous nous sommes plus particulièrement penchés sur le rôle des métabolites internes au réseau et la notion d'essentialité de ces derniers pour la production d'une biomasse dont nous avons raffiné la définition dans le cas d'une étude de flux (métabolite essentiel du point de vue de la productibilité du réseau et métabolite essentiel du point de vue de l'efficacité du réseau) puis étendu cette dernière dans le cas d'une étude topologique (métabolite essentiel du point du vue de la persistance du réseau). Nous nous sommes pour cela reposés sur le formalisme d'un part de Flux Balance Analysis et ses dérivés, et d'autre part d'expansion de réseau, afin de définir un métabolite essentiel (ou carrefour), nous permettant de mettre au point un package python (Conquests) cherchant les carrefours dans un réseau métabolite. Nous avons appliqué ce dernier à six réseaux métaboliques dont quatre provenant d'espèces modèles (iJO1360, iAF1260et iJR904 d'E. coli et Synecchocystis) et les deux autres d'espèces plus spécifiques (A. ferrooxidans et T. lutea). Nous avons aussi défini le concept de cluster de métabolites essentiels du point du vue de la persistance du réseau lié aux composants de la biomasse auxquels ils sont nécessaires et que nous avons appliqué sur les six réseaux métaboliques précédents et sur 3600 réseaux dégradés du réseau iJR904de E. coli puis reconstruits selon trois méthodes de gapfilling (Gapfill, Fastgapfill et Meneco) afin de comparer ces dernières. Ces études nous ont permis de mette en avant l'importance de métabolites internes dans la production de composés cibles. / In this thesis we are interested in metabolic networks and, in particular, their modelling with a weighted directed bipartite graph. This representation makes it possible to study the production of target metabolic elements, constituting a biomass, from components coming from the growth medium of the organism. We focused on the role of metabolites inside the network and the notion of essentiality for this elements for the production of a biomass whose definition we have refined in the case of a flow study (metabolite essential for biomass producibility and metabolite essential for biomass efficiency) and extended this notion in the case of a topological study (metabolite essential for biomass sustainability). We rely on the formalism of Flux Balance Analysis and its derivatives, and of network expansion, in order to define an essential metabolite (ME or crossroad), allowing us to develop a python package (Conquests) looking for crossroads in a metabolic network. We applied our concept to six metabolic networks, four of which came from model species (iJO1360, iAF1260 and iJR904 of E. coli and Synecchocystis) and the other two from more specific species (A. ferrooxidans and T. lutea). We have also defined the concept of cluster of ME-sustainability, related to the biomass components to which they are required and which we have applied over the six previous metabolic networks and over 3600 degraded networks of iJR904 of E. coli and reconstructed according to three methods of gapfilling (Gapfill, Fastgapfill and Meneco) to compare the results. These studies have allowed us to highlight the importance of internal metabolites in the production of target compounds.
|
482 |
Etude de la consommation énergétique de systèmes de communications numériques sans fil implantés sur cible FPGA / Power consumption analysis of FPGA-based wireless communication systemsLorandel, Jordane 08 December 2015 (has links)
Les systèmes de communications sans fil n'ont cessé d'évoluer ces dernières années, poussés par de fortes demandes du marché en systèmes toujours plus autonomes et performants. Ainsi, de nouvelles contraintes de conception sont apparues de manière à mieux prendre en compte les aspects énergétiques et ainsi améliorer la durée de vie des batteries et des circuits. Actuellement, les systèmes de communications numériques sans fil consomment d'importantes quantités d'énergie. D'autre part, la complexité des systèmes croît de génération en génération afin de satisfaire toujours plus d'utilisateurs avec un haut niveau de performances. Dans ce contexte à fortes contraintes, les circuits de type FPGA apparaissent comme une technologie attractive, pouvant supporter des circuits numériques complexes grâce à leur grand nombre de ressources. Pour pouvoir concevoir les futurs systèmes de communications numériques sans fil sur ce type de circuit, les concepteurs de tels systèmes doivent pouvoir estimer la consommation et les performances au plus tôt dans la phase de conception. De cette façon, ils pourront explorer l'espace de conception et effectuer des choix d'implémentation afin d'optimiser leurs systèmes. Durant cette thèse, une méthodologie a été proposée dont les objectifs sont d'estimer rapidement et à haut niveau la consommation de leurs circuits implantés sur FPGA ainsi que leurs performances, d'explorer l'espace de conception, de comparer efficacement plusieurs systèmes entre eux, tout en assurant une bonne précision de l'estimation. La méthodologie repose sur une phase de caractérisation de composants IP matériels ainsi que de leur modélisation en Systeme. Dans un second temps, une représentation haut-niveau du système entier est réalisée à partir de la librairie des modèles Systeme de chaque IP. A travers des simulations haut-niveau, les utilisateurs peuvent tester rapidement de multiples configurations de leur système. Un des caractères innovants de l'approche repose sur l'utilisation de signaux clés qui permettent de tenir compte des comportements dynamiques des composants IP, c-à-d leur temps d'activité (actif/inactif), au sein du système et ainsi obtenir des estimations précises. Les nombreux gains de la méthodologie ont été démontrés à travers plusieurs exemples de systèmes de communications numériques sans fil comme une chaîne de traitement en bande de base de type SISO-OFDM générique, des émetteurs LTE etc. Pour conclure, les limitations ont été adressées et des solutions d'optimisation ont pu être envisagées puis mises en place. / Wireless communication systems are still evolving since the last decades, driven by the growing demand of the electronic market for energy efficient and high performance devices. Thereby, new design constraints have appeared that aim at taking into account power consumption in order to improve battery-life of circuits. Current wireless communication systems commonly dissipate a lot of power. On the other hand, the complexity of such systems keeps on increasing through the generations to always satisfy more users at a high degree of performance. In this highly constrained context, FPGA devices seem to be an attractive technology, able to support complex systems thanks to their important number of resources. According to the FPGA nature, designers need to estimate the power consumption and the performance of their wireless communication systems as soon as possible in the design flow. In this way, they will be able to perform efficient design space exploration and make decisive implementation and optimization choices. Throughout this thesis, a power estimation methodology for hardware-focused FPGA device is described and aims at making design space exploration a lot easier, providing early and fast power and performance estimation at high-level. It also proposes an efficient way to efficiently compare several systems. The methodology is effective through an lP characterisation step and the development of their SystemC models. Then, a high level description of the entire system is realized from the SystemC models that have been previously developed. High-level simulations enable to check the functionality and evaluate the power and performance of the system. One of the contributions consists in monitoring the JP time-activities during the simulation. We show that this has an important impact on both power and performances. The effectiveness of the methodology has been demonstrated throughout several baseband processing chains of the wireless communication domain such as a SISO-OFDM generic chain, LTE transmitters etc. To conclude, the main limitations of the proposed methodology have been investigated and addressed.
|
483 |
Modélisation de l’immunité des circuits intègres complexes aux perturbations électromagnétiquesGros, Jean-baptiste 03 December 2010 (has links)
L'objectif de cette thèse est l'étude de l'immunité des circuits intégrés complexes face aux perturbations électromagnétiques. Le début est consacré à la présentation de la compatibilité électromagnétique des circuits intégrés. Une présentation des moyens de maîtrise de la CEM est ensuite donnée. Les principaux thèmes que sont la modélisation, l’optimisation et la mesure sont exposés. L'étude se poursuit par l'établissement d'une méthodologie de construction d'un modèle d'immunité appliquée à un circuit convertisseur. Cette méthodologie s’inspire de la proposition de norme ICIM-CI pour bâtir successivement les différents blocs du modèle d’immunité. Une attention particulière est donnée à la modélisation du mécanisme de défaillance, celui-ci permettant d’obtenir les résultats d’immunité. Les résultats fournis par le modèle sont ensuite comparés puis validés par des mesures sur circuit. Enfin des études complémentaires, portant sur des circuits plus complexes, permettent de proposer des améliorations et perspectives nouvelles pour la démarche de modélisation. / The main objective of this thesis is the study of integrated circuits immunity against electromagnetic interference. The beginning is devoted to the presentation of the electromagnetic compatibility of integrated circuits. The tools enable the mastery of EMC are then presented. The main themes of modelling, optimization and measurement are exposed. The study continues by establishing a methodology for building a model of immunity applied to a converter circuit. This methodology is based on the proposed standard ICIM-CI to build successively the different blocks of the model of immunity. A particular attention is given to the description of the failure mechanism because it leads to the final results of immunity. The results from the model are then compared and validated by measurements on the circuit. Finally further studies on more complex circuits can suggest improvements and new perspectives for the modelling approach.
|
484 |
Méthodes morphologique et par éléments finis combinées pour une nouvelle approche de la modélisation 3D du dépôt par projection dynamique par gaz froid (« cold spray ») / A new approach to 3D modeling of the cold spray process, combining morphological methods and finite element simulationsDelloro, Francesco 08 July 2015 (has links)
L'objectif principal de cette étude était de réaliser une modélisation du procédé cold spray, fondée sur l'observation expérimentale et sur des modèles physiques capables de prédire la microstructure du dépôt en fonction de la morphologie de la poudre et des paramètres de projection. Pour y arriver, le travaux se sont organisés autour de trois axes principaux de recherche : caractérisation de la poudre en 3D, simulations d'impact par éléments finis et modélisation d'empilement. Un procédé innovant de caractérisation morphologique de la poudre en 3D, utilisant la microtomographie par rayons X, a été développé. Le traitement des images résultantes a permis d'isoler les particules individuelles, regroupées dans une bibliothèque 3D d'environ 18000 objets. Leur taille et forme ont été caractérisées quantitativement. La méthode de partitionnement des données dite « K-means » a été utilisée pour la répartition des particules en 7 classes de forme.Le deuxième axe de recherche portait sur la simulation d'écrasement des particules, par la méthode des éléments finis (logiciel Abaqus, approche lagrangienne). L'utilisation d'outils de maillage adaptés a permis de réaliser des simulations d'écrasement des particules réelles (en provenance de la bibliothèque 3D). L'automatisation de ces simulations visait la possibilité d'en effectuer en grand nombre mais, face aux problèmes de robustesse rencontrés, le nombre de simulations menées à bien fut limité.Le troisième axe de recherche portait sur le développement d'un modèle d'empilement itératif, fondé sur l'utilisation des résultats des simulations d'écrasement. Ce modèle a été mis en place en 2D par simplicité. Différentes implémentations ont été essayées mais leur développement ne fut pas suffisamment abouti pour l'application à des cas pratiques.La validation des modèles s'est limitée aux simulations d'impact par éléments finis. Les deux types de splats (Ta sur Cu et Ta sur Ta), exigeant de méthodes d'observation expérimentale différentes, ont été traités séparément. Les premiers ont pu être directement observés par microtomographie et regroupés dans une bibliothèque 3D des splats Ta sur Cu. Ensuite, ils ont été comparés, de façon statistique mais aussi individuellement, aux correspondants simulés sans qu'aucune divergence évidente n'apparaisse. Le cas des Ta sur Ta est, en revanche, compliqué du fait de l'homogénéité du système qui empêche l'utilisation directe de la microtomographie. Bien que différentes méthodes visant à apporter une couche du contraste entre particule et substrat aient été essayées, la construction d'une bibliothèque 3D des splats Ta sur Ta n'a pas été possible.L'optimisation des poudres (choix de la granulométrie et de la forme, en vue d'une application donnée) est une des utilisations envisagées pour le modèle d'empilement, ainsi que la simulation de la projection de poudres composites (métal et oxyde). L'inclusion dans le modèle des transformations de phase ouvrirait la porte de la famille de la projection plasma ou de la fabrication additive. Plus généralement, la philosophie derrière la modélisation d'empilement développée dans cette thèse peut être appliquée à tout procédé où l'apport de matière est fait à partir d'une « poudre » subissant une certaine transformation. Enfin, le couplage avec un modèle de comportement pourrait permettre l'estimation de certaines propriétés physiques (par exemple, les conductivités thermique et électrique), dépendant de la microstructure du dépôt. / This study on the cold spray process aimed at achieving an original coating build-up model, capable of predicting the resulting microstructure as a function of powder morphology and process parameters. The work focused on three main interrelated subjects: 3D powder characterization, simulation of individual impacts on a flat substrate by the finite element method and deposition build-up modeling.An innovative method based on microtomographical observations was used for 3D characterization of the powder. Image analysis allowed to separate single powder particles and to gather them into a 3D collection containing approximatively 18 000 objects. Their size and shape were quantitatively measured. A cluster analysis method (K-means) was then applied to this data set to divide the particles into 7 classes based on their shape.The second main research topic consisted in performing particle impact simulations on a flat substrate by the finite element method (using the commercial software Abaqus). The use of dedicated meshing tools allowed to simulate the impact of real particles, as observed by microtomography. Scripting techniques were used to carry out a large number of these simulations but, due to limited robustness of the procedure, only few of them were successfully conducted.The third research area focused on the development of a deposition build-up model (in 2D to allow a simpler implementation). Data from finite element results were interpolated and used in an iterative simulation, where impacting particles were deposited one by one. Different approaches were tested but the development of the model could not be completed in the framework of this thesis.Model validation could be performed on finite element simulations. The two kinds of splats (Ta on Cu and Ta on Ta) were considered separately. Concerning the first, direct microtomographical imaging could be applied, due to the heterogeneity of materials. Splats were observed, individually separated and gathered in a 3D collection as done before with powder particles. Simulated and observed splats could then be compared on a statistical basis. No particular discrepancy was observed, confirming the impact simulation method used. The second kind of splats (Ta on Ta) was complicated by the homogeneity of the materials, preventing the use of microtomography. The deposition (before spraying) of a contrast layer between Ta substrate and Ta particle was tried by different techniques. The only method giving exploitable results was the chemical vapor deposition of a Fe layer onto the powder particles. However, the small number of adherent particles and the weak contrast obtained in the images prevented the use of the methods already applied to powder particles and Ta splats onto Cu.The optimization of powder granulometry and shape (towards a specific application) is one of the main expected applications of the deposition build-up model, together with the simulation of composite powders (typically, metal and oxide). The involvement of phase transformation phenomena into the model could extend its application to the whole family of thermal spray processes (plasma, HVOF, etc.) or to other additive manufacturing techniques. In general, the philosophy behind our modeling approach could be applied to every manufacturing/coating technique where the supply material is in powder form and undergoes a certain transformation during the process. Finally, the coupling of such a model with homogenization techniques would allow the prediction of macroscopic properties depending on deposit microstructure (e.g. thermal or electrical conductivity).
|
485 |
Modélisation et analyse de la sécurité au niveau système des primitives cryptographique / System-level security modeling and analysis of cryptographic primitivesSbiaa, Fatma 10 September 2016 (has links)
Le présent travail porte sur la modélisation et l’implémentation un crypto-processeur reconfigurable capable de garantir le niveau de sécurité exigé. L’étude de la résistance du crypto-système étudié aux différents types d’attaques (statistiques, linéaires et différentielles) peut nous mettre sur la trace de possibles failles, d’en extraire les points faibles et de proposer les contres mesures adéquates. C’est ainsi qu’on a pu proposer des approches de correction afin d’améliorer la robustesse de l’algorithme de cryptage symétrique par blocs. Pour cet effet, on a proposé un flot de conception optimisé pour la modélisation, la vérification et la correction des primitives cryptographiques. Mais la contribution majeure du présent travail fût l’exploitation des propriétés de la théorie de chaos. Pour la conception du crypto-processeur proposé, on a fait appel aux avantages de la modélisation à haut niveau. On a proposé d'utiliser les deux niveaux d'abstraction CABA et TLM. L’utilisation simultanée de ces deux niveaux est possible par le biais du niveau ESL, ce qui garantit de minimiser d’une part l’effort permettant de spécifier les fonctionnalités demandées et d’autre part de négliger les détails inutiles au niveau haut de la conception. / Regarding the increasing complexity of cryptographic devices, testing their security level against existing attacks requires a fast simulation environment. The Advanced Encryption Standard (AES) is widely used in embedded systems in order to secure the sensitive data. Still, some issues lie in the used key and the S-BOX. The present work presents a SystemC implementation of a chaos-based crypto-processor for the AES algorithm.The design of the proposed architecture is studied using the SystemC tools. The proposed correction approach exploits the chaos theory properties to cope with the defaulting parameters of the AES algorithm. Detailed experimental results are given in order to evaluate the security level and the performance criteria. In fact, the proposed crypto- system presents numerous interesting features, including a high security level, a pixel distributing uniformity, a sufficiently large key-space with improved key sensitivity, and acceptable speed.
|
486 |
Modélisation du transfert des pesticides du sol jusqu'à l’aquifère : étude par approches de complexité croissante - site de Montreuil-sur-Epte / Transfer modelling of pesticides from ground to aquiferGigleux, Sylvain 08 July 2009 (has links)
Le continuum sol-zone non saturée-aquifère est rarement abordé en modélisation des pesticides car il requiert des outils et une méthodologie élaborés. Ces outils peuvent avoir des niveaux de complexités variables, le plus simple étant le modèle global et le plus complexe, le modèle hydrogéologique de transport en 3 dimensions prenant en compte chacun des compartiments dans le détail. Dans ce contexte une modélisation associant de manière dynamique des outils ou des méthodes propres à chaque compartiment propose une solution intermédiaire intéressante. Une approche progressive de la modélisation hydrodynamique ainsi que de la modélisation des transferts de pesticides, appliqué au cas du bassin versant hydrogéologique de la source des Brévilles à Montreuil-sur-Epte (Val d’Oise) a pu être réalisée et fournir un modèle couplé 1D / 2D prenant en compte l’écoulement et le transport dans le sol, la zone non saturée et la zone saturée / The continuum ground-vadose zone-aquifer is rarely studied in the modeling of pesticides because it requires elaborate tools and methodology. These tools may have variable levels of complexity, the simplest being the global model and most complex, the hydrogeological model of transport in 3D taking into account each compartment in detail. In this context, a modeling associating in a dynamic way, tools or specific methods to each compartment will be an interesting intermediate solution. A progressive approach of hydrodynamic modeling and transfer modeling of pesticides applied to the case of the Brévilles spring catchment in Montreuil-sur-Epte (Val d'Oise) has been carried out and provided a coupled model 1D / 2D taking into account the flow and transport in the ground, the unsaturated zone and the saturated zone
|
487 |
Contribution à la simulation numérique des crash de véhicules : prise en compte des non-linéarités matérielles et géométriques des composants de fonderieFlidrova, Kamila 16 December 2010 (has links)
La sécurité routière est aujourd’hui un des objectifs principaux des constructeurs automobiles. Pour garantir un haut niveau de sécurité aux conducteurs et passagers mais aussi aux autres usages de la route, comme les piétons et les deux roues, les véhicules sont testés sous tous les angles avant leur commercialisation. Qu’ils soient virtuels ou réels, les essais jalonnent la conception et le développement d’une voiture. Aujourd’hui, la simulation numérique joue un rôle primordial dans le développement des nouveaux dispositifs et équipements. Pour que les modèles numériques offrent toujours plus de prédictivité, le domaine de la simulation numérique est en constante évolution. L’objectif de cette thèse est de contribuer à l’amélioration de la simulation des crash de véhicules. Le sujet de l’étude présentée dans ce document est composé de deux problématiques. La première consiste en la prise en compte des non-linéarités matérielles de type rupture dans le processus de dimensionnement au choc. Dans le domaine du crash, deux types de pièces sont distingués. Celles qui doivent casser en choc comme les suspensions moteur et celles dont rupture est interdite comme le carter moteur ou bien le carter d’embrayage. La rupture est un phénomène délicat à modéliser et également coûteux en temps de calcul. Par conséquent, les premiers modèles pour la simulation de la rupture ont été seulement fonctionnels (désactivation des ressorts de rupture). Avec l’arrivée de méthodes numériques telles que la méthode de suppression d’éléments, de nombreux modèles de rupture ont été développés. Comme ces modèles sont relativement récents, les bases de données matériaux sont souvent incomplètes ce qui rend difficile leur utilisation. Un des objectifs de la thèse est donc l’identification des paramètres matériaux pour le modèle de Mohr-Coulomb et le modèle de Johnson-Cook à l’aide d’essais sur éprouvettes. Une campagne d’essais sur un sous-système automobile a été également effectuée. La corrélation numérique des essais a permis de valider la modélisation« volumique » de la rupture et d’identifier des voies de progrès de la méthodologie actuelle. Le deuxième sujet présenté dans ce document est la modélisation du comportement élastique linéaire des composants qui ne doivent pas casser en choc et la prise en compte des non-linéarités géométriques de type grandes rotations et de contact. Une modélisation par des super-éléments élastiques linéaires adaptés pour les calculs explicites avec grandes rotations a été proposée pour les pièces massives de fonderie. La modélisation par super-élément est réalisée dans Radioss via un fichier.fxb. Une nouvelle méthode de réduction dérivée à partir de la méthode de MacNeal a été proposée. La base de transformation de celle-ci est constituée par des modes libres complétés par des modes de souplesse résiduelle (MLSR). Le modèle réduit à l’aide de la méthode MLSR est généré avec des routines Matlab développées dans le cadre de la thèse. Afin d’intégrer la modélisation par super-élément dans le processus de dimensionnement au choc PSA, une filière de calcul Abaqus–Matlab–Radioss a été proposée. Un processus de génération du fichier.fxb à l’aide des outils CFAO utilisés chez PSA a été établi. Afin d’optimiser la performance des calculs avec super-élément, trois nouvelles modélisations pour la gestion de contact avec super-élément ont été proposées. Une application de la modélisation par super-élément a été faite pour un modèle de test et également pour un modèle de choc de véhicule. / Nowadays, road safety is one of the main aims of car makers. To guarantee a high level of security to car drivers and passengers and also to other road users, such as for example pedestrians and two wheelers, the cars are submitted to a lot of tests before their commercialisation. Whether they are virtual or real, the experiments set out the conception and the development of a car. Nowadays, the numerical simulation plays a prime role in the development of new systems and equipments. In order to offer more and more predictivity by numerical models, the domain of the numerical simulation is inconstant evolution. The aim of this thesis is to contribute to the improvement of a car crash simulation. The subject of the study presented in this document is composed by two themes. The first one consists in inclusion of the material nonlinearities as fracture in the car crash dimensioning process. In car crash, two types of components are distinguished. Those which have to brake during the shock such as engine suspensions and those which have not to brake such as crankcase or clutch housing. The fracture is a phenomenon difficult to model, moreover, its computational time is important. Thus, the first fracture models were only functional (deactivation of fracture springs). With the arrival of numerical methods such as element deletion method, a lot of fracture models were developed. Because these models are relatively recent, the material databases are often incomplete which makes their use more difficult. Thus, one of the aims of this study is the material parameters identification of Mohr-Coulomb and Johnson-Cook fracture model with the aid of experiments on specimens. Another experiment campaign on an automotive subsystem was also realized. The numerical correlation using the material fracture parameters identified in the first step enabled to validate the "volumic"fracture modelisation and to identify the ways of progress of the current methodology. The second theme presented in this document is the modeling of linear elastic behavior of components which have not to brake in car crash and inclusion of geometrical nonlinearities as large rotations and contact. A modeling by linear elastic super elements adapted for explicit simulations with large rotations was proposed for massive cast iron components. The modeling by super elements was realized in Radioss by means of the file.fxb. A new reduction method derived from that of MacNeal was proposed. Its transformation basis is constituted by a free eigen-modes completed by residual flexibility modes. The model is reduced by means of Matlab routines which were developed in the framework of the thesis. In order to integrate the modeling by superelements in the dimensioning car crash process used at PSA, a procedure Abaqus–Matlab–Radioss was proposed. A process for the generation of the file.fxb by means of the CAD/CAMtools used at PSA was established. In order to optimize the simulation performance with superelements, three new models for contact management with a superelement were proposed. The modeling by superelement was applied in a test model and also in a frontal car crash simulation.
|
488 |
Modèles éléments-finis mixtes réduits pour l'optimisation en dynamique des structuresGarambois, Pierre 17 November 2015 (has links)
L’utilisation de structures fines est croissante dans bon nombre d’industries. En ce sens, leur représentation mécanique et optimisation est un enjeu majeur de la recherche actuelle. De façon classique, l’optimisation s’effectue avec un critère de contrainte, obtenue à partir d’une modélisation éléments-finis en déplacements. L’idée de ces travaux est de construire un modèle éléments-finis mixte déplacements-contraintes et de développer des méthodes de réduction adaptées, de façon à améliorer l’efficacité des méthodes d’optimisation existantes. On construit d’une part deux modèles élément-finis mixtes déplacements-contraintes généralisées, pour des analyses dynamiques de structures “plaque” fines et épaisses. Ces derniers présentent l’avantage de donner des résultats identiques aux modèles classiques en déplacements, avec un meilleur temps de reconstruction des champs de contraintes. Cependant, ils s’avèrent être délicats pour plusieurs raisons : la taille des matrices associées, la difficulté de faire une analyse modale rapide, et un temps d’assemblage accru. C’est la raison pour laquelle nous développons par la suite des méthodes de sous-structuration et de double synthèse modale spécifiquement dédiées aux modèles mixtes. L’idée est d’utiliser des bases modales tirées du modèle équivalent en déplacements pour composer une nouvelle base mixte réduite. Dix méthodes sont implémentées, basées sur des modes encastrés, libres et de branche, parmi lesquelles certaines s’avèrent très efficaces pour réduire le nombre de degrés de liberté du système mixte, sans passer par ses modes propres. Enfin, nous intégrons les modèles mixtes sous-structurés sous forme de super- éléments mixtes dans un algorithme génétique, dans le but de mener une optimisation multi-objectif de structures “plaque” académiques sous chargement dynamique, avec critères de contrainte et paramètres d’épaisseur. Les modèles précédemment définis sont ainsi paramétrés en épaisseur, et ne nécessitent plus d’être ré-assemblés pour chaque configuration. Nous disposons désormais d’un modèle mixte “plaque”, qui conserve les avantages d’un accès direct aux contraintes, tout en étant affranchi de sa taille importante par le biais des méthodes de réduction, et de son assemblage grâce au paramétrage. Il en résulte des modèles mécaniques originaux et efficaces, permettant de réduire les coûts de calcul des algorithmes d’optimisation classiques. Ce type de méthode, couplé à de puissants algorithmes génétiques, permet d’avoir une bonne vue d’ensemble des solutions optimales, et laissent augurer des perspectives intéressantes pour une utilisation industrielle. / The use of thin structures is increasing in many industries. Their mechanical representation and optimization is therefore a major challenge in modern research. Usually, the optimization is done with a stress criterion which is determined through displacements finite-element model. The idea of this work is to build a mixed displacements-stresses finite-element model and to develop adapted reduction procedures, in order to improve the efficiency of existing optimization methods. On the one hand, we build two mixed displacements-generalized stresses finite element models, for thin and thick dynamic plate structures analysis. They afford the advantage of giving identical results as classical displacements models with a better computational time to re-build the stress fields. Nevertheless, they turn out to be tricky for some reasons : the bigger matrices size, the difficulty of modal analysis and an assembling time higher. That is the reason why we develop afterwards some sub-structuring methods and double modal synthesis specifically dedicated to mixed models. The idea is to use modal basis taken from the equivalent displacement model so as to build a new mixed reduced basis. Ten methods are implemented, based on fixed modes, free modes, and branch modes. Some of them turn out to be very efficient to drastically reduce the amount of degrees of freedom of the mixed model, without using its eigenmodes. Finally, we embed the sub-structured mixed model in the form of Mixed Super- Element in a genetic algorithm, with the aim of conducting a multi-objective optimization of academic plate structures under dynamic loads, with stresses criterion and thicknesses parameters. The models previously defined are configured with thicknesses as parameters, and therefore don’t need to be re-assembled for each configuration. We now dispose of a powerful thickness-parametrized mixed reduced plate finite element model : it keeps the advantages of an easy access to the stresses and is free of its important size thanks to the reduction method and of its assembling thanks to the parametrization. The result is an original and efficient mechanical model that reduces the computational cost of classical optimization algorithms. That type of model, coupled with powerful genetic algorithms, permits a global optimization with a good overview of the solutions and promises interesting perspectives for industrial uses.
|
489 |
Détermination et modélisation du couplage en champ proche magnétique entre systèmes complexesZangui, Sanaa 14 October 2011 (has links)
Dans la conception d’un système en électronique de puissance par exemple dans le cas d’un convertisseur ou d’un filtre CEM, les problèmes de la compatibilité électromagnétique ne sont pris en compte que lors de la phase finale durant des tests de vérification et de certification du système. Ainsi un prototype non-conforme à ces tests va engendrer des surcoûts importants ou l’adoption de solutions de « secours » non nécessairement reproductibles et surtout non satisfaisantes car elles impliquent dans la majorité des cas l’ajout d’éléments initialement non prévus (filtres, blindages, ‘). Aussi, il s’avère important et utile d’étudier les problèmes de la CEM dès la phase de conception, c’est l’objectif principal de ce travail de recherche.L’objectif de ce travail est d’établir des modèles permettant de prédire le couplage en champ proche entre les systèmes ou les sous systèmes, comme par exemple entre les éléments constituant un convertisseur. Cette « brique élémentaire » de modélisation est un élément actuellement manquant pour contribuer à la modélisation globale des systèmes d’électronique de puissance d’un point de vue CEM. Pour ce faire, il suffit de recréer le champ électromagnétique rayonné par chacun des systèmes, qui sera représenté comme une source équivalente.Ces sources équivalentes seront utilisées pour calculer le couplage entre les différents éléments en fonction de la distance et de leur placement respectif. La détermination de ces différents couplages nous aidera à mieux optimiser la position des différents composants au sein de la structure pour minimiser les perturbations et augmenter son efficacité.Le modèle construit qui représente le rayonnement en champ proche des différents éléments nous permettra de fournir des bibliothèques qui seront intégrées par la suite dans un logiciel de type circuit, pour une modélisation « globale » du système. / To design a system in power electronics, for instance a converter or an EMC filter, the problems of electromagnetic compatibility are taken into account during the final phase of testing, verification and certification of the system. The aim of our research is to consider the problems of EMC early in the design flow of a product. The objective of this work is to develop models to predict the near-field coupling between systems or subsystems, such as between elements of a converter. To do this, it is important to re-create the electromagnetic field radiated by each system, which will be represented as equivalent source. These equivalent sources are used to compute the coupling between the different elements depending on the distance and their respective position. The determination of these couplings can allow optimizing the position of the components in the structure to minimize the electromagnetic interferences and increase the performance of the system. The method used for the implementation of this approach is the multipolar expension, it can model the influence of generic structures (coils, capacitors, ...) in a spherical reference (r,θ, φ).This representation allows the construction of equivalent field sources for each element. For information or to validate some of our equivalent models, we used the software Flux3D®which is a calculation tool based on the finite element method, developed by CEDRAT andG2Elab.Furthermore, it was important to use a measurement protocol that allows us to inform or validate our models if we do not know all the electrical and geometrical parameters of the system or when the system have a too complex geometry to be modeled numerically in 3D.A measurement bench that can directly measure the components of the decomposition in spherical harmonics is used. The constructed model which represents the near-field radiation of the different elements will allow providing libraries that will be integrated later in a circuit software.
|
490 |
Développement d'un procédé de lissage de charge par adsorption/désorption en amont d'une épuration biologique pour le traitement d'eaux résiduaires industrielles.Bourneuf, Séda 10 July 2015 (has links) (PDF)
Les sites chimiques, pétrochimiques et pétroliers génèrent des effluents chargés en polluants soumis à une réglementation de plus en plus stricte. Le travail de thèse se focalise sur le traitement des effluents industriels et plus spécifiquement sur l'amortissement des pics de pollution via un procédé d'adsorption/désorption afin de minimiser les impacts négatifs sur l'épuration biologique. Pour cela, deux études complémentaires ont été menées en parallèle. La première étude concerne l'adsorption et la désorption de polluants en phase aqueuse avec notamment la sélection d’un adsorbant puis la détermination de ses capacités d'adsorption vis-à-vis de deux molécules modèles. Plusieurs cycles d'adsorption et de désorption ainsi que des pics de pollution ont été réalisés afin de (i) démontrer la faisabilité du procédé, (ii) d'identifier les phénomènes mis en jeu et les paramètres déterminants dans la capacité d'amortissement d'une colonne d'adsorbant et (iii) étudier les phénomènes de compétition entre molécules. Les données expérimentales ont pu être modélisées avec succès à l'aide d’un couplage du modèle Linear Driving Force (LDF) et de l'isotherme de Freundlich. D'autre part, l'impact d'une variation de charge sur les performances épuratoires du traitement biologique seul a été examiné et comparé aux effets observés lors d'un pic de pollution sur un procédé couplant une colonne d'adsorbant (en amont) et le traitement biologique. Un intérêt a également été porté aux foisonnements de bactéries filamenteuses, survenus à plusieurs reprises : une identification des filaments a été réalisée et un traitement de lutte efficace a été mis en place. Les résultats ont démontré qu'une colonne d'adsorbant placée en amont du bassin de biodégradation permet d'améliorer la qualité de l'effluent traité et ainsi de respecter les normes de rejet fixées par la législation.
|
Page generated in 0.1066 seconds