Spelling suggestions: "subject:"méthode dde"" "subject:"méthode dee""
81 |
Modélisation discrète de la microstructure des agglomérats de particules fines en suspension / Discrete modeling of microstructure of fine particules agglomerates in suspensionKimbonguila Manounou, Adolphe 29 November 2013 (has links)
L'agglomération des fines entraîne une augmentation importante de la demande en eau des mélanges cimentaires et constitue un frein à la valorisation des sous-produits contenant des proportions élevées de fines. Une modélisation discrète de la microstructure des agglomérats de fines particules est développée. Le modèle intègre les forces de contact avec prise en compte du frottement et du roulement, les forces physico-chimiques et les forces hydrodynamiques calculées avec l'approximation de drainage libre. Le processus d'agglomération, de fragmentation et de restructuration sous cisaillement d'agglomérats fractals de fines particules minérales est étudié en vue de quantifier l'eau immobilisée dans les flocs. Un agglomérat initial isolé et lâche est soumis à un taux de cisaillement constant. Lorsque les forces hydrodynamiques sont prépondérantes par rapport aux forces de cohésion, l'agglomérat mère se fragmente en agglomérats secondaires jusqu'à atteindre un état stationnaire, où le nombre, la taille et la structure des flocs peuvent être considérés comme constants. L'influence du gradient de vitesse, du contexte physico-chimique, de la taille et de la polydispersité des particules sur les caractéristiques microstructurales des flocs à l'équilibre est étudiée. Il est montré que le comportement d'une suspension diluée monodisperse peut être décrit par un unique nombre adimensionnel faisant intervenir la force de cohésion maximale, la taille des particules et le gradient de vitesse. / The agglomeration of fines leads to a significant increase in water demand of cement mixtures and hinders the valorization of by-products containing high fines proportions. A discrete modeling of the microstructure of fine particles agglomerates is developed. The model takes into account contact forces, physico-chemical, and hydrodynamic forces computed with the free draining approximation. The agglomeration, fragmentation and restructuring process of fractal agglomerates of fine mineral particles under shear is studied to quantify the entrapped water in the flocs. A loose initial agglomerate isolated is submitted to a constant shear rate. When the hydrodynamic forces predominate over the adhesive forces, the parent agglomerate is broken up into secondary agglomerates until reaching a steady state, where the number, size and structure of flocs can be considered constant. The influence of the velocity gradient, the physico-chemical context, particles size and their polydispersity on the microstructural characteristics of flocs at steady state is studied. It is shown that the behavior of a monodisperse dilute suspensions can be described by a dimensionless single number involving maximum cohesion force, particle size and velocity gradient.
|
82 |
Etude numérique et expérimentale du comportement d'hydroliennes / Numerical and experimental study of the behaviour of marine current turbinesMycek, Paul 03 December 2013 (has links)
$aCe manuscrit traite de la caractérisation numérique et expérimentale du comportement d’hydroliennes. D’un point de vue expérimental, des essais ont été réalisés au bassin à houle et courant de l’IFREMER de Boulogne-Sur-Mer, sur des maquettes d’hydroliennes tri-pales à axe horizontal. Des configurations comprenant une seule hydrolienne, d’une part, et deux hydroliennes alignées avec l’écoulement, d’autre part, ont été considérées pour une large gamme de TSR et, le cas échéant, de distances interhydroliennes. Le comportement des hydroliennes est analysé à la fois en termes de performances (coefficients de puissance et de traînée) et de développement du sillage. Les effets du taux de turbulence ambiante sont également examinés. Par ailleurs, des simulations numériques, obtenues à l’aide d’un code tridimensionnel instationnaire, fondé sur la méthode Vortex particulaire et développé au LOMC (UMR 6294, CNRS –Université du Havre) en partenariat avec l’IFREMER, sont présentées. Le code de calcul permet également d’étudier les performances et le sillage d’une hydrolienne. Ce dernier a été complètement réécrit dans le cadre de cette thèse et le support théorique et technique des différents aspects du code est fourni dans ce manuscrit, où la méthode Vortex telle qu’elle est utilisée dans le code est exposée en détail. / This manuscript deals with the numerical and experimental characterisation of the behaviour of marine current turbines. In the experimental part, trials were run at IFREMER’s wave and current flume tank in Boulogne-Sur-Mer, on prototypes of three-bladed horizontal axis turbines. Configurations with one single turbine on the one hand, and two turbines aligned with the incoming flow on the other hand, were considered for a large range of TSRs and, when relevant, of inter-device distances. The behaviour of the turbines is analysed in terms of performances (power and thrust coefficients) and development of the wake. The effects of the ambient turbulence intensity rate are also considered. Besides, numerical computations, obtained from a tridimensional unsteady software, based on the Vortex particle method and developed at the LOMC (UMR 6294, CNRS – University of Le Havre) in partnership with IFREMER, are presented. The numerical tool also enables to study the performances and the wake of a turbine. It was rewritten during this PhD and its technical and theoretical support is available in the manuscript, where the Vortex method, as it is used in the software, is described in details.
|
83 |
Névrose, psychosomatique et fonctionnement limité : approche clinique projective : du destin des pulsions agressives / Neurosis, psychosomatic and borderline state : clinic projective method : the destiny aggressive drivesXardel-Haddab, Hamida 18 September 2009 (has links)
L’auteur propose de réfléchir au destin des pulsions agressives dans trois types de fonctionnement : le fonctionnement limite, le fonctionnement psychosomatique et le fonctionnement normalo-névrotique à partir d’une démarche psychodynamique s’appuyant sur le rorschach, l’analyse d’un entretien clinique de recherche et le questionnaire 16PF5. Cette étude se fonde sur une méthodologie du cas unique. Elle porte sur l’orientation de l’agir dans les deux premiers fonctionnements en lien avec l’organisation défensive et la nature de l’angoisse. De là, découle une hypothèse centrale : plus le fonctionnement psychique est marqué par une organisation défensive à dominante projective, plus les pulsions agressives sont externalisées par un agir comportemental associée à une angoisse bruyante et massive. Et a contrario, plus le fonctionnement défensif est marqué par une dominante répressive et inhibitrice, plus les pulsions agressives risquent de subir un destin les conduisant à l’agir somatique, associé à une angoisse non manifeste. / The author proposes to think about the aggressive drives final destinies into three types of intrapsychic functioning : the border-line state, the psychosomatic organization and the normalo-neurotic structure using a psychodynamique orientation centered on the Rorschach, and a clinical research interview associated with the 16PF5 questionary. This study was based on the “single case” methodology. Acting in or acting out are for us linked to the defensive orientation and the nature of anguish. Our main hypothesis is that a psychic functioning more projective is relation to externalization of agressive drives on acting out behaviours related to anguish expression. On the other hand, the more defensive style is affected by a repressive and a primary tendancy, the more the agressive drives are able to lead a somatic expression associated with a repressed anguish.
|
84 |
Modélisation numérique du procédé de planage des bandes minces / Numerical modelling of leveling process for thin stripsMathieu, Norman 05 December 2011 (has links)
Le planage est un procédé de mise en forme utilisé dans l’industrie de l’aluminium dans le but de corriger les défauts de planéité et de réduire les contraintes résiduelles dans les bandes minces par des flexions sous traction. Après avoir étudié les possibilités pour modéliser analytiquement le passage d’une tôle dans une planeuse multi-rouleaux et établi les limites de cette approche, on propose dans ce travail de thèse un modèle éléments finis en trois dimensions pour simuler le fonctionnement d’une planeuse sous traction pure. Les distributions de déformations plastiques et de contraintes résiduelles, dans la largeur et dans l’épaisseur, sont calculées. Des défauts initiaux de planéité sont introduits dans la bande en entrée de la machine et on vérifie que ceux-ci sont bien corrigés à la sortie.Ensuite, pour limiter la taille du modèle et diminuer le temps nécessaire à la simulation, une seconde approche avec un chaînage de configurations élémentaires et un transfert de données est comparée au modèle complet d’étireuse. Une application de ce modèle alternatif est effectuée en étudiant l’influence du profil des rouleaux. Enfin, la déformée de la bande, après retour élastique et flambement éventuel, est prédite / Leveling is a forming process used in the aluminum industry in order to correct flatness defects and minimize residual stresses in thin metallic strips thanks to bending under tension. After testing an analytical model of multiroll leveling and raising the limits of this approach, this thesis manuscript introduces a three-dimensionnal Finite Element model to simulate the sheet conveying in an industrial configuration of stretcher. It can compute plastic strains and residual stresses through width and thickness. Initial flatness defetcs are taken into account in the entering strip and we verify how they are corrected at the exit. Then, to reduce model size and computation time, a second approach with two elementary configurations coupling and data transfer is compared to whole model of stretcher. This alternative model is applied to study the profiled rolls effect. Finally, it predicts the deformed strip after springback and potential buckling phenomena
|
85 |
Codage réseau pour des applications multimédias avancées / Network coding for advanced video applicationsNemoianu, Irina-Delia 20 June 2013 (has links)
Le codage réseau est un paradigme qui permet une utilisation efficace du réseau. Il maximise le débit dans un réseau multi-saut en multicast et réduit le retard. Dans cette thèse, nous concentrons notre attention sur l’intégration du codage réseau aux applications multimédias, et en particulier aux systèmes avancès qui fournissent un service vidéo amélioré pour les utilisateurs. Nos contributions concernent plusieurs scénarios : un cadre de fonctions efficace pour la transmission de flux en directe qui utilise à la fois le codage réseau et le codage par description multiple, une nouvelle stratégie de transmission pour les réseaux sans fil avec perte qui garantit un compromis entre la résilience vis-à-vis des perte et la reduction du retard sur la base d’une optimisation débit-distorsion de l'ordonnancement des images vidéo, que nous avons également étendu au cas du streaming multi-vue interactive, un système replication sociale distribuée qui, en utilisant le réseau codage en relation et la connaissance des préférences des utilisateurs en termes de vue, est en mesure de sélectionner un schéma de réplication capable de fournir une vidéo de haute qualité en accédant seulement aux autres membres du groupe social, sans encourir le coût d’accès associé à une connexion à un serveur central et sans échanger des larges tables de métadonnées pour tenir trace des éléments répliqués, et, finalement, une étude sur l’utilisation de techniques de séparation aveugle de source -pour réduire l’overhead encouru par les schémas de codage réseau- basé sur des techniques de détection d’erreur telles que le codage de parité et la génération de message digest. / Network coding is a paradigm that allows an efficient use of the capacity of communication networks. It maximizes the throughput in a multi-hop multicast communication and reduces the delay. In this thesis, we focus our attention to the integration of the network coding framework to multimedia applications, and in particular to advanced systems that provide enhanced video services to the users. Our contributions concern several instances of advanced multimedia communications: an efficient framework for transmission of a live stream making joint use of network coding and multiple description coding; a novel transmission strategy for lossy wireless networks that guarantees a trade-off between loss resilience and short delay based on a rate-distortion optimized scheduling of the video frames, that we also extended to the case of interactive multi-view streaming; a distributed social caching system that, using network coding in conjunction with the knowledge of the users' preferences in terms of views, is able to select a replication scheme such that to provide a high video quality by accessing only other members of the social group without incurring the access cost associated with a connection to a central server and without exchanging large tables of metadata to keep track of the replicated parts; and, finally, a study on using blind source separation techniques to reduce the overhead incurred by network coding schemes based on error-detecting techniques such as parity coding and message digest generation. All our contributions are aimed at using network coding to enhance the quality of video transmission in terms of distortion and delay perceived
|
86 |
Optimisation de réseaux de capteurs pour la caractérisation de source de rejets atmosphériques / Sensors networks optimization for the characterization of atmospheric releases sourceKouichi, Hamza 18 July 2017 (has links)
L’objectif principal de cette étude est de définir les méthodes nécessaires pour optimiser un réseau de surveillance conçu pour la caractérisation de source de rejets atmosphériques. L’optimisation consiste ici à déterminer le nombre et les positions optimales de capteurs à déployer afin de répondre à ce type de besoin. Dans ce contexte, l’optimisation est réalisée pour la première fois par un couplage entre la technique d’inversion de données dite de « renormalisation » et des algorithmes d’optimisation métaheuristique. La méthode d’inversion a été en premier lieu évaluée pour la caractérisation de source ponctuelle, et a permis ensuite, de définir des critères d’optimalité pour la conception des réseaux. Dans cette étude, le processus d’optimisation a été évalué dans le cadre d’expériences réalisées en terrain plat sans obstacles (DYCE) et en milieu urbain idéalisé (MUST). Trois problématiques ont été définies et testées sur ces expériences. Elles concernent (i) la détermination de la taille optimale d’un réseau permettant de caractériser une source de pollution, où une fonction coût (erreurs normalisées), traduisant l’écart entre les observations et les données modélisées, a été minimisée ; (ii) la conception optimale d’un réseau permettant de caractériser une source ponctuelle inconnue, pour une condition météorologique particulière. Dans ce contexte, une fonction coût entropique a été maximisée afin d’augmenter la quantité d’information fournie par le réseau ; (iii) la détermination d’un réseau optimal permettant de caractériser une source ponctuelle inconnue pour des configurations météorologiques multiples. Pour ce faire, une fonction coût entropique généralisée, que nous avons définie, a été maximisée. Pour ces trois problématiques, l’optimisation est assurée dans le cadre d’une approche d’optimisation combinatoire. La détermination de la taille optimale d’un réseau (problématique 1) s’est révélée particulièrement sensible aux différentes conditions expérimentales (hauteur et débit de la source, conditions de stabilité, vitesse et direction du vent, etc.). Nous avons noté pour ces expériences, que les performances des réseaux sont meilleures dans le cadre d’une dispersion sur terrain plat comparativement aux milieux urbains. Nous avons également montré que différentes architectures de réseaux pouvaient converger vers le même optimum (approché ou global). Pour la caractérisation de sources inconnues (problématiques 2 et 3), les fonctions coûts entropiques se sont avérées robustes et ont permis d’obtenir des réseaux optimaux performants (de tailles raisonnables) capables de caractériser différentes sources pour une ou plusieurs conditions météorologiques. / The main objective of this study is to define the methods required to optimize a monitoring network designed for atmospheric source characterization. The optimization consists in determining the optimal number and locations of sensors to be deployed in order to respond to such needs. In this context, the optimization is performed for the first time by a coupling between the data inversion technique named "renormalization" and the metaheuristic optimization algorithms. At first, the inversion method was evaluated for a point source, and then have allowed to define optimality criteria for networks design. In this study, the optimization process was evaluated in experiments carried out in flat terrain without obstacles (DYCE) and in an idealized urban environment (MUST). Three problems were defined and tested based on these experiments. These problems concern (i) the determination of the optimal network size for source characterization, for which a cost function (standard errors) estimating the gap between observations and modeled data, has been minimized; (ii) the optimal design of a network to retrieve an unknown point source for a particular meteorological condition. In this context, an entropy cost function has been maximized in order to increase the information’s amount provided by the network; (iii) the determination of an optimal network to reconstruct an unknown point source for multiple meteorological configurations. For this purpose, a generalized entropic cost function that we have defined, has been maximized. For these all problems, optimization is ensured within the framework of a combinatorial optimization approach. The determination of the optimal network size (problem 1) was highly sensitive to experimental conditions (source height and intensity, stability conditions, wind speed and direction, etc.). We have noted that the networks performance is better for a dispersion on flat terrain compared to the urban environments. We have also shown that different networks architectures can converge towards the same optimum (approximate or global). For unknown sources reconstruction (problems 2 and 3), the entropic cost functions have proven to be robust and allowed to obtain optimal networks (for reasonable sizes) capable of characterizing different sources for one or multiple meteorological conditions.
|
87 |
Une sociologie de l'action : évolution d'un concept et présentation d'un paradigmeRobitaille, Christian 02 September 2021 (has links)
Cette thèse propose un questionnement sur les objets et les méthodes des sciences sociales ainsi que sur les types de connaissance qu’elles peuvent nous permettre d’obtenir. L’idée centrale soutenue par cette thèse est que l’action constitue le cœur de l’explication sociale. Ainsi, ce travail se construit en deux temps. D’abord, on procède à une analyse de l’évolution du concept d’action en sciences sociales à partir de la philosophie de l’action de David Hume jusqu’à ses spécifications théoriques en économie et en sociologie classiques. Cette évolution conceptuelle permet de situer deux courants théoriques complémentaires dans l’étude de l’action représentés par l’économiste Ludwig von Mises et le sociologue Raymond Boudon. Ensuite, cette thèse utilise les paradigmes de l’action de Mises et de Boudon afin de présenter l’esquisse d’un paradigme unifié permettant aux chercheurs de situer méthodologiquement et épistémologiquement leurs investigations sociales.
|
88 |
Mise en place d'approches bioinformatiques innovantes pour l'intégration de données multi-omiques longitudinalesBodein, Antoine 10 February 2024 (has links)
Les nouvelles technologies «omiques» à haut débit, incluant la génomique, l'épigénomique, la transcriptomique, la protéomique, la métabolomique ou encore la métagénomique, ont connues ces dernières années un développement considérable. Indépendamment, chaque technologie omique est une source d'information incontournable pour l'étude du génome humain, de l'épigénome, du transcriptome, du protéome, du métabolome, et également de son microbiote permettant ainsi d'identifier des biomarqueurs responsables de maladies, de déterminer des cibles thérapeutiques, d'établir des diagnostics préventifs et d'accroître les connaissances du vivant. La réduction des coûts et la facilité d'acquisition des données multi-omiques à permis de proposer de nouveaux plans expérimentaux de type série temporelle où le même échantillon biologique est séquencé, mesuré et quantifié à plusieurs temps de mesures. Grâce à l'étude combinée des technologies omiques et des séries temporelles, il est possible de capturer les changements d'expressions qui s'opèrent dans un système dynamique pour chaque molécule et avoir une vision globale des interactions multi-omiques, inaccessibles par une approche simple standard. Cependant le traitement de cette somme de connaissances multi-omiques fait face à de nouveaux défis : l'évolution constante des technologies, le volume des données produites, leur hétérogénéité, la variété des données omiques et l'interprétabilité des résultats d'intégration nécessitent de nouvelles méthodes d'analyses et des outils innovants, capables d'identifier les éléments utiles à travers cette multitude d'informations. Dans cette perspective, nous proposons plusieurs outils et méthodes pour faire face aux challenges liés à l'intégration et l'interprétation de ces données multi-omiques particulières. Enfin, l'intégration de données multi-omiques longitudinales offre des perspectives dans des domaines tels que la médecine de précision ou pour des applications environnementales et industrielles. La démocratisation des analyses multi-omiques et la mise en place de méthodes d'intégration et d'interprétation innovantes permettront assurément d'obtenir une meilleure compréhension des écosystèmes biologiques. / New high-throughput «omics» technologies, including genomics, epigenomics, transcriptomics, proteomics, metabolomics and metagenomics, have expanded considerably in recent years. Independently, each omics technology is an essential source of knowledge for the study of the human genome, epigenome, transcriptome, proteome, metabolome, and also its microbiota, thus making it possible to identify biomarkers leading to diseases, to identify therapeutic targets, to establish preventive diagnoses and to increase knowledge of living organisms. Cost reduction and ease of multi-omics data acquisition resulted in new experimental designs based on time series in which the same biological sample is sequenced, measured and quantified at several measurement times. Thanks to the combined study of omics technologies and time series, it is possible to capture the changes in expression that take place in a dynamic system for each molecule and get a comprehensive view of the multi-omics interactions, which was inaccessible with a simple standard omics approach. However, dealing with this amount of multi-omics data faces new challenges: continuous technological evolution, large volumes of produced data, heterogeneity, variety of omics data and interpretation of integration results require new analysis methods and innovative tools, capable of identifying useful elements through this multitude of information. In this perspective, we propose several tools and methods to face the challenges related to the integration and interpretation of these particular multi-omics data. Finally, integration of longidinal multi-omics data offers prospects in fields such as precision medicine or for environmental and industrial applications. Democratisation of multi-omics analyses and the implementation of innovative integration and interpretation methods will definitely lead to a deeper understanding of eco-systems biology.
|
89 |
Automatisation du recalcul de dose Monte Carlo pour une étude rétrospective en curiethérapie à bas débit de dose de la prostateOuellet, Samuel 26 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / La méthode clinique pour le calcul de dose lors des traitements de curiethérapie considère le patient comme un volume d'eau infini (formalisme TG43). Cette approximation s'avère incorrecte, en particulier pour les photons de faible énergie présents en curiethérapie par implant permanent de la prostate. Des études ont montré que des différences allant jusqu'à 25-30% sur les indices dosimétriques cliniques sont observées dans les cas de calcifications de la prostate lorsque l'anatomie du patient est prise en compte dans une simulation Monte Carlo (MC) (formalisme TG186). Compte tenu des différences constatées entre les dosimétries TG43 et TG186 pour la curiethérapie par implant permanent de la prostate, l'objectif de ce travail est de recalculer rétrospectivement les distributions de dose à partir du formalisme TG186 pour tous les patients ayant reçu un traitement au CHU de Québec. Pour ce faire, un pipeline automatisé de recalcul de dose basé sur les bonnes pratiques de gestion des données est construit, validé et appliqué sur une cohorte de 960 patients. Une base de données de 960 patients a été construite et les cas de calcifications ont été identifiés. Un pipeline automatisé a été conçu pour recalculer les distributions de doses par simulations MC propres à l'anatomie du patient (TG186). Le pipeline extrait et reproduit automatiquement le context du traitment, contenu dans les données cliniques, dans la simulation de Monte Carlo. Le pipeline de recalcul a été validé en reproduisant les calculs du TG43 et en évaluant la cohérence des simulations MC TG186 effectuées avec deux codes MC différents. Appliquées à l'ensemble de la cohorte de patients, les distributions MC produites ont pu reproduire les résultats observés dans des études antérieures, tel qu'une diminution de 2,57 % sur le D90 de la prostate pour chaque % du volume de prostate calcifiée. L'ensemble des données de dose MC produites constitue donc une ressource clé pour les futures études dosimétriques qui viseraient à corréler la dose précise délivrée au patient à l'efficacité du traitement de curiethérapie. / The current clinical method used to calculate the dose during brachytherapy treatments considers the patient as an infinite water volume (TG43 formalism). This approximation is mostly accurate when using high-energy photons. That is not the case for low-energy photons used in permanent implant prostate brachytherapy. Studies have shown that differences of up to 25-30% on clinical metrics can be observed in cases with prostate calcifications when taking into account the patient anatomy with Monte Carlo (MC) simulations (TG186 formalism). Considering the differences found between TG43 and TG186 dosimetry for permanent implant prostate brachytherapy, the objective of this work was to retrospectively recalculate the dose distributions using the TG186 formalism for all patients having received permanent implant prostate brachytherapy at CHU de Québec. To do so, an automated dose recalculation pipeline based on the best data management practices is built, validated, and applied to a 960-patient cohort. A curated database of 960 patients was built with calcification cases identified. An automated pipeline has been built to recalculate patient-specific dose distributions (TG186). The pipeline extracts and reproduces the treatment context within a MC simulation. The recalculation pipeline was validated by reproducing the TG43 calculations using MC simulation in the same conditions and the consistency of the patient-specific MC simulations was evaluated between simulations made with two different MC codes. When applied to the entire patient cohort, the produced MC distributions could reproduce the results seen in previous studies, such as a diminution of 2.57% on the D90 of the prostate for each % of the prostate volume being calcifications. The produced MC dose dataset constitutes a key resource for future dosimetric studies that would aim to correlate the accurate delivered dose to the patient to the efficiency of the brachytherapy treatment.
|
90 |
Sensibilité en mécanique des fluides : adaptation de maillage, turbulence et optimisation.Carrier, Alexandre 10 February 2024 (has links)
Cette thèse concerne l’analyse d’écoulements laminaires et turbulents en régime permanent par la méthode des éléments finis. Le but est de présenter des nouvelles méthodologies qui permettent de contrôler efficacement et automatiquement certains paramètres du problème physique et numérique afin d’obtenir les résultats désirés par l’ingénieur. Ces résultats sont des besoins tangibles telle que la performance du système mesurée en termes de coefficients aérodynamiques, de pertes d’énergie, etc. Pour contrôler la précision de l’anticipation numérique, la simulation de l’écoulement n’est pas suffisante. Le lien entre les résultats et les paramètres est manquant. Une analyse de sensibilité permet d’obtenir cette information. Nous verrons que si cette analyse est bien faite, son coût devient marginal. Dans un premier temps, l’estimation numérique du résultat doit être fiable. Par conséquent, on présente une nouvelle façon de contrôler efficacement l’erreur liée à la discrétisation spatiale nécessaire à ce genre de méthodes computationnelles. La sensibilité du résultat par rapport aux résidus des équations de la physique est alors utilisée. Nous validons nos nouveaux outils sur des écoulements laminaires. Ensuite, nous continuons avec des écoulements turbulents. Une fois que ces quantités sont bien estimées numériquement, le problème peut être optimisé virtuellement. Ainsi, l’amélioration de la conception réelle peut être fortement accélérée. Dans ce travail, l’optimisation géométrique est abordée. Nous présentons de nouvelles façons de gérer les contraintes de conception. La sensibilité du résultat par rapport à des perturbations de la paroi est alors utilisée. / This thesis concerns the analysis of fluid mechanics by computer. The goal is to present new methodologies that allow controlling effectively and automatically parameters of the physical and numerical problem to obtain the results the engineer desires. These results are concrete needs as the performance of the system measured in terms of aerodynamic coefficients, energy losses, etc. To control the result, the flow simulation is not sufficient. The link between results and parameters is missing. A sensitivity analysis provides this information. If we do this analysis appropriately, its cost becomes marginal. First, the numerical estimate of the result must be reliable. Consequently, we give an new way to control effectively the error related to the spatial discretization necessary for this kind of computational methods. We use the sensitivity of the result with respect to the residuals of the physics equations. We are validating our new tools on laminar flows. Then we continue with turbulent flows. Once these quantities are well estimated numerically, the problem can be optimized virtually. Thus, the actual design improvement can be accelerated. In this work, geometric optimization is achieved. We present new ways to manage design constraints. We use the sensitivity of the result to wall perturbations.
|
Page generated in 0.0785 seconds