Spelling suggestions: "subject:"problème inverse"" "subject:"roblème inverse""
211 |
Spatial Separation of Sound SourcesDong, Bin 14 April 2014 (has links) (PDF)
La séparation aveugle de sources est une technique prometteuse pour l'identification, la localisation, et la classification des sources sonores. L'objectif de cette thèse est de proposer des méthodes pour séparer des sources sonores incohérentes qui peuvent se chevaucher à la fois dans les domaines spatial et fréquentiel par l'exploitation de l'information spatiale. De telles méthodes sont d'intérêt dans les applications acoustiques nécessitant l'identification et la classification des sources sonores ayant des origines physiques différentes. Le principe fondamental de toutes les méthodes proposées se décrit en deux étapes, la première étant relative à la reconstruction du champ source (comme par exemple à l'aide de l'holographie acoustique de champ proche) et la seconde à la séparation aveugle de sources. Spécifiquement, l'ensemble complexe des sources est d'abord décomposé en une combinaison linéaire de fonctions de base spatiales dont les coefficients sont définis en rétropropageant les pressions mesurées par un réseau de microphones sur le domaine source. Cela conduit à une formulation similaire, mais pas identique, à la séparation aveugle de sources. Dans la seconde étape, ces coefficients sont séparés en variables latentes décorrélées, affectées à des "sources virtuelles" incohérentes. Il est montré que ces dernières sont définies par une rotation arbitraire. Un ensemble unique de sources sonores est finalement résolu par la recherche de la rotation (par gradient conjugué dans la variété Stiefel des matrices unitaires) qui minimise certains critères spatiaux, tels que la variance spatiale, l'entropie spatiale, ou l'orthogonalité spatiale. Il en résulte la proposition de trois critères de séparation à savoir la "moindre variance spatiale", la "moindre entropie spatiale", et la "décorrélation spatiale", respectivement. De plus, la condition sous laquelle la décorrélation classique (analyse en composantes principales) peut résoudre le problème est établit de une manière rigoureuse. Le même concept d'entropie spatiale, qui est au coeur de cette thèse, est également iv exploité dans la définition d'un nouveau critère, la courbe en L entropique, qui permet de déterminer le nombre de sources sonores actives sur le domaine source d'intérêt. L'idée consiste à considérer le nombre de sources qui réalise le meilleur compromis entre une faible entropie spatiale (comme prévu à partir de sources compactes) et une faible entropie statistique (comme prévu à partir d'une faible erreur résiduelle). La méthode proposée est validée à la fois sur des expériences de laboratoire et des données numériques et illustrée par un exemple industriel concernant la classification des sources sonores sur la face supérieure d'un moteur Diesel. La méthodologie peut également séparer, de façon très précise, des sources dont les amplitudes sont de 40 dB inférieur aux sources les plus fortes. Aussi, la robustesse vis-à-vis de l'estimation du nombre de sources actives, de la distance entre le domaine source d'intérêt et le réseau de microphones, ainsi que de la taille de la fonction d'ouverture est démontrée avec succès.
|
212 |
Agrandissement d'images par synthèse de similarités et par induction sur un ensembleCalle, Didier 25 November 1999 (has links) (PDF)
Ce mémoire porte sur l'agrandissement des images numériques fixes en niveaux de gris dans un contexte général sans connaissance a priori. Il est constitué de trois parties. La première porte sur une description détaillée des méthodes d'agrandissement que l'on peut trouver dans la littérature. Nous commençons par présenter les méthodes d'interpolation classiques ayant pour objectif de préserver les fréquences de l'image à agrandir, puis nous détaillons des méthodes récentes de préservation structurelle produisant une meilleure netteté. La deuxième partie constitue la contribution majeure de ce travail en proposant deux nouvelles méthodes d'agrandissement. La première méthode est basée sur la synthèse de similarités détectées sur une représentation pyramidale de l'image. Elle reprend à la base le zoom fractal classique en apportant de nombreuses modifications et améliorations aussi bien dans la phase d'analyse que dans celle de synthèse. Nous vérifions expérimentalement l'hypothèse de préservation des similarités. La deuxième méthode d'agrandissement que nous proposons s'intéresse à l'ensemble admissible des images agrandies d'une image initiale. La condition d'admissibilité repose ici sur la notion de réduction : une image agrandie appartient à l'ensemble des solutions si sa réduction est identique à l'image initiale. Nous étudions différents algorithmes de projection sur cet ensemble. La troisième partie concerne des améliorations et des applications de nos deux méthodes. Tout d'abord, nous améliorons la qualité de l'image agrandie par synthèse de similarités en recherchant celles-ci sur une pyramide en quinconce. Ensuite, nous exploitons la méthode d'agrandissement par induction pour régulariser, vis-à-vis de la contrainte de réduction, les images agrandies par synthèse de similarités. Enfin, nous exploitons également cette méthode pour réaliser un codage hiérarchique de l'image permettant sa transmission progressive sur réseau.
|
213 |
Exploitation des mesures "vapeur d'eau" du satellite Megha-Tropiques pour l'élaboration d'un algorithme de restitution de profils associés aux fonctions de densité de probabilité de l'erreur conditionnelleSivira, Ramses 16 December 2013 (has links) (PDF)
La place de la vapeur d'eau est centrale dans le système climatique : à l'échelle globale, elle participe à la redistribution de l'excédent d'énergie des régions tropicales vers les régions polaires via les grandes cellules de circulation, à méso-échelle elle participe au développement (maturation, dissipation) des systèmes nuageux, précipitants ou non, et à plus petite échelle, ce sont les lois de la thermodynamique humide qui régissent la microphysique de ces nuages. Finalement c'est le plus abondant des gaz à effet de serre qui est au centre d'une boucle de rétroaction fortement positive. La mission satellite Megha-Tropiques a été conçue pour améliorer la documentation du cycle de l'eau et de l'énergie des régions tropicales, via notamment trois instruments : deux radiomètres microondes MADRAS (un imageur) et SAPHIR (un sondeur) respectivement dédiés à l'observation des précipitations (liquides et glacées) et de l'humidité relative atmosphérique, et un radiomètre multi-spectral ScaRaB pour la mesure des flux radiatifs au sommet de l'atmosphère dans le bilan de l'eau et l'énergie de l'atmosphère tropicale et décrire l'évolution de ces systèmes. Les caractéristiques des instruments embarqués permettraient une résolution étendue autours de la raie à 183 GHz du spectre microonde, qui permet de sonder le contenu en vapeur d'eau même en présence des nuages convectifs. Afin de construire une base d'apprentissage où les valeurs d'entrée et sortie soient parfaitement colocalisées et qui, en même temps, soit représentative du problème à modéliser, une large base de radiosondages obtenus par ciel claire et couvrant la bande tropicale (±30° en latitude) sur la période 1990-2008 a été exploitée en parallèle à un modèle de transfert radiatif pour l'obtention des températures de brillance simulées des deux radiomètres. Nous avons mis au point une méthodologie qui nous a permis de développer un algorithme de restitution des profils de vapeur d'eau à partir des observations SAPHIR et MADRAS, et surtout de quantifier l'incertitude conditionnelle d'estimation. L'approche s'est orientée vers l'exploitation des méthodes purement statistiques de restitution des profils afin d'extraire le maximum d'information issues des observations, sans utiliser d'information complémentaire sur la structure thermodynamique de l'atmosphère ou des profils a priori, pour se concentrer sur les diverses restrictions du problème inverse. Trois modèles statistiques ont été optimisés sur ces données d'apprentissage pour l'estimation des profils sur 7 couches de la troposphère, un réseaux de neurones (modèle perceptron multicouches), le modèle additif généralisé et le modèle de machines à vecteur de support (Least Square-Support Vector Machines), et deux hypothèses de modélisation de la fonction de distribution de la probabilité (pdf) de l'erreur conditionnelle sur chacune des couches ont été testées, l'hypothèse Gaussienne (HG) et le mélange de deux distributions Gaussiennes (M2G). L'effort porté sur l'optimisation des modèles statistiques a permis de démontrer que les comportements des trois modèles d'estimation sont semblables, ce qui nous permet de dire que la restitution est indépendante de l'approche utilisée et qu'elle est directement reliée aux contraintes physiques du problème posé. Ainsi, le maximum de précision pour la restitution des profils verticaux d'humidité relative est obtenu aux couches situées dans la moyenne troposphère (biais maximum de 2,2% et coefficient de corrélation minimum de 0,87 pour l'erreur d'estimation) tandis que la précision se dégrade aux extrêmes de la troposphère (à la surface et proche de la tropopause, avec toutefois un biais maximale de 6,92% associé à une forte dispersion pour un coefficient de corrélation maximum de 0,58 pour l'erreur d'estimation), ce qui est expliqué par le contenu en information des mesures simulées utilisées. A partir de la densité de probabilité de l'erreur, connaissant les températures de brillance observées, des intervalles de confiance conditionnels de l'humidité de chacune de couches de l'atmosphère ont été estimés. Les algorithmes d'inversion développés ont été appliqués sur des données réelles issues de la campagne "vapeur d'eau" de validation Megha-Tropiques de l'été 2012 à Ouagadougou qui a permis d'obtenir des mesures par radiosondages coïncidentes avec les passages du satellite. Après prise en compte de l'angle de visée, des incertitudes liées à l'étalonnage de SAPHIR et des erreurs associées à la mesure in situ, l'exploitation de ces données a révélé un comportement semblable aux données de l'apprentissage, avec une bonne performance (biais de 4,55% et coefficient de corrélation de 0,874 sur l'erreur d'estimation) en moyenne troposphère et une dégradation aux extrêmes de la colonne atmosphérique (biais de -4,81% et coefficient de corrélation de 0,419). L'application systématique sur l'ensemble des mesures réalisées par SAPHIR permettra donc mener des études de la variabilité de la vapeur d'eau tropicale en tenant compte des intervalles de confiance associés à la restitution.
|
214 |
Modélisation des écoulement en milieux poreux fracturés : estimation des paramètres par approche inverse multi-échelleTrottier, Nicolas 16 May 2014 (has links) (PDF)
Ce travail a pour objectif de développer et d'appliquer une méthode originale permettant de simuler l'écoulement dans un milieu poreux fracturé. Cette méthode repose sur une approche multicouches double continuum permettant de séparer le comportement des différents aquifères présents sur un site. La résolution des écoulements, basée sur la méthode des Eléments Finis de Crouzeix-Raviart, est associée à une méthode inverse (minimisation de type Quasi-Newton combinée à la méthode de l'état adjoint) et à une paramétrisation multi-échelle.La méthode est appliquée dans un premier temps sur l'aquifère fracturé du site expérimental de Poitiers. Les résultats montrent une bonne restitution du comportement de l'aquifère et aboutissent à des champs de transmissivité plus réguliers par rapport à ceux de l'approche simple continuum. L'application finale est réalisée sur le site de Cadarache (taille plus importante et données d'entrée moins denses). Le calage des deux aquifères présents sur le site est satisfaisant et montre que ceux-ci se comportent globalement de façon indépendante. Ce calage pourra être amélioré localement grâce à données de recharge plus fines.
|
215 |
Tomographie optique diffuse et de fluorescence préclinique : instrumentation sans contact, modélisation et reconstruction 3D résolue en temps.Nouizi, Farouk 12 September 2011 (has links) (PDF)
La Tomographie Optique Diffuse Résolue en Temps (TOD-RT) est une technique d'imagerie clinique et préclinique en pleine croissance. Elle fournit les cartes d'absorption et de diffusion optique des organes explorés, et les paramètres physiologiques associés. La Tomographie Optique Diffuse de Fluorescence Résolue en Temps (TODF-RT) est basée sur la détection de photons de fluorescence. Elle permet de déterminer les cartes de la concentration et du temps de vie de sondes fluorescentes et d'accéder à une imagerie métabolique et moléculaire très importante pour le diagnostic et le suivi thérapeutique, en particulier en cancérologie. L'objectif de cette thèse était de réaliser des images 3D de TOD/TODF-RT sur des rongeurs en utilisant une technologie optique résolue en temps, les acquisitions étant réalisées à l'aide de fibres optiques disposées autour de l'animal et sans contact avec sa surface. Le travail a été mené en quatre étapes : 1- mise en place d'un dispositif d'imagerie de la surface de l'animal et reconstruction de son contour 3D, 2- modélisation de l'approche sans contact pour la résolution du problème direct, 3- traitement des mesures prenant en compte la réponse impulsionnelle de l'appareil, 4- établissement d'une méthode de reconstruction des images basée sur une sélection de points judicieusement choisis sur les profils temporels. Ces travaux ont permis d'obtenir des images optiques 3D de bonne qualité en réduisant la diaphonie entre l'absorption et la diffusion. Ces améliorations ont été obtenues tout en diminuant le temps de calcul, par comparaison avec les méthodes utilisant la totalité des profils temporels.
|
216 |
Optimization of an X-ray diffraction imaging system for medical and security applications / Optimisation d'un système d'imagerie en diffraction X pour des applications médicales et en contrôle de sécuritéMarticke, Fanny 19 July 2016 (has links)
L’imagerie basée sur la diffraction des rayons X est une technique non-invasive puissante pour l’identification et caractérisation de matériaux différents. Comparée aux techniques traditionnelles utilisant la transmission des rayons X, elle permet d’extraire des informations beaucoup plus caractéristiques pour le matériau inspecté, comme les positions des pics de Bragg pour des matériaux cristallins et le facteur de forme moléculaire pour les matériaux amorphes. Le potentiel de cette méthode a été reconnu par de nombreuses équipes de recherche et de nombreuses applications comme l’inspection de bagage, le contrôle non-destructif, la détection de drogue et la caractérisation de tissus biologiques ont été proposées. La méthode par dispersion d’énergie (EDXRD) est particulièrement adaptée à ce type d’application car elle permet l’utilisation d’un tube à rayons X conventionnel, l’acquisition du spectre entier en une fois et des architectures parallélisées pour l’inspection d’un objet entier en un temps raisonnable. L’objectif de ce travail est d’optimiser toute la chaîne de caractérisation. L’optimisation comprend deux aspects : l’optimisation du système d’acquisition et du traitement des données. La dernière concerne particulièrement la correction des spectres de diffraction dégradés par le processus d’acquisition. Des méthodes de reconstruction sont proposées et validées sur des spectres simulés et expérimentaux. L’optimisation du système est réalisée en utilisant des facteurs de mérite comme l’efficacité quantique de détection (DQE), le rapport contraste sur bruit (CNR) et les courbes de caractéristiques opérationnelles de réception (ROC).La première application choisie, c’est l’imagerie du sein basée sur la diffraction qui a pour but de distinguer des tissus cancéreux des tissus sains. Deux configurations de collimation sans multiplexage combinant EDXRD et ADXRD sont proposées suite au processus d’optimisation. Une étude de simulation du système entier et d’un fantôme de sein a été réalisée afin de déterminer la dose requise pour la détection d’un petit carcinome de 4 mm. La deuxième application concerne la détection de matériaux illicites pendant le contrôle de sécurité. L’intérêt possible d’un système de collimation multiplexé a été étudié. / X-ray diffraction imaging is a powerful noninvasive technique to identify or characterize different materials. Compared to traditional techniques using X-ray transmission, it allows to extract more material characteristic information, such as the Bragg peak positions for crystalline materials as well as the molecular form factor for amorphous materials. The potential of this technique has been recognized by many researchers and numerous applications such as luggage inspection, nondestructive testing, drug detection and biological tissue characterization have been proposed.The method of energy dispersive X-ray diffraction (EDXRD) is particularly suited for this type of applications as it allows the use of a conventional X-ray tube, the acquisition of the whole spectrum at the same time and parallelized architectures to inspect an entire object in a reasonable time. The purpose of the present work is to optimize the whole material characterization chain. Optimization comprises two aspects: optimization of the acquisition system and of data processing. The last one concerns especially the correction of diffraction pattern degraded by acquisition process. Reconstruction methods are proposed and validated on simulated and experimental spectra. System optimization is realized using figures of merit such as detective quantum efficiency (DQE), contrast to noise ratio (CNR) and receiver operating characteristic (ROC) curves.The first chosen application is XRD based breast imaging which aims to distinguish cancerous tissues from healthy tissues. Two non-multiplexed collimation configurations combining EDXRD and ADXRD are proposed after optimization procedure. A simulation study of the whole system and a breast phantom was realized to determine the required dose to detect a 4 mm carcinoma nodule. The second application concerns detection of illicit materials during security check. The possible benefit of a multiplexed collimation system was examined.
|
217 |
Estimation de distribution de tailles de particules par techniques d'inférence bayésienne / Particle size distribution esimation using Bayesian inference techniquesBoualem, Abdelbassit 06 December 2016 (has links)
Ce travail de recherche traite le problème inverse d’estimation de la distribution de tailles de particules (DTP) à partir des données de la diffusion dynamique de lumière (DLS). Les méthodes actuelles d’estimation souffrent de la mauvaise répétabilité des résultats d’estimation et de la faible capacité à séparer les composantes d’un échantillon multimodal de particules. L’objectif de cette thèse est de développer de nouvelles méthodes plus performantes basées sur les techniques d’inférence bayésienne et cela en exploitant la diversité angulaire des données de la DLS. Nous avons proposé tout d’abord une méthode non paramétrique utilisant un modèle « free-form » mais qui nécessite une connaissance a priori du support de la DTP. Pour éviter ce problème, nous avons ensuite proposé une méthode paramétrique fondée sur la modélisation de la DTP en utilisant un modèle de mélange de distributions gaussiennes. Les deux méthodes bayésiennes proposées utilisent des algorithmes de simulation de Monte-Carlo par chaînes de Markov. Les résultats d’analyse de données simulées et réelles montrent la capacité des méthodes proposées à estimer des DTPs multimodales avec une haute résolution et une très bonne répétabilité. Nous avons aussi calculé les bornes de Cramér-Rao du modèle de mélange de distributions gaussiennes. Les résultats montrent qu’il existe des valeurs d’angles privilégiées garantissant des erreurs minimales sur l’estimation de la DTP. / This research work treats the inverse problem of particle size distribution (PSD) estimation from dynamic light scattering (DLS) data. The current DLS data analysis methods have bad estimation results repeatability and poor ability to separate the components (resolution) of a multimodal sample of particles. This thesis aims to develop new and more efficient estimation methods based on Bayesian inference techniques by taking advantage of the angular diversity of the DLS data. First, we proposed a non-parametric method based on a free-form model with the disadvantage of requiring a priori knowledge of the PSD support. To avoid this problem, we then proposed a parametric method based on modelling the PSD using a Gaussian mixture model. The two proposed Bayesian methods use Markov chain Monte Carlo simulation algorithms. The obtained results, on simulated and real DLS data, show the capability of the proposed methods to estimate multimodal PSDs with high resolution and better repeatability. We also computed the Cramér-Rao bounds of the Gaussian mixture model. The results show that there are preferred angle values ensuring minimum error on the PSD estimation.
|
218 |
Thermique des mini-canaux : comportement instationnaire et approche convolutive / Heat transfer in mini-channels : unsteady behaviour and convolutive approachHadad, Waseem Al 22 September 2016 (has links)
Un modèle semi-analytique permettant de simuler le transfert thermique conjugué dans un mini/macro canal plan soumis à des sources de chaleur surfaciques localisées sur les faces externes et variantes en fonction du temps, a été présenté et vérifié. Plus le diamètre hydraulique du canal est petit, plus la caractérisation expérimentale interne (mesure des températures et des flux) en régime thermique permanent ou transitoire à l'aide des capteurs internes est délicate. Une méthode non-intrusive permettant d'estimer les conditions internes à partir des mesures de température par thermographie infrarouge sur les faces externes et d'un modèle semi-analytique, a été effectuée. Comme le coefficient de transfert convectif forcé classique perd son sens en régime instationnaire, une approche alternative basée sur une fonction de transfert, valable pour un système linaire et invariant dans le temps a été mise en œuvre. Cette fonction peut être calculée analytiquement (uniquement pour une géométrie simple) ou estimée expérimentalement (géométrie complexe). Grâce au caractère intrinsèque de cette fonction de transfert, deux capteurs virtuels ont été conçus : capteur virtuel de température et détecteur d'encrassement permettent respectivement d'estimer les températures internes et de détecter l'encrassement qui peut avoir lieu dans l'échangeur à partir des mesures de températures sur les faces externes / A semi-analytical model allowing to simulate the transient conjugate heat transfer in mini/macro plane channel subject to a heat source(s) localized on the external face(s), was presented and verified. The developed model takes into account advection-diffusion in the fluid and conduction in the solid. As the hydraulic diameter of the channel becomes small, the internal experimental characterization (measurement of temperature and heat flux) using internal sensors become tricky because internal sensors located may compromise the structural integrity of the whole system. A non-intrusive method for estimating the internal conditions from infrared temperature measurements on the external faces using the semi-analytical model was performed. Since the classic convective heat transfer coefficient loses its meaning in transient state, an alternative approach based on a transfer function, valid for Linear Time-Invariant (LTI) systems, was highlighted. This function can be calculated analytically only for a simple geometry. For complex geometries it can be estimated experimentally. Thanks to intrinsic character of this function, two characterization methods were designed. The first to estimate the temperature at a point from a measurement at another point in the system (virtual temperature sensor). The second method concerns the detection of fouling layers that may appear in the heat exchanger from temperature measurements on the external faces
|
219 |
Optimisation de la configuration magnétique d'un propulseur à effet Hall par résolution du problème magnétostatique inverse / Magnetic circuit optimization of a Stationnary Plasma Thruster, by magnetostatic inverse problem resolutionVilamot, Raphaël 13 January 2012 (has links)
Les travaux effectués lors de cette thèse portent sur l'optimisation de la configuration magnétique des propulseurs à effet Hall. Ceci regroupe deux objectifs: d'une part la réalisation d'un propulseur à effet Hall dont la topologie magnétique est entièrement paramétrable, ce qui constituera un outil précieux pour l'étude de l'impact du champ magnétique sur le fonctionnement du propulseur et d'autre part, l'étude de moyen de conception rationalisée de circuits magnétiques pour ces mêmes propulseurs. Le premier sujet a conduit à la réalisation du PPS-Flex, un propulseur proposant une structure de circuit magnétique innovante offrant un grand nombre de degrés de liberté en termes de réglage du champ magnétique produit. La deuxième thématique a quant à elle été abordée en s'appuyant sur des méthodes d'optimisation (paramétrique et topologique) permettant d'aboutir à un circuit magnétique optimal pour un ou plusieurs critères de conception (fidélité du champ magnétique généré, minimisation de la masse, du volume total, etc.) / The works made during this thesis concern the optimization of the magnetic configuration of propellers with effect Hall. This groups two objectives: on one hand the realization of a propeller with effect Hall the magnetic topology of which is completely customizable, which will establish a precious tool for the study of the impact of the magnetic field on the functioning of the propeller and on the other hand, the study of way of design rationalized of magnetic circuits for these same propellers. The first subject led to the realization of the PPS-Flex, a propeller proposing an innovative magnetic structure of circuit offering a large number of degrees of freedom in terms of regulation of the magnetic field produces. The second theme approached as for her resting on methods
|
220 |
Conception optimale de circuits magnétiques dédiés à la propulsion spatiale électrique par des méthodes d'optimisation topologique / Optimal design of magnetic circuits dedicated to spatial electric propulsion by topology optimization methodsSanogo, Satafa 01 February 2016 (has links)
Dans ces travaux, nous présentons des méthodes d'optimisation théoriques et numériques pour la conception optimale de circuits magnétiques pour propulseurs à effet Hall. Ces problèmes de conception sont des problèmes inverses très difficiles à résoudre que nous formulons sous forme de problèmes d'optimisation topologique. Les problèmes resultant sont non convexes avec des contraintes aux équations différentielles de Maxwell. Au cours de ces travaux, des approches originales ont été proposées afin de résoudre efficacement ces problèmes d'optimisation topologique. L'approche de densité de matériaux SIMP (Solid Isotropic Material with Penalization) qui est une variante de la méthode d'homogénéisation a été privilégiées. De plus, les travaux de ma thèse ont permis la mise en place de codes d'optimisation dénommé ATOP (Algorithm To Optimize Propulsion) utilisant en parallèle les logiciels de calculs scientifiques Matlab et d'élément finis FEMM (Finite Element Method Magnetics). Dans ATOP, nous utilisant à la fois des algorithmes d'optimisation locale de type descente basés sur une analyse de la sensibilité du problème et des algorithmes d'optimisation globale principalement de type Branch and Bound basés sur l'Arithmétique des Intervals. ATOP permettra d'optimiser à la fois la forme topologique des circuits magnétiques mais aussi le temps et le coût de production de nouvelles génération de propulseurs électriques. / In this work, we present theoretical and numerical optimization method for designing magnetic circuits for Hall effect thrusters. These design problems are very difficult inverse ones that we formulate under the form of topology optimization problems. Then, the obtained problems are non convex subject to Maxwell equations like constraints. Some original approaches have been proposed to solve efficiently these topology optimization problems. These approaches are based on the material density model called SIMP approach (Solid Isotropic Material with Penalization) which is a variante of the homogenization method. The results in my thesis allowed to provide optimization source code named ATOP (Algorithm To Optimize Propulsion) unsung in parallel two scientific computing softwares namely Matlab and FEMM (Finite Element Method Magnetics). In ATOP, we use both local optimization algorithms based on sensitivity analysis of the design problem; and global optimization algorithms mainly of type Branch and Bound based on Interval Arithmetic analysis. ATOP will help to optimize both the topological shape of the magnetic circuits and the time and cost of production (design process) of new generations of electrical thrusters.
|
Page generated in 0.0709 seconds