• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 5
  • 1
  • Tagged with
  • 11
  • 11
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies cardiaques en électrocardiographie

Dubois, R. 27 January 2004 (has links) (PDF)
L'enregistrement Holter (enregistrement électrocardiographique de 24 heures) est un examen très fréquemment utilisé en cardiologie. Parmi les 100 000 battements enregistrés, seul un petit nombre d'entre eux peut traduire la présence d'une pathologie sous-jacente; l'analyse automatique est donc indispensable. Les outils actuels fonctionnent sur le principe d'un système expert, robuste, mais peu adaptatif et essentiellement limité à la détection et la classification des signaux de dépolarisation ventriculaire. Une analyse plus détaillée des signaux cardiaques permet une bien meilleure détection de nombreuses pathologies, en particulier grâce à l'extraction des signaux d'origine auriculaire et des ondes de repolarisation. Nous proposons dans cette thèse une méthode de décomposition mathématique originale des battements cardiaques sur une base de fonctions appelées "bosses". Contrairement aux régresseurs classiques utilisés en modélisation (ondelettes, RBF...), les bosses sont des fonctions prévues pour modéliser chaque onde caractéristique du battement cardiaque (les ondes P, Q, R, S et T). Chaque battement de l'enregistrement est ainsi décomposé en bosses; puis les labels médicaux P, Q, R, S et T leur sont attribués par des classifieurs (réseaux de neurones). Disposant alors de l'emplacement et de la forme des toutes les ondes caractéristiques pour l'ensemble de l'ECG, nous pouvons désormais repérer automatiquement des anomalies comme l'inversion de l'onde P, jusqu'alors non détectées par les algorithmes sur les enregistrements de longues durées. Cette approche a été testée sur de nombreuses bases de données et a montré toute son efficacité par rapport aux méthodes actuelles dem détection d'anomalies
2

Perfectionnement de métaheuristiques pour l'optimisation continue

Boussaid, Ilhem 29 June 2013 (has links) (PDF)
Les métaheuristiques sont des algorithmes génériques, souvent inspirés de la nature, conçues pour résoudre des problèmes d'optimisation complexes. Parmi les métaheuristiques les plus récentes, nous retenons celle basée sur la théorie de la biogéographie insulaire: Biogeography-based optimization (BBO).Dans cette thèse, nous considérons à la fois les problèmes d'optimisation globale à variables continues avec et sans contraintes. De nouvelles versions hybrides de BBO sont proposées comme des solutions très prometteuses pour résoudre les problèmes considérés. Les méthodes proposées visent à pallier les inconvénients de la convergence lente et du manque de diversité de l'algorithme BBO. Dans la première partie de cette thèse, nous présentons la méthode que nous avons développée, issue d'une hybridation de BBO avec l'évolution différentielle (DE) pour résoudre des problèmes d'optimisation sans contraintes. Nous montrons que les résultats de l'algorithme proposé sont plus précis, notamment pour des problèmes multimodaux, qui sont parmi les problèmes les plus difficiles pour de nombreux algorithmes d'optimisation. Pour résoudre des problèmes d'optimisation sous contraintes, nous proposons trois nouvelles variantes de BBO. Des expérimentations ont été menées pour rendre compte de l'utilité des méthodes proposées. Dans une deuxième partie, nous nous intéressons à l'étude des capacités des méthodes proposées à résoudre des problèmes d'optimisation, issus du monde réel. Nous nous proposons d'abord de résoudre le problème d'allocation optimale de puissance pour la détection décentralisée d'un signal déterministe dans un réseau de capteurs sans fil, compte tenu des fortes contraintes en ressources énergétiques et en bande passante des noeuds répartis. L'objectif est de minimiser la puissance totale allouée aux capteurs, tout en gardant la probabilité d'erreur de détection au dessous d'un seuil requis. Dans un deuxième temps, nous nous focalisons sur la segmentation d'images en niveaux de gris par seuillage multi-niveaux. Les seuils sont déterminés de manière à maximiser l'entropie floue. Ce problème d'optimisation est résolu en appliquant une variante de BBO (DBBO-Fuzzy) que nous avons développée. Nous montrons l'efficacité de la méthode proposée aux travers de résultats expérimentaux
3

Optimisation multi-objectives d’une infrastructure réseau dédiée aux bâtiments intelligents / Multi-objective optimization of a network infrastructure dedicated to smart buildings

Benatia, Mohamed Amin 13 December 2016 (has links)
Au cours de cette thèse, nous avons étudié le problème de déploiement des Réseaux de Capteurs Sans-Fil (RCSF) pour des applications indoor tel que le bâtiment intelligent. Le but de notre travail était de développer un outil de déploiement capable d'assister les concepteurs de RCSF lors de la phase de déploiement de ces derniers. Nous avons commencé cette thèse par la modélisation de tous les paramètres qui interviennent lors du déploiement des RCSF, à savoir : coût, connectivité, couverture et durée de vie. Par la suite, nous avons implémenté cinq algorithmes d'optimisation, dont trois multi-objectifs afin de résoudre le problème de déploiement. Deux cas d'études réelles (grande et petite instance) ont été identifiés afin de tester ces algorithmes. Les résultats obtenus ont montré que ces algorithmes sont efficaces quand il s'agit d'un petit bâtiment (petit espace). Par contre, dès que la surface du bâtiment augmente les performances des algorithmes étudiés se dégradent. Pour répondre à cela, nous avons développé et implémenté un algorithme d'optimisation multi-objectifs hybride. Cet algorithme se base sur des notions de clustering et d'analyse de données afin de limiter le nombre d'évaluations directes qu'entreprennent ces méthodes pendant chaque itération. Afin d'assurer cette limitation d'évaluation les fonctions de fitness sont approximées grâce aux réseaux de neurones et l'algorithme de classification K-means. Les résultats obtenus ont montré une très bonne performance sur les deux instances de tailles différentes. Ces résultats ont été comparés à ceux obtenus avec les méthodes classiques utilisées et sont compétitives et prometteuses. / In this thesis, we studied the Wireless Sensor Network deployment for indoor environments with a focus on smart building application. The goal of our work was to develop a WSN deployment tool which is able to assist network designers in the deployment phase. We begin this thesis with network modeling of all the deployment parameters and requirement, such as : cost, coverage, connectivity and network lifetime. Thereafter, we implement five optimisation methods, including three multi-objective optimization agorithms, to resolve WSN deployment problem. Then, two realistics study cases were identified to test the performances of the aforementioned algorithms. The obtained results shows that these algorithms are very efficient for deploying a small scale network in small buildings. However, when the building surface becomes more important the algorithms tends to converge to local optimum while consuming high processing time. To resolve this problem, we develop and implement a new Hybrid multi-objectif optimization algorithm wich limits the number of direct evaluation. This algorithm is based on data-mining methods (Artificial Neural Networks and K-means) and tries to approximate the fitness value of each individual in each generation. At every generation of the algorithm, the population is divided to K clusters and we evaluate only the closest individual to cluster centroide. The fitness value of the rest of population is approximated using a trained ANN. A comparative study was made and the obtained results show that our method outperformes others in the two sudy cases (small and big buildings).
4

Optimisation des protections anti-bruit routières de forme complexe

Baulac, Marine 12 October 2006 (has links) (PDF)
En ce début de 21e siècle, le bruit des transports est l'une des principales nuisances. Un important travail est réalisé par les acousticiens afin d'améliorer l'efficacité des écrans acoustiques.<br />Actuellement, le choix des protections anti-bruit se porte souvent sur des solutions triviales ou issues d'études paramétriques. Or le CSTB possède des codes de calculs numériques avancés dédiés à la simulation de la propagation acoustique en milieu extérieur. Le but de cette thèse est de coupler ces codes prévisionnels avec un outil mathématique à développer permettant une recherche systématique des solutions optimales.<br />Une étude bibliographique a permis de dégager des algorithmes applicables au cas de l'optimisation de paramètres caractérisant un écran acoustique. Ils ont été appliqués avec succès aux écrans multi-diffracteurs. Des méthodes d'optimisation multiobjectif ont en outre permis d'optimiser simultanément le prix de revient de la protection et son efficacité acoustique. Dans une optique de développement durable, un travail a été réalisé sur l'efficacité de protections acoustiques de faible hauteur en milieu urbain dans le but de créer des espaces calmes. Des mesures sur modèles réduits ont été confrontées aux simulations acoustiques et l'optimisation de la forme de ces protections a permis de dégager des solutions optimales. Enfin, les méthodes d'optimisation ont été appliquées au cas de l'optimisation de trajectoires.<br />Les principaux objectifs de la thèse ont été atteints, notamment par la création d'un outil utilisant des algorithmes d'optimisation (Nelder Mead et Algorithmes Génétiques) ainsi que les codes de calculs de simulation acoustique en milieu extérieur.
5

Diffraction inverse par des inclusions minces et des fissures

Park, Won-Kwang 24 February 2009 (has links) (PDF)
Le contrôle non destructif de défauts du type fissures pénétrables ou impénétrables constitue un problème inverse très intéressant parmi ceux de la physique, de l'ingénierie des matériaux et structures, des sciences médicales, etc., et en soi est donc un sujet d'importance sociétale certaine. Le but de cette thèse est de développer des méthodes de reconstruction efficaces afin de les appliquer à une variété de problèmes de fissures. Premièrement, nous proposons un algorithme non-itératif afin de déterminer les extrémités de fissures conductrices, algorithme basé sur une formulation asymptotique appropriée et une méthode d'identification de pôles simples et de résidus d'une fonction méromorphe. Puis un algorithme non-itératif de type MUSIC(MUltiple SIgnal Classification) est considéré afin d'imager une fissure pénétrable ou impénétrable à partir du champ qu'elle diffracte, ce champ pouvant être représenté grâce à une formulation asymptotique rigoureuse. Une technique d'ensembles de niveaux est alors proposé afin de reconstruire une fissure pénétrable, deux fonctions d'ensemble de niveaux étant utilisées pour la décrire puisqu'une méthode traditionnelle d'ensembles de niveaux ne le permet pas de par sa petite épaisseur. Finalement, cette thèse traite de la reconstruction des fissures courtes et étendues avec des conditions limites de Dirichlet. Nous développons alors un algorithme de type MUSIC pour reconstruire les petites fissures et un algorithme d'optimisation pour les fissures longues basé sur la formulation asymptotique. Des simulations numériques nombreuses illustrent les performances des méthodes de reconstruction proposées.
6

Optimisation de l’aménagement d’un Chantier de Construction en Fonction des Risques Naturels et Technologiques, Utilisation du SIG / Construction Site Layout Optimization, Considering Risk of Natural or Technological Hazard Utilizing GIS

Abune'meh, Mohammed 24 May 2017 (has links)
Les chantiers de construction contiennent plusieurs installations. Celles-ci sont susceptibles d’être endommagées par des incidents liés aux risques naturels ou technologiques comme les incendies, les explosions, les ondes de souffles, etc. Ces incidents peuvent avoir des conséquences néfastes sur l’ensemble du processus de construction, ce qui pourrait entrainer des accidents graves ayant un impact majeur sur la productivité des employés, le temps global du projet, sa qualité et son budget. Par conséquent les gestionnaires et les planificateurs du projet doivent adopter et développer des approches novatrices capables de faire face aux risques naturels potentiels, de minimiser leurs conséquences et de faciliter l’évacuation du site en cas de danger. Une de ces approches consiste à optimiser l’aménagement des chantiers de construction. En général, la réduction des dommages résultants de risques naturels ou technologiques est encore un défi scientifique.Dans cette thèse, deux modèles (déterministe et probabiliste) sont développés pour minimiser les risques au sein d’un chantier. La méthode adoptée pour le développement de ces deux modèles consiste en :• La modélisation des éléments du chantier, par exemple : le générateur électrique, les bureaux et les entrepôts de matériaux, sont modélisés en 2D, pour agir en tant que source d’aléa et/ou cible vulnérable potentielle.• La modélisation de l’aléa : elle montre l’interaction des aléas entre les composants du chantier.• La modélisation de la vulnérabilité : elle représente la faiblesse potentielle des cibles sur l’aléa généré par chaque source.• La définition de la fonction d’utilité : elle vise à offrir une disposition optimisée avec un minimum de risque total sur le chantier. L’algorithme à évolution différentielle est adopté pour exécuter le processus d’optimisation.D’une part, dans le modèle déterministe, nous utilisons le principe de la syntaxe spatiale pour étudier l’impact des configurations spatiales dans l’évaluation du risque sur le chantier. Par conséquent, comme le processus d’évacuation est pris en compte dans l’estimation du risque, le risque réel est amplifié en utilisant le facteur de pénalité appelé « profondeur moyenne ». L’algorithme de Dijkstra est appliqué sur un modèle déterministe afin de trouver les chemins les plus sûrs (chemins de moindre risque) pour évacuer les sites à partir de chaque position sur le chantier vers les lieux sûrs afin de diminuer les pertes humaines et matérielles.D’autre part, le modèle probabiliste suppose que le risque est composé de la défaillance individuelle de chaque installation sur le chantier de construction. La simulation numérique est utilisée pour trouver la distribution de probabilités des défaillances pour l’ensemble du site.Les fonctionnalités d’un SIG (Système d’Information Géographique) ont été utilisées pour présenter les données sous forme de cartes, pour produire des cartes spatiales de risque sur le chantier de construction, pour mettre en œuvre l’algorithme de Dijkastra et pour l’analyse du coût le plus faible.A titre indicatif, les modèles proposés sont utilisés dans un cas d’étude comprenant plusieurs installations. Dans le modèle déterministe, toutes ces installations agissent comme des sources d’aléa et des cibles vulnérables, en même temps, dans le modèle probabiliste, quelques-unes de ces installations agissent comme des sources d’aléa et toutes comme des cibles vulnérables. Les résultats obtenus montrent que les modèles proposés sont efficaces en raison de leur capacité à générer une disposition optimale du site avec un environnement de travail plus sûr. En outre, les modèles obtenus sont capables de mettre en évidence les zones les plus risquées d’un chantier, de générer les chemins d’évacuation les moins risqués, ce qui permettra de minimiser les blessures graves et les victimes en cas d’urgence / Construction sites contain several supporting facilities that are required to complete construction activities. These facilities are susceptible to damage due to the occurrence of natural or technological hazards such as fire, explosion, blast wave, and so on. These may cause adverse consequences for the whole construction process, which in turn lead to fatal accidents that have a major impact on worker and employee productivity, project completion time, project quality and project budget. Therefore, project planners must adopt and develop innovative approaches able to face the occurrence of potential hazards, minimize their consequences, and facilitate the evacuation of the site in case of their occurrence. One of these approaches is optimizing construction site layout. In general, generating construction site layout able minimizing risk resulting from natural or technological hazards is still a scientific challenge.In the present research, two proposed model (deterministic and probabilistic) are developed to minimize the risks within a construction site. The common methodology adopted to develop these two models consists of:• Modeling construction site components, for instance; electric generator, offices and material storages, in a 2D layout, to act as either hazardous source or potential target or both at the same time.• Modeling hazard: it shows the hazard interaction among site components and the attenuation of hazard.• Modeling vulnerability: it represents the potential weakness of whole targets to the hazard generated from each source.• Defining the utility function: it aims to afford an optimized site layout with minimum total risk in the construction site. The differential evolution algorithm is adopted to run optimization process.Particularly, in the deterministic model, we use space syntax principle in order to realize the impact of space configurations in evaluating the risk in the construction site. Therefore, as the evacuation process is considered in estimating the risk, the actual risk is amplified by utilizing penalty factor called mean depth. Furthermore, Dijkstra’s algorithm is run on deterministic model to find the safest paths (least risk paths) for evacuating sites from any position on the construction site towards the safe places in order to diminish losses and fatalities. On the other hand, the framework utilized to develop a probabilistic model assumed that the risk is combined of the individual failure of each facility within a construction site. Moreover, the numerical simulation is performed to find the probabilistic distribution of failure for the whole site.Geographic information system (GIS) capabilities were exploited, in this research, to present data in maps format, generate the spatial risk map in the construction site, and implement the Dijkstra’s algorithm and least-cost path analysis.For illustration purposes, the proposed models are employed in a case study consisting of several facilities. In the deterministic model, all of these facilities act as hazardous sources and potential targets, at the same time, while, in a probabilistic model, only three of these facilities act as fire hazardous sources, whereas, all of them are potential targets. The results revealed that the proposed models are efficient due to their capability of generating site layout with the safer work environment. In addition, the model is capable of highlighting the riskiest areas within a construction site. Moreover, the proposed models are able to generate paths through least-risk zones, which will minimize the serious injuries and victims in cases of emergencies
7

L'évaluation des politiques de l'emploi : Quatre essais

Guitard, Julien 15 June 2009 (has links) (PDF)
Cette thèse propose dans un premier temps une évaluation structurelle des effets microéconomiques de deux politiques phares du Plan d'Aide au retour à l'Emploi (PARE) implémenté en France en 2001 : l'accompagnement et la formation des demandeurs d'emploi. La création d'entreprise étant souvent citée comme une alternative à ces politiques, on établit dans un second temps un modèle du cycle de vie des travailleurs indépendants. Toutefois, ne disposant du coût social des mesures étudiées, une analyse coût-bénéfice complète n'a pu être réalisée dans le cadre de ce travail. D'un point de vue méthodologique l'approche structurelle est abordée ici comme une extension des évaluations en forme réduite et non comme leur antithèse. Compte tenu des difficultés algorithmiques posées par cette méthode, on accorde une attention particulière aux techniques d'optimisation utilisées et on s'attache - suivant les recommandations de Judd - à simplifier au maximum la mise en oeuvre des estimations grâce à l'usage du logiciel AMPL.
8

Ultrafast lasers in the femtosecond regime : generation, amplification and measurement

Oliveira, Pedro 09 December 2013 (has links) (PDF)
Il est intuitif qu'avec de nouveaux outils, il devient possible d'explorer de nouveaux domaines de la physique. Les champs électromagnétiques ultra-rapides sont l'un de ces outils, ils permettent de sonder la matière à de nouvelles échelles de temps, à la fois pour développer de nouvelles applications et pour la recherche fondamentale. Néanmoins, ces champs constituent en eux-mêmes un phénomène méritant d'être analysé et étudié. Le travail présenté ici est divisé en deux parties, dont la première s'occupe de la génération et amplification de lasers ultracourtes. L'amplification paramétrique optique est discutée dans les différentes configurations, notamment dans le cas où le signal a une dérivé angulaire spectrale. On discute aussi deux oscillateurs à blocage de mode en phase. Ont présente aussi une nouvelle manière d'étudier son comportement en fonction des dimensions de la sous-cavité. La mesure de ces phénomènes représente également un défi en raison de l'échelle temporelle extrêmement réduite à laquelle ces phénomènes se produisent, échelle bien trop petite pour des méthodes de mesure traditionnelles. Dans ce manuscrit, nous avons abordé deux techniques de mesure bien connues: l'autocorrélation interférométrique (IAC) du second ordre et la corrélation croisée du 3ème ordre (TOCC). Avec l'IAC et une mesure de la puissance spectrale du champ, il est possible de reconstruire intégralement le champ électrique tandis que le TOCC associé à l'autocorrélation en intensité détermine le profil en intensité de manière unique, et ont présente des algorithmes que font la reconstruction avec un haut contraste. Nous avons par ailleurs étudié la réalisation d'une nouvelle configuration de corrélateur croisé monocoup.
9

Transmission de multimédia dans les réseaux sans fil à qualité de service garantie / Multimedia transmission in wireless network with QoS guarantee

Kambou, Samy Jacques André 08 November 2016 (has links)
Cette thèse s'intéresse aux stratégies de transmission de contenu multimédia des réseaux sans fil. L'intérêt d'une stratégie repose sur sa capacité à gérer les ressources selon les objectifs des applications visées. On propose ainsi un schéma de transmission, qui garantit la qualité de service (QdS), quelles que soient les conditions du canal et suivant les spécificités du contenu multimédia. On exploite pour cela les diversités (spatiales, fréquentielles, etc.) du canal radio. A ce titre, l'association MIMO-OFDM apparaît comme une solution idéale pour accroitre les performances du système. On propose ainsi un système MIMO-OFDMA, qui intègre des stratégies inter-couches. Celles-ci se basent sur des techniques d'adaptation de lien pour régler dynamiquement les paramètres du système. On développe en premier un schéma inter-couches PHY 1 APPL, associé à un système MIMO-OFDM mono-utilisateur, qui transmet une vidéo H.264/SVC. L'adaptation de lien permet de définir le jeu de paramètres optimaux, qui minimise la distorsion de la vidéo reçue. On introduit ainsi une politique d'optimisation sous contraintes de puissance et de taux d'erreurs binaires. Pour tenir compte d'aspects de transmission réalistes, on propose un schéma inter-couches PHY/MAC, dédié à un système MIMO-OFDMA, multi-utilisateurs et multi-services. Ce dernier associe un algorithme d'ordonnancement, au paramétrage optimal, pour fournir au maximum d'utilisateurs des débits utiles respectant les exigences des services demandés. Enfin, on combine les deux premières solutions pour définir les paramètres optimaux minimisant la distorsion de la vidéo reçue par utilisateur, tout en garantissant la QdS des autres services. / This thesis focuses on the transmission strategies of the multimedia content in wireless networks. The advantage of a such strategy is its ability to manage the resources, according to the objectives of the targeted applications. We propose a transmission scheme, which guarantees the quality of service (QoS), depending on the channel state information and on the multimedia content specifications. We take advantage of the radio channel diversities (spatial, frequency, etc.). ln fact, the association of MIMO and OFDM techniques appears as effective solution to increase the system performance. For this reason, we propose a MIMO-OFDMA system, which considers cross-layer srtategies based on link adaptation schemes to dynamically adjust the system parameters. Firstly, we develop a PHY/APPL cross-layer strategy, dedicated to a single user of a MIMO-OFDMA system, which transmits an H.264/SVC video. The Iink adaptation scheme allows to define the optimum parameters, which minimize the end-ta-end video distortion by using an optimization algorithm under power and bit error rate constraints. To consider the realistic transmission aspects, we propose a PHY/MAC cross-layer strategy, dedicated to a multi-user, multi-service, MIMOOFDMA system. This scheme combines a scheduling policy with optimal parameterization to provide a satisfied troughput to a maximum number of users, acheiving the required services. Finally, the first two solutions are combined to determine the optimal parameters which minimize the end-ta-end distortion of the received video by user, and also acheive QoS requirements of the other services.
10

Second-order derivatives for shape optimization with a level-set method / Dérivées secondes pour l'optimisation de formes par la méthode des lignes de niveaux

Vie, Jean-Léopold 16 December 2016 (has links)
Le but de cette thèse est de définir une méthode d'optimisation de formes qui conjugue l'utilisation de la dérivée seconde de forme et la méthode des lignes de niveaux pour la représentation d'une forme.On considèrera d'abord deux cas plus simples : un cas d'optimisation paramétrique et un cas d'optimisation discrète.Ce travail est divisé en quatre parties.La première contient le matériel nécessaire à la compréhension de l'ensemble de la thèse.Le premier chapitre rappelle des résultats généraux d'optimisation, et notamment le fait que les méthodes d'ordre deux ont une convergence quadratique sous certaines hypothèses.Le deuxième chapitre répertorie différentes modélisations pour l'optimisation de formes, et le troisième se concentre sur l'optimisation paramétrique puis l'optimisation géométrique.Les quatrième et cinquième chapitres introduisent respectivement la méthode des lignes de niveaux (level-set) et la méthode des éléments-finis.La deuxième partie commence par les chapitres 6 et 7 qui détaillent des calculs de dérivée seconde dans le cas de l'optimisation paramétrique puis géométrique.Ces chapitres précisent aussi la structure et certaines propriétés de la dérivée seconde de forme.Le huitième chapitre traite du cas de l'optimisation discrète.Dans le neuvième chapitre on introduit différentes méthodes pour un calcul approché de la dérivée seconde, puis on définit un algorithme de second ordre dans un cadre général.Cela donne la possibilité de faire quelques premières simulations numériques dans le cas de l'optimisation paramétrique (Chapitre 6) et dans le cas de l'optimisation discrète (Chapitre 7).La troisième partie est consacrée à l'optimisation géométrique.Le dixième chapitre définit une nouvelle notion de dérivée de forme qui prend en compte le fait que l'évolution des formes par la méthode des lignes de niveaux, grâce à la résolution d'une équation eikonale, se fait toujours selon la normale.Cela permet de définir aussi une méthode d'ordre deux pour l'optimisation.Le onzième chapitre détaille l'approximation d'intégrales de surface et le douzième chapitre est consacré à des exemples numériques.La dernière partie concerne l'analyse numérique d'algorithmes d'optimisation de formes par la méthode des lignes de niveaux.Le Chapitre 13 détaille la version discrète d'un algorithme d'optimisation de formes.Le Chapitre 14 analyse les schémas numériques relatifs à la méthodes des lignes de niveaux.Enfin le dernier chapitre fait l'analyse numérique complète d'un exemple d'optimisation de formes en dimension un, avec une étude des vitesses de convergence / The main purpose of this thesis is the definition of a shape optimization method which combines second-order differentiationwith the representation of a shape by a level-set function. A second-order method is first designed for simple shape optimization problems : a thickness parametrization and a discrete optimization problem. This work is divided in four parts.The first one is bibliographical and contains different necessary backgrounds for the rest of the work. Chapter 1 presents the classical results for general optimization and notably the quadratic rate of convergence of second-order methods in well-suited cases. Chapter 2 is a review of the different modelings for shape optimization while Chapter 3 details two particular modelings : the thickness parametrization and the geometric modeling. The level-set method is presented in Chapter 4 and Chapter 5 recalls the basics of the finite element method.The second part opens with Chapter 6 and Chapter 7 which detail the calculation of second-order derivatives for the thickness parametrization and the geometric shape modeling. These chapters also focus on the particular structures of the second-order derivative. Then Chapter 8 is concerned with the computation of discrete derivatives for shape optimization. Finally Chapter 9 deals with different methods for approximating a second-order derivative and the definition of a second-order algorithm in a general modeling. It is also the occasion to make a few numerical experiments for the thickness (defined in Chapter 6) and the discrete (defined in Chapter 8) modelings.Then, the third part is devoted to the geometric modeling for shape optimization. It starts with the definition of a new framework for shape differentiation in Chapter 10 and a resulting second-order method. This new framework for shape derivatives deals with normal evolutions of a shape given by an eikonal equation like in the level-set method. Chapter 11 is dedicated to the numerical computation of shape derivatives and Chapter 12 contains different numerical experiments.Finally the last part of this work is about the numerical analysis of shape optimization algorithms based on the level-set method. Chapter 13 is concerned with a complete discretization of a shape optimization algorithm. Chapter 14 then analyses the numerical schemes for the level-set method, and the numerical error they may introduce. Finally Chapter 15 details completely a one-dimensional shape optimization example, with an error analysis on the rates of convergence

Page generated in 0.0971 seconds