• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 34
  • 4
  • Tagged with
  • 91
  • 39
  • 26
  • 22
  • 21
  • 18
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Optimization algorithms for SVM classification : Applications to geometrical chromosome analysis / Algorithmes d'optimisation pour la classification via SVM : application à l'analyse géométrique des chromosomes

Wang, Wenjuan 16 September 2016 (has links)
Le génome est très organisé au sein du noyau cellulaire. Cette organisation et plus spécifiquement la localisation et la dynamique des gènes et chromosomes contribuent à l'expression génétique et la différenciation des cellules que ce soit dans le cas de pathologies ou non. L'exploration de cette organisation pourrait dans le futur aider à diagnostiquer et identifier de nouvelles cibles thérapeutiques. La conformation des chromosomes peut être analysée grâce au marquage ADN sur plusieurs sites et aux mesures de distances entre ces différents marquages fluorescents. Dans ce contexte, l'organisation spatiale du chromosome III de levure a montré que les deux types de cellules, MATa et MATalpha, sont différents. Par contre, les données issues de l'imagerie electronique sont bruitées à cause de la résolution des systèmes de microscope et du fait du caractère vivant des cellules observées. Dans cette thèse, nous nous intéressons au développement de méthodes de classification pour différencier les types de cellules sur la base de mesures de distances entre 3 loci du chromosome III et d'une estimation du bruit. Dans un premier temps, nous nous intéressons de façon générale aux problèmes de classification binaire à l'aide de SVM de grandes tailles et passons en revue les algorithmes d'optimisation stochastiques du premier ordre. Afin de prendre en compte les incertudes, nous proposons un modèle d'apprentissage qui ajuste sa robustesse en fonction du bruit. La méthode évite les situations où le modèle est trop conservatif et que l'on rencontre parfois avec les formulations SVM robustes. L'amplitude des pertubations liées au bruit qui sont incorporées dans le modèle est controllée par l'optimisation d'une erreur de généralisation. Aucune hypothèse n'est faite sur la distribution de probabilité du bruit. Seule une borne estimée des pertubations est nécessaire. Le problème peut s'écrire sous la forme d'un programme biniveaux de grande taille. Afin de le résoudre, nous proposons un algorithme biniveau qui réalise des déplacements stochastiques très peu coûteux et donc adapté aux problèmes de grandes tailles. La convergence de l'algorithme est prouvée pour une classe générale de problèmes. Nous présentons des résultats numériques très encourageants qui confirment que la technique est meilleure que l'approche SOCP (Second Order Cone Programming) pour plusieurs bases de données publiques. Les expériences numériques montrent également que la nonlinéarité additionnelle générée par l'incertitude sur les données pénalise la classification des chromosomes et motivent des recherches futures sur une version nonlinéaire de la technique proposée. Enfin, nous présentons également des résultats numériques de l'algorithme biniveau stochastique pour la sélection automatique de l'hyperparamètre de pénalité dans les SVM. L'approche évite les coûteux calculs que l'on doit inévitablement réaliser lorsque l'on effectue une validation croisée sur des problèmes de grandes tailles. / The genome is highly organized within the cell nucleus. This organization, in particular the localization and dynamics of genes and chromosomes, is known to contribute to gene expression and cell differentiation in normal and pathological contexts. The exploration of this organization may help to diagnose disease and to identify new therapeutic targets. Conformation of chromosomes can be analyzed by distance measurements of distinct fluorescently labeled DNA sites. In this context, the spatial organization of yeast chromosome III was shown to differ between two cell types, MATa and MATa. However, imaging data are subject to noise, due to microscope resolution and the living state of yeast cells. In this thesis, the aim is to develop new classification methods to discriminate two mating types of yeast cells based on distance measurements between three loci on chromosome III aided by estimation the bound of the perturbations. We first address the issue of solving large scale SVM binary classification problems and review state of the art first order optimization stochastic algorithms. To deal with uncertainty, we propose a learning model that adjusts its robustness to noise. The method avoids over conservative situations that can be encountered with worst case robust support vector machine formulations. The magnitude of the noise perturbations that is incorporated in the model is controlled by optimizing a generalization error. No assumption on the distribution of noise is taken. Only rough estimates of perturbations bounds are required. The resulting problem is a large scale bi-level program. To solve it, we propose a bi-level algorithm that performs very cheap stochastic gradient moves and is therefore well suited to large datasets. The convergence is proven for a class of general problems. We present encouraging experimental results confirming that the technique outperforms robust second order cone programming formulations on public datasets. The experiments also show that the extra nonlinearity generated by the uncertainty in the data penalizes the classification of chromosome data and advocates for further research on nonlinear robust models. Additionally, we provide the experimenting results of the bilevel stochastic algorithm used to perform automatic selection of the penalty parameter in linear and non-linear support vector machines. This approach avoids expensive computations that usually arise in k-fold cross validation.
52

Amélioration de la précision de modèles des fours radiatifs et optimisation des paramètres de chauffage par méthodes métaheuristiques : Application au procédé de thermoformage de pare-brise / Precision improvement of radiant furnaces model and heating control optimization using metaheuristic methods : Application to the thermoforming process of windshield

Tajouri, Afif 13 December 2012 (has links)
La fabrication du pare-brise automobile est réalisée par un procédé de thermoformage dans un four tunnel où des feuilles de verre subissent un chauffage différentiel par rayonnement par des centaines d'éléments chauffants électriques contrôlés individuellement. Ces travaux ont pour objectif final de répondre à une problématique industrielle formulée en tant que problème d'optimisation. Elle consiste à aider le conducteur du four à retrouver la cartographie de puissance qui permet d'obtenir le champ de température nécessaire à la surface du verre afin d'aboutir à une forme souhaitée. Pour y parvenir, un modèle du four basé sur la méthode de réseau de composants est utilisé afin de simuler le cycle de chauffage. Dans un premier temps, la précision de la température calculée est améliorée par identification paramétrique en se référant à des données de mesures effectuées in situ. Une étude de sensibilité locale et globale a été réalisée au préalable. Par la suite, dans le but d'accélérer ces calculs, une méthode d'optimisation originale est proposée. Elle consiste à combiner la méthode métaheuristique du Recuit Simulé et l'Algorithme de Re-revêtement pour identifier l'émissivité multi-bande des matériaux. Après avoir effectué une validation sur un modèle simplifié 3D de four radiatif de traitement de matériaux, la méthode originale est appliquée pour le modèle du four réel. Outre l'amélioration de la précision des résultats de la simulation, la nouvelle démarche réduit considérablement le temps de calcul. Dans la deuxième partie du travail, plusieurs méthodes métaheuristiques, telles que l'Algorithme Génétique, le Recuit Simulé, la Recherche Tabou ainsi que leur hybridation sont expérimentées pour un modèle simplifié d'une enceinte radiative. Les résultats montrent que la combinaison de l'Algorithme Génétique et du Recuit Simulé a permis d'accélérer la convergence pour atteindre les champs de températures souhaités sur la surface du produit. Cette méthode est par la suite appliquée avec succès pour inverser le modèle du four afin de retrouver les paramètres de commande du four. / The manufacturing of automobile windshield is produced by a thermoforming process in a tunnel furnace where glass undergoes differential heating radiation by hundreds of electrical heating elements individually controlled. The final purpose of this work is to answer a real industrial problem, which is formulated as an optimization problem. It aims at assisting the furnace driver to find the setting that allows obtaining the required temperature distribution on the glass design in order to achieve the desired shape. Based on the method of network components, a model of the furnace is used to simulate the heating cycle. As a first step of this work, the accuracy of the temperature calculated is improved by parametric identification by referring to the data of measurements taken in situ. A local and global sensitivity analysis was performed beforehand. Thereafter, in order to accelerate these calculations, an original and optimization method is proposed. It consists in combining the Simulated Annealing metaheuristic method and the Replating Algorithm to identify multi-band emissivity. First, the original method validation is performed on a simplified 3D model of radiative enclosure, and then applied to the real furnace model. The new approach significantly reduces the computation time while improving the accuracy of the simulation results. In the second part of this work, several metaheuristic methods, such as Genetic Algorithm, Simulated Annealing, Tabu Search, and their hybridization are tested on a simplified model of a radiative enclosure. Results show that the combination of Genetic Algorithm and Simulated Annealing has accelerated the convergence to achieve the desired temperature fields on the product surface. This new method is successfully applied to the real furnace model to find the optimal control parameters.
53

Optimisation de l’aménagement d’un Chantier de Construction en Fonction des Risques Naturels et Technologiques, Utilisation du SIG / Construction Site Layout Optimization, Considering Risk of Natural or Technological Hazard Utilizing GIS

Abune'meh, Mohammed 24 May 2017 (has links)
Les chantiers de construction contiennent plusieurs installations. Celles-ci sont susceptibles d’être endommagées par des incidents liés aux risques naturels ou technologiques comme les incendies, les explosions, les ondes de souffles, etc. Ces incidents peuvent avoir des conséquences néfastes sur l’ensemble du processus de construction, ce qui pourrait entrainer des accidents graves ayant un impact majeur sur la productivité des employés, le temps global du projet, sa qualité et son budget. Par conséquent les gestionnaires et les planificateurs du projet doivent adopter et développer des approches novatrices capables de faire face aux risques naturels potentiels, de minimiser leurs conséquences et de faciliter l’évacuation du site en cas de danger. Une de ces approches consiste à optimiser l’aménagement des chantiers de construction. En général, la réduction des dommages résultants de risques naturels ou technologiques est encore un défi scientifique.Dans cette thèse, deux modèles (déterministe et probabiliste) sont développés pour minimiser les risques au sein d’un chantier. La méthode adoptée pour le développement de ces deux modèles consiste en :• La modélisation des éléments du chantier, par exemple : le générateur électrique, les bureaux et les entrepôts de matériaux, sont modélisés en 2D, pour agir en tant que source d’aléa et/ou cible vulnérable potentielle.• La modélisation de l’aléa : elle montre l’interaction des aléas entre les composants du chantier.• La modélisation de la vulnérabilité : elle représente la faiblesse potentielle des cibles sur l’aléa généré par chaque source.• La définition de la fonction d’utilité : elle vise à offrir une disposition optimisée avec un minimum de risque total sur le chantier. L’algorithme à évolution différentielle est adopté pour exécuter le processus d’optimisation.D’une part, dans le modèle déterministe, nous utilisons le principe de la syntaxe spatiale pour étudier l’impact des configurations spatiales dans l’évaluation du risque sur le chantier. Par conséquent, comme le processus d’évacuation est pris en compte dans l’estimation du risque, le risque réel est amplifié en utilisant le facteur de pénalité appelé « profondeur moyenne ». L’algorithme de Dijkstra est appliqué sur un modèle déterministe afin de trouver les chemins les plus sûrs (chemins de moindre risque) pour évacuer les sites à partir de chaque position sur le chantier vers les lieux sûrs afin de diminuer les pertes humaines et matérielles.D’autre part, le modèle probabiliste suppose que le risque est composé de la défaillance individuelle de chaque installation sur le chantier de construction. La simulation numérique est utilisée pour trouver la distribution de probabilités des défaillances pour l’ensemble du site.Les fonctionnalités d’un SIG (Système d’Information Géographique) ont été utilisées pour présenter les données sous forme de cartes, pour produire des cartes spatiales de risque sur le chantier de construction, pour mettre en œuvre l’algorithme de Dijkastra et pour l’analyse du coût le plus faible.A titre indicatif, les modèles proposés sont utilisés dans un cas d’étude comprenant plusieurs installations. Dans le modèle déterministe, toutes ces installations agissent comme des sources d’aléa et des cibles vulnérables, en même temps, dans le modèle probabiliste, quelques-unes de ces installations agissent comme des sources d’aléa et toutes comme des cibles vulnérables. Les résultats obtenus montrent que les modèles proposés sont efficaces en raison de leur capacité à générer une disposition optimale du site avec un environnement de travail plus sûr. En outre, les modèles obtenus sont capables de mettre en évidence les zones les plus risquées d’un chantier, de générer les chemins d’évacuation les moins risqués, ce qui permettra de minimiser les blessures graves et les victimes en cas d’urgence / Construction sites contain several supporting facilities that are required to complete construction activities. These facilities are susceptible to damage due to the occurrence of natural or technological hazards such as fire, explosion, blast wave, and so on. These may cause adverse consequences for the whole construction process, which in turn lead to fatal accidents that have a major impact on worker and employee productivity, project completion time, project quality and project budget. Therefore, project planners must adopt and develop innovative approaches able to face the occurrence of potential hazards, minimize their consequences, and facilitate the evacuation of the site in case of their occurrence. One of these approaches is optimizing construction site layout. In general, generating construction site layout able minimizing risk resulting from natural or technological hazards is still a scientific challenge.In the present research, two proposed model (deterministic and probabilistic) are developed to minimize the risks within a construction site. The common methodology adopted to develop these two models consists of:• Modeling construction site components, for instance; electric generator, offices and material storages, in a 2D layout, to act as either hazardous source or potential target or both at the same time.• Modeling hazard: it shows the hazard interaction among site components and the attenuation of hazard.• Modeling vulnerability: it represents the potential weakness of whole targets to the hazard generated from each source.• Defining the utility function: it aims to afford an optimized site layout with minimum total risk in the construction site. The differential evolution algorithm is adopted to run optimization process.Particularly, in the deterministic model, we use space syntax principle in order to realize the impact of space configurations in evaluating the risk in the construction site. Therefore, as the evacuation process is considered in estimating the risk, the actual risk is amplified by utilizing penalty factor called mean depth. Furthermore, Dijkstra’s algorithm is run on deterministic model to find the safest paths (least risk paths) for evacuating sites from any position on the construction site towards the safe places in order to diminish losses and fatalities. On the other hand, the framework utilized to develop a probabilistic model assumed that the risk is combined of the individual failure of each facility within a construction site. Moreover, the numerical simulation is performed to find the probabilistic distribution of failure for the whole site.Geographic information system (GIS) capabilities were exploited, in this research, to present data in maps format, generate the spatial risk map in the construction site, and implement the Dijkstra’s algorithm and least-cost path analysis.For illustration purposes, the proposed models are employed in a case study consisting of several facilities. In the deterministic model, all of these facilities act as hazardous sources and potential targets, at the same time, while, in a probabilistic model, only three of these facilities act as fire hazardous sources, whereas, all of them are potential targets. The results revealed that the proposed models are efficient due to their capability of generating site layout with the safer work environment. In addition, the model is capable of highlighting the riskiest areas within a construction site. Moreover, the proposed models are able to generate paths through least-risk zones, which will minimize the serious injuries and victims in cases of emergencies
54

Modelisation - Optimisation et Supervision de la Gestion d'Energie pour une Installation Multisources / Modelling - Optimisation and Supervision of the Energy Management for a Multi Sources Installation

Haraoubia, Mohamed Amine 14 December 2015 (has links)
L'objectif principal de cette thèse est le dimensionnement et l'optimisation de la production d'une petite installation d'énergie renouvelable dans une zone isolée. Afin de déterminer la taille de l'installation, une étude de la capacité de production du site et du type d'énergie à utiliser doit être effectuée. Un programme est réglé afin de minimiser le coût d'une installation de production d’énergie hybride photovoltaïque et éolienne dans des sites différents. L’étape suivante est l'optimisation de la production d'énergie de chacun de ces systèmes individuellement, en utilisant un contrôleur de logique floue pour la poursuite du point de puissance maximale. Cette technique est basée sur l'approche directe, imitant le « Perturb & Observe » algorithme et surmontant ses limites, comme l'oscillation autour du PPM. Le système flou nécessite un réglage fin pour maximiser son efficacité, il est donc combiné avec différents algorithmes d'optimisation pour définir les fonctions d'appartenance et de modifier les règles. Cinq approches ont été testées : la logique floue type 1 a été combinée d'abord avec un algorithme génétique, deuxièmement avec l’optimisation par essaim de particules, la troisième approche a appliqué la logique flou type 2 et ensuite l’a combiné avec les mêmes algorithmes d'optimisation précédemment utilisés, pour les deux dernières approches. La dernière partie de ce travail présente un superviseur basé sur la logique floue qui est adapté pour une installation hybride photovoltaïque éolienne isolée, pour obtenir un fonctionnement optimal du système en fonction des changements des conditions atmosphériques et de la demande d'énergie, en tenant compte de l'état de charge des batteries et la dissipation de la surcharge d’énergie. Les simulations sont effectuées pour tous les systèmes afin de montrer leur efficacité. / The main objective of this thesis is to size and optimise the production of a small renewable energy installation in a remote isolated area. In order to determine the size of the installation a study of the site capacities and the type of energy to be used must be carried out. A program is set in order to minimize the cost of a hybrid wind and solar energy installation in different sites. The next step is the optimisation of the energy production of each of these systems individually using a fuzzy logic controller to track the maximum power point. This technique is based on the direct approach, mimicking the Perturb & Observe algorithm and overcoming its limitations, such as oscillation around the MPP.The FLC requires fine tuning to maximise its efficiency, therefore it is combined with different optimisation algorithms to set the membership function and modify the rules. Five approaches were tested: type one fuzzy logic was combined first with genetic algorithm, second with particle swarm optimisation, the third approach applied type two fuzzy logic and then combined it with the same optimisation algorithms as previously used, for the final two approaches. The last part of this work introduces a fuzzy logic based supervisor that is adapted for an isolated remote hybrid PV Wind installation, to obtain an optimal functioning of the system according to the changes in atmospheric conditions and energy demand, taking into account the state of charge of the batteries and energy overflow dissipation. Simulations are run for all of the systems to show their efficiency and effectiveness.
55

Optimisation de systèmes de production intermittents non conventionnels couplés au réseau électrique / Optimization of non-conventional and intermittent generation systems coupled to the electrical grid

Nguyen Ngoc, Phuc Diem 20 April 2011 (has links)
L'énergie éolienne jouant un rôle de plus en plus important dans le réseau électrique, elle ne peut plus être considérée comme une source d'énergie marginale. Par conséquent, l'impact sur le réseau de l'intermittence, inhérente à ce type d'énergie devient non négligeable. L'utilisation du stockage est une des principales solutions à ce problème d'intégration. Ce travail porte sur l'optimisation du système éolien/stockage en considérant la dynamique de l'éolien, la capacité de stockage et l'interaction avec le réseau. L'objectif consiste à répondre aux exigences du réseau en limitant les fluctuations, à fournir des services-systèmes tout en mettant en avant la rentabilité économique du système. La méthode de gestion proposée s'appuie sur deux niveaux de pilotage : l'anticipation et la gestion réactive. La première phase consiste à utiliser des informations de prévisions (météorologiques, contraintes du réseau, conditions du marché électrique...) afin de définir par avance le programme de fonctionnement optimal du système de stockage. La deuxième phase étudie le fonctionnement en temps réel, où le système doit faire face aux perturbations et respecter les règles du mécanisme d'ajustement. Le problème est complexe avec de nombreuses variables de contrôle discrètes et continues. La Programmation Mixte Linéaire (PML) est utilisée pour résoudre efficacement le problème. La stratégie de fonctionnement optimale proposée sera validée sur un simulateur hors temps réel et un simulateur en temps réel. / Wind energy playing an increasingly important role in the electrical network and it will no longer be considered as a marginal. Therefore, the impact on the electrical grid of its inherent intermittency becomes non-negligible. The use of storage means is one of key points in the integration problem. In this work, the optimization of the wind/storage system is addressed by considering the dynamics of the wind power, the storage capacity and the grid constraints. The main objective is to meet the grids requirements in limiting the fluctuations, providing possible ancillary services and highlighting the economic profitability of system. The proposed method relies on a two levels control approach: anticipation and reactive management. The first one consists in using forecast information (weather, grid constraints, electrical market conditions …) to define in advance the optimal operation schedule for the storage system. In the second one, on real time operation, the system has to deal with possible disturbances and take the right adjustment control with the actual capacity. The problem is complex with numerous discrete control variables and continuous ones. A mixed-integer linear programming (MILP) is used to efficiently solve the problem. The proposed optimal operation strategy will be validated with on an offline simulation (simulink/Matlab) and a real time simulator.
56

Imagerie électromagnétique 2D par inversion des formes d'ondes complètes : Approche multiparamètres sur cas synthétiques et données réelles / 2D electromagnetic imaging by full waveform inversion : Multiparameter approach on synthetic cases and real data

Pinard, Hugo 20 December 2017 (has links)
Le radar géologique est une méthode d'investigation géophysique basée sur la propagation d'ondes électromagnétiques dans le sous-sol. Avec des fréquences allant de 5 MHz à quelques GHz et une forte sensibilité aux propriétés électriques, le géoradar fournit des images de réflectivité dans des contextes et à des échelles très variés : génie civil, géologie, hydrogéologie, glaciologie, archéologie. Cependant, dans certains cas, la compréhension fine des processus étudiés dans la subsurface nécessite une quantification des paramètres physiques du sous-sol. Dans ce but, l'inversion des formes d'ondes complètes, méthode initialement développée pour l'exploration sismique qui exploite l'ensemble des signaux enregistrés, pourrait s'avérer efficace. Dans cette thèse, je propose ainsi des développements méthodologiques par une approche d'inversion multiparamètres (permittivité diélectrique et conductivité), pour des configurations en transmission, en deux dimensions.Ces développements sont ensuite appliqués à un jeu de données réelles acquises entre forages.Dans une première partie, je présente tout d'abord la méthode numérique utilisée pour modéliser la propagation des ondes électromagnétiques dans un milieu 2D hétérogène, élément indispensable pour mener à bien le processus d'imagerie. Ensuite, j’introduis puis étudie le potentiel des méthodes d’optimisation locale standards (gradient conjugué non linéaire, l-BFGS, Newton tronqué dans ses versions Gauss-Newton et Exact-Newton) pour découpler la permittivité diélectrique et la conductivité électrique. Je montre notamment qu’un découplage effectif n’est possible qu’avec un modèle initial suffisamment précis et la méthode la plus sophistiquée (Newton tronqué). Comme dans le cas général, ce modèle initial n’est pas disponible, il s’avère nécessaire d'introduire un facteur d'échelle qui répartit le poids relatif de chaque classe de paramètres dans l'inversion. Dans un milieu réaliste avec une acquisition entre puits, je montre que les différentes méthodes d'optimisation donnent des résultats similaires en matière de découplage de paramètres. C'est finalement la méthode l-BFGS qui est retenue pour l'application aux données réelles, en raison de coûts de calcul plus faibles.Dans une deuxième partie, j'applique cette méthodologie à des données réelles acquises entre deux forages localisés dans des formations carbonatées, à Rustrel (France, 84). Cette inversion est réalisée en parallèle d'une approche synthétique à l'aide d'un modèle représentatif du site étudié et des configurations d'acquisition similaires. Ceci permet de pouvoir comprendre, contrôler et valider les observations et conclusions obtenues sur les données réelles. Cette démarche montre que la reconstruction de la permittivité est très robuste. A contrario, l'estimation de la conductivité souffre de deux couplages majeurs, avec la permittivité diélectrique, d'une part, et avec l'amplitude de la source estimée, d'autre part. Les résultats obtenus sont confrontés avec succès à des données indépendantes (géophysique depuis la surface, analyse sur échantillons de roche), et permet de bénéficier d'une image haute-résolution des formations géologiques. Enfin, une analyse 3D confirme que les structures 3D à fort contraste de propriétés, telles que la galerie enfouie sur notre site, nécessiteraient une approche de modélisation 3D, notamment pour mieux expliquer les amplitudes observées. / Ground Penetrating Radar (GPR) is a geophysical investigation method based on electromagnetic waves propagation in the underground. With frequencies ranging from 5 MHz to a few GHz and a high sensitivity to electrical properties, GPR provides reflectivity images in a wide variety of contexts and scales: civil engineering, geology, hydrogeology, glaciology, archeology. However, in some cases, a better understanding of some subsurface processes requires a quantification of the physical parameters of the subsoil. For this purpose, inversion of full waveforms, a method initially developed for seismic exploration that exploits all the recorded signals, could prove effective. In this thesis, I propose methodological developments using a multiparameter inversion approach (dielectric permittivity and conductivity), for two-dimensional transmission configurations. These developments are then applied to a real data set acquired between boreholes.In a first part, I present the numerical method used to model the propagation of electromagnetic waves in a heterogeneous 2D environment, a much-needed element to carry out the process of imaging. Then, I introduce and study the potential of standard local optimization methods (nonlinear conjugate gradient, l-BFGS, Newton truncated in its Gauss-Newton and Exact-Newton versions) to fight the trade-off effects related to the dielectric permittivity and to the electrical conductivity. In particular, I show that effective decoupling is possible only with a sufficiently accurate initial model and the most sophisticated method (truncated Newton). As in the general case, this initial model is not available, it is necessary to introduce a scaling factor which distributes the relative weight of each parameter class in the inversion. In a realistic medium and for a cross-hole acquisition configuration, I show that the different optimization methods give similar results in terms of parameters decoupling. It is eventually the l-BFGS method that is used for the application to the real data, because of lower computation costs.In a second part, I applied the developed Full waveform inversion methodology to a set of real data acquired between two boreholes located in carbonate formations, in Rustrel (France, 84). This inversion is carried out together with a synthetic approach using a model representative of the studied site and with a similar acquisition configuration. This approach enables us to monitor and validate the observations and conclusions derived from data inversion. It shows that reconstruction of dielectrical permittivity is very robust. Conversely, conductivity estimation suffers from two major couplings: the permittivity and the amplitude of the estimated source. The derived results are successfully compared with independent data (surface geophysics and rock analysis on plugs) and provides a high resolution image of the geological formation. On the other hand, a 3D analysis confirms that 3D structures presenting high properties contrasts, such as the buried gallery present in our site, would require a 3D approach, notably to better explain the observed amplitudes.
57

Partial preference models in discrete multi-objective optimization / Intégration de préférences expertes en optimisation multicritère

Kaddani, Sami 10 March 2017 (has links)
Les problèmes d’optimisation multi-objectifs mènent souvent à considérer des ensembles de points non-dominés très grands à mesure que la taille et le nombre d’objectifs du problème augmentent. Générer l’ensemble de ces points demande des temps de calculs prohibitifs. De plus, la plupart des solutions correspondantes ne sont pas pertinentes pour un décideur. Une autre approche consiste à utiliser des informations de préférence, ce qui produit un nombre très limité de solutions avec des temps de calcul réduits. Cela nécessite la plupart du temps une élicitation précise de paramètres. Cette étape est souvent difficile pour un décideur et peut amener à délaisser certaines solutions intéressantes. Une approche intermédiaire consiste à raisonner avec des relations de préférences construites à partir d’informations partielles. Nous présentons dans cette thèse plusieurs modèles de relations partielles de préférences. En particulier, nous nous sommes intéressés à la génération de l’ensemble des points non-dominés selon ces relations. Les expérimentations démontrent la pertinence de notre approche en termes de temps de calcul et qualité des points générés. / Multi-objective optimization problems often lead to large nondominated sets, as the size of the problem or the number of objectives increases. Generating the whole nondominated set requires significant computation time, while most of the corresponding solutions are irrelevant to the decision maker. Another approach consists in obtaining preference information, which reduces the computation time and produces one or a very limited number of solutions. This requires the elicitation of precise preference parameters most of the time, which is often difficult and partly arbitrary, and might discard solutions of interest. An intermediate approach consists in using partial preference models.In this thesis, we present several partial preference models. We especially focused on the generation of the nondominated set according to these preference relations. This approach shows competitive performances both on computation time and quality of the generated preferred sets.
58

Learning during search / Apprendre durant la recherche combinatoire

Arbelaez Rodriguez, Alejandro 31 May 2011 (has links)
La recherche autonome est un nouveau domaine d'intérêt de la programmation par contraintes, motivé par l'importance reconnue de l'utilisation de l'apprentissage automatique pour le problème de sélection de l'algorithme le plus approprié pour une instance donnée, avec une variété d'applications, par exemple: Planification, Configuration d'horaires, etc. En général, la recherche autonome a pour but le développement d'outils automatiques pour améliorer la performance d'algorithmes de recherche, e.g., trouver la meilleure configuration des paramètres pour un algorithme de résolution d'un problème combinatoire. Cette thèse présente l'étude de trois points de vue pour l'automatisation de la résolution de problèmes combinatoires; en particulier, les problèmes de satisfaction de contraintes, les problèmes d'optimisation de combinatoire, et les problèmes de satisfiabilité (SAT).Tout d'abord, nous présentons domFD, une nouvelle heuristique pour le choix de variable, dont l'objectif est de calculer une forme simplifiée de dépendance fonctionnelle, appelée dépendance-relaxée. Ces dépendances-relaxées sont utilisées pour guider l'algorithme de recherche à chaque point de décision.Ensuite, nous révisons la méthode traditionnelle pour construire un portefeuille d'algorithmes pour le problème de la prédiction de la structure des protéines. Nous proposons un nouveau paradigme de recherche-perpétuelle dont l'objectif est de permettre à l'utilisateur d'obtenir la meilleure performance de son moteur de résolution de contraintes. La recherche-perpétuelle utilise deux modes opératoires: le mode d'exploitation utilise le modèle en cours pour solutionner les instances de l'utilisateur; le mode d'exploration réutilise ces instances pour s'entraîner et améliorer la qualité d'un modèle d'heuristiques par le biais de l'apprentissage automatique. Cette deuxième phase est exécutée quand l'unit\'e de calcul est disponible (idle-time). Finalement, la dernière partie de cette thèse considère l'ajout de la coopération au cours d'exécution d'algorithmes de recherche locale parallèle. De cette façon, on montre que si on partage la meilleure configuration de chaque algorithme dans un portefeuille parallèle, la performance globale peut être considérablement amélioré. / Autonomous Search is a new emerging area in Constraint Programming, motivated by the demonstrated importance of the application of Machine Learning techniques to the Algorithm Selection Problem, and with potential applications ranging from planning and configuring to scheduling. This area aims at developing automatic tools to improve the performance of search algorithms to solve combinatorial problems, e.g., selecting the best parameter settings for a constraint solver to solve a particular problem instance. In this thesis, we study three different points of view to automatically solve combinatorial problems; in particular Constraint Satisfaction, Constraint Optimization, and SAT problems.First, we present domFD, a new Variable Selection Heuristic whose objective is to heuristically compute a simplified form of functional dependencies called weak dependencies. These weak dependencies are then used to guide the search at each decision point. Second, we study the Algorithm Selection Problem from two different angles. On the one hand, we review a traditional portfolio algorithm to learn offline a heuristics model for the Protein Structure Prediction Problem. On the other hand, we present the Continuous Search paradigm, whose objective is to allow any user to eventually get his constraint solver to achieve a top performance on their problems. Continuous Search comes in two modes: the functioning mode solves the user's problem instances using the current heuristics model; the exploration mode reuses these instances to training and improve the heuristics model through Machine Learning during the computer idle time. Finally, the last part of the thesis, considers the question of adding a knowledge-sharing layer to current portfolio-based parallel local search solvers for SAT. We show that by sharing the best configuration of each algorithm in the parallel portfolio on regular basis and aggregating this information in special ways, the overall performance can be greatly improved.
59

L’extraction de phrases en relation de traduction dans Wikipédia

Rebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences. The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair. It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic. The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations. We make both the aligned data and the extracted corpus available to the scientific community.
60

Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique / Speed up and regularization techniques for seismic full waveform inversion

Castellanos Lopez, Clara 18 April 2014 (has links)
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension. / Currently, the main limitation to perform 3D elastic full waveform inversion on a production level is the computational cost it represents. With this in mind, we provide two contributions. First, we develop a self adjoint formulation of the isotropic first order velocity-stress elastic equations that allow to implement only one forward modeling operator in the gradient computation. Second, we combine Newton and quasi-Newton optimization methods with source encoding techniques to see to what extent the computational cost could be further reduced. Finally, the optimization process associated to FWI is ill posed and requires regularization constraints. I show that the total variation of the model as a regularization term provides and adequate description of earth models, preserving the discontinuous character of the lithological layers. To improve the quality of the images, we propose a local total variation denoising algorithm based on the incorporation of the information provided by a migrated image.

Page generated in 0.5161 seconds