• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 19
  • 3
  • Tagged with
  • 63
  • 50
  • 32
  • 32
  • 24
  • 17
  • 17
  • 16
  • 16
  • 11
  • 9
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Approche évolutionnaire et agrégation de variables : application à la prévision de risques hydrologiques / Evolutionary approach and variable aggregation : application to hydrological risks forecasting

Segretier, Wilfried 10 December 2013 (has links)
Les travaux de recherche présentés dans ce mémoire s'inscrivent dans la lignée des approches de modélisation hydrologiques prédictives dirigées par les données. Nous avons particulièrement développé leur application sur le contexte difficile des phénomènes de crue éclairs caractéristiques des bassins versants de la région Caraïbe qui pose un dé fi sé.curi taire. En envisageant le problème de la prévision de crues comme un problème d'optimisation combinatoire difficile nous proposons d'utiliser la notion de métaneuristiques, à travers les algorithmes évolutionnaire notamment pour leur capacité à parcourir efficacement de grands espaces de recherche et fi fournir des solutions de bOlIDe qualité en des temps d'exécution raisonnables. Nous avons présenté l'approche de prédiction AV2D : Aggregate Variable Data Driven dom le concept central est la notion de variable agrégée. L'idée sous-jacente à ce concept est de considérer le pouvoir prédictif de nouvelles variables définies comme le résultat de fonctions tatistiques, dites d'agrégation calculées sur de donnée' correspondant à des périodes de temps précédent uo événem nt à prédire. Ces variable sont caractérisées par des ensembles de paramètres correspondant a leur pJ:opriétés. Nous avons imroduitle variables agrégées hydrométéorologiques permettant de répondre au problème de la classification d événements hydrologiques. La complexité du parcours de l'espace de recherche engendré par les paramètres définissant ces variables a été prise en compte grâce à la njse en oeuvre d'un algorithme évolutionnaire particulier dont les composants ont été spécifiquement définis pour ce problème. Nous avons montré, à travers une étude comparative avec d'autres approches de modélisation dirigées par les données, menée sur deux cas d'études de bassins versant caribéens, que l'approche AV2D est particulièrement bien adaptée à leur contexte. Nous étudions par la suite les bénéfices offerts par les approches de modélisation hydrologiques modulaires dirigées par les données, en définissant un procédé de division en sous-processus prenant en compte les caractéristiques paniculières des bassins versants auxquels nous nous intéressons. Nou avons proposé une extension des travaux précédents à travers la définition d'une approche de modélisation modulaire M2D: Spatial Modular Data Driven, consistant à considérer des sous-processus en divisant l'ensemble des exemples à classifier en sous-ensembles correspondant à des comportements hydrologiques homogènes. Nous avons montré à travers une étude comparative avec d autres approches dU'igées par les données mises en oeuvre sur les mêmes sous-ensembles de données que celte approche permet d améliorer les résultats de prédiction particulièrement à coun Lenne. Nous avons enfin proposé la modélisation d un outil de pi / The work presented in this thesis is in the area of data-driven hydrological modeling approaches. We particularly investigared their application on the difficult problem of flash flood phenomena typically observed in Caribbean watersheds. By considering the problem of flood prediction as a combinatorial optimization problem, we propose to use the notion of Oleraheuristics, through evolutionary algorithms, especially for their capacity ta visit effjciently large search space and to provide good solutions in reasonable execution times. We proposed the hydrological prediction approach AV2D: Aggregate Variable Data Driven which central concept is the notion of aggregate variable. The underlying idea of this [concept is to consider the predictive power of new variables defined as the results of statistical functions, called aggregation functions, computed on data corresponding ta time periods before an event ta predict. These variables are characterized by sets of parameters corresponding ta their specifications. We introduced hydro-meteorological aggregate variables allowing ta address the classification problem of hydrological events. We showed through a comparative study on two typical caribbean watersheds, using several common data driven modelling techniques that the AV2D approach is panicul.rly weil fitted ta the studied context. We also study the benefits offered by modulaI' approaches through the definition of the SM2D: Spatial Modular DataDriven approach, consisting in considering sub-processes partly defined by spatial criteria. We showed that the results obtained by the AV2D on these sub-processes allows to increase the performances particularly for short term prediction. Finally we proposed the modelization of a generic control tool for hydro-meteorological prediction systems, H2FCT: Hydro-meteorological Flood Forecasting Control 1'001
22

Une méthode hybride pour la classification d'images à grain fin / An hybrid method for fine-grained content based image retrieval

Pighetti, Romaric 28 November 2016 (has links)
La quantité d'images disponible sur Internet ne fait que croître, engendrant un besoin d'algorithmes permettant de fouiller ces images et retrouver de l'information. Les systèmes de recherche d'images par le contenu ont été développées dans ce but. Mais les bases de données grandissant, de nouveaux défis sont apparus. Dans cette thèse, la classification à grain fin est étudiée en particulier. Elle consiste à séparer des images qui sont relativement semblables visuellement mais représentent différents concepts, et à regrouper des images qui sont différentes visuellement mais représentent le même concept. Il est montré dans un premier temps que les techniques classiques de recherche d'images par le contenu rencontrent des difficultés à effectuer cette tâche. Même les techniques utilisant les machines à vecteur de support (SVM), qui sont très performants pour la classification, n'y parviennent pas complètement. Ces techniques n'explorent souvent pas assez l'espace de recherche pour résoudre ce problème. D'autres méthodes, comme les algorithmes évolutionnaires sont également étudiées pour leur capacité à identifier des zones intéressantes de l'espace de recherche en un temps raisonnable. Toutefois, leurs performances restent encore limitées. Par conséquent, l'apport de la thèse consiste à proposer un système hybride combinant un algorithme évolutionnaire et un SVM a finalement été développé. L'algorithme évolutionnaire est utilisé pour construire itérativement un ensemble d'apprentissage pour le SVM. Ce système est évalué avec succès sur la base de données Caltech-256 contenant envieront 30000 images réparties en 256 catégories / Given the ever growing amount of visual content available on the Internet, the need for systems able to search through this content has grown. Content based image retrieval systems have been developed to address this need. But with the growing size of the databases, new challenges arise. In this thesis, the fine grained classification problem is studied in particular. It is first shown that existing techniques, and in particular the support vector machines which are one of the best image classification technique, have some difficulties in solving this problem. They often lack of exploration in their process. Then, evolutionary algorithms are considered to solve the problem, for their balance between exploration and exploitation. But their performances are not good enough either. Finally, an hybrid system combining an evolutionary algorithm and a support vector machine is proposed. This system uses the evolutionary algorithm to iteratively feed the support vector machine with training samples. The experiments conducted on Caltech-256, a state of the art database containing around 30000 images, show very encouraging results
23

Designing Superior Evolutionary Algorithms via Insights From Black-Box Complexity Theory / Conception de meilleurs algorithmes évolutionnaires grâce à la théorie de la complexité boîte noire

Yang, Jing 04 September 2018 (has links)
Il a été observé que l'exécution des heuristiques de recherche aléatoire dépend d'un ou de plusieurs paramètres. Un certain nombre de résultats montrent un avantage des paramètres dynamiques, c'est-à-dire que les paramètres de l'algorithme sont modifiés au cours de son exécution. Dans ce travail, nous montrons que la complexité de la boîte noire sans biais de la classe de fonction de référence OneMax est $n ln(n) - cn pm o(n)$ pour une constante $c$ comprise entre $0.2539$ et $0.2665$. L'exécution peut être réalisé avec un algorithme simple de type-(1+1) utilisant une puissance de mutation fitness dépendant. Une fois traduite dans le cas du budget fixe, notre algorithme trouve des solutions plus proches de l'optimum de 13% que celles des meilleurs algorithmes connus.Basé sur la puissance de mutation optimale analysée pour OneMaX, nous montrons qu'un choix auto-ajusté du nombre de bits à retourner atteint le même temps d'exécution (excepté $o(n)$ termes inférieurs) et le même (asymptotique) 13% amélioration de la fitness-distance par rapport au RLS. Le mécanisme d'ajustement doit apprendre de manière adaptative la puissance de mutation actuellement optimale des itérations précédentes. Cela vise à la fois à exploiter le fait que des problèmes généralement différents peuvent nécessiter des puissances de mutation différentes et que, pour un problème fixe, différentes puissances peuvent devenir optimales à différentes étapes du processus d'optimisation.Nous étendons ensuite notre stratégie d'auto-ajustement aux algorithmes évolutifs basés sur la population dans des espaces discrets de recherche. Grosso modo, il consiste à créer la moitié de la descendance avec un taux de mutation qui est deux fois plus élevé que le taux de mutation actuel et l'autre moitié avec la moitié du taux actuel. Le taux de mutation est ensuite mis à jour au taux utilisé dans cette sous-population qui contient la meilleure descendance. Nous analysons comment l'algorithme d'évolution $(1+lambda)$ avec ce taux de mutation auto-ajustable optimise la fonction de test OneMax. Nous montrons que cette version dynamique de $(1+lambda)$~EA trouve l'optimum dans un temps d'optimisation attendu (nombre d'évaluations de la fitness) de $O(nlambda/loglambda+nlog n)$. Le temps est asymptotiquement plus petit que le temps d'optimisation de l'EA classique $(1+lambda)$. Des travaux antérieurs montrent que cette performance est la meilleure possible parmi tous les algorithmes de boîtes noires sans biais unaire basés sur des mutations $lambda$-parallèles.Nous proposons et analysons également une version auto-réglage de l'algorithme évolutionnaire $(1,lambda)$ dans lequel le taux de mutation actuel fait partie de l'individu et donc également sujet à mutation. Une analyse d'exécution rigoureuse sur la fonction de référence OneMax révèle qu'un simple schéma de mutation pour le taux conduit à un temps d'optimisation attendu du meilleur $O(nlambda/loglambda+nlog n)$. Notre résultat montre que l'auto-réglage dans le calcul évolutif peut trouver automatiquement des paramètres optimaux complexes. En même temps, cela prouve qu'un schéma d'auto-ajustement relativement compliqué pour le taux de mutation peut être remplacé par notre schéma endogène simple. / It has been observed that the runtime of randomized search heuristics depend on one or more parameters. A number of results show an advantage of dynamic parameter settings, that is, the parameters of the algorithm are changed during its execution. In this work, we prove that the unary unbiased black-box complexity of the OneMax benchmark function class is $n ln(n) - cn pm o(n)$ for a constant $c$ which is between $0.2539$ and $0.2665$. This runtime can be achieved with a simple (1+1)-type algorithm using a fitness-dependent mutation strength. When translated into the fixed-budget perspective, our algorithm finds solutions which are roughly 13% closer to the optimum than those of the best previously known algorithms.Based on the analyzed optimal mutation strength for OneMax, we show that a self-adjusting choice of the number of bits to be flipped attains the same runtime (apart from $o(n)$ lower-order terms) and the same (asymptotic) 13% fitness-distance improvement over RLS. The adjusting mechanism is to adaptively learn the currently optimal mutation strength from previous iterations. This aims both at exploiting that generally different problems may need different mutation strengths and that for a fixed problem different strengths may become optimal in different stages of the optimization process.We then extend our self-adjusting strategy to population-based evolutionary algorithms in discrete search spaces. Roughly speaking, it consists of creating half the offspring with a mutation rate that is twice the current mutation rate and the other half with half the current rate. The mutation rate is then updated to the rate used in that subpopulation which contains the best offspring. We analyze how the $(1+lambda)$ evolutionary algorithm with this self-adjusting mutation rate optimizes the OneMax test function. We prove that this dynamic version of the $(1+lambda)$~EA finds the optimum in an expected optimization time (number of fitness evaluations) of $O(nlambda/loglambda+nlog n)$. This time is asymptotically smaller than the optimization time of the classic $(1+lambda)$ EA. Previous work shows that this performance is best-possible among all $lambda$-parallel mutation-based unbiased black-box algorithms.We also propose and analyze a self-adaptive version of the $(1,lambda)$ evolutionary algorithm in which the current mutation rate is part of the individual and thus also subject to mutation. A rigorous runtime analysis on the OneMax benchmark function reveals that a simple local mutation scheme for the rate leads to an expected optimization time of the best possible $O(nlambda/loglambda+nlog n)$. Our result shows that self-adaptation in evolutionary computation can find complex optimal parameter settings on the fly. At the same time, it proves that a relatively complicated self-adjusting scheme for the mutation rate can be replaced by our simple endogenous scheme.
24

Optimisation spatio-temporelle d’efforts de recherche pour cibles manoeuvrantes et intelligentes / Spatio-temporal optimisation of search efforts for smart and reactive moving targets

Chouchane, Mathieu 17 October 2013 (has links)
Dans cette thèse, nous cherchons à répondre à une problématique formulée par la DGA Techniques navales pour surveiller une zone stratégique : planifier le déploiement spatial et temporel optimal d’un ensemble de capteurs de façon à maximiser les chances de détecter une cible mobile et intelligente. La cible est dite intelligente car elle est capable de détecter sous certaines conditions les menaces que représentent les capteurs et ainsi de réagir en adaptant son comportement. Les déploiements générés pouvant aussi avoir un coût élevé nous devons tenir compte de ce critère lorsque nous résolvons notre problématique. Il est important de noter que la résolution d’un problème de ce type requiert, selon les besoins, l’application d’une méthode d’optimisation mono-objectif voire multiobjectif. Jusqu’à présent, les travaux existants n’abordent pas la question du coût des déploiements proposés. De plus la plupart d’entre eux ne se concentrent que sur un seul aspect à la fois. Enfin, pour des raisons algorithmiques, les contraintes sont généralement discrétisées.Dans une première partie, nous présentons un algorithme qui permet de déterminer le déploiement spatio-temporel de capteurs le plus efficace sans tenir compte de son coût. Cette méthode est une application à l’optimisation de la méthode multiniveau généralisée.Dans la seconde partie, nous montrons d’abord que l’utilisation de la somme pondérée des deux critères permet d’obtenir des solutions sans augmenter le temps de calcul. Pour notre seconde approche, nous nous inspirons des algorithmes évolutionnaires d’optimisation multiobjectif et adaptons la méthode multiniveau généralisée à l’optimisation multiobjectif. / In this work, we propose a solution to a problem issued by the DGA Techniques navales in order to survey a strategic area: determining the optimal spatio-temporal deployment of sensors that will maximize the detection probability of a mobile and smart target. The target is said to be smart because it is capable of detecting the threat of the sensors under certain conditions and then of adapting its behaviour to avoid it. The cost of a deployment is known to be very expensive and therefore it has to be taken into account. It is important to note that the wide spectrum of applications within this field of research also reflects the need for a highly complex theoretical framework based on stochastic mono or multi-objective optimisation. Until now, none of the existing works have dealt with the cost of the deployments. Moreover, the majority only treat one type of constraint at a time. Current works mostly rely on operational research algorithms which commonly model the constraints in both discrete space and time.In the first part, we present an algorithm which computes the most efficient spatio-temporal deployment of sensors, but without taking its cost into account. This optimisation method is based on an application of the generalised splitting method.In the second part, we first use a linear combination of the two criteria. For our second approach, we use the evolutionary multiobjective optimisation framework to adapt the generalised splitting method to multiobjective optimisation. Finally, we compare our results with the results of the NSGA-II algorithm.
25

Développement d'un outil d'imagerie dédié à l'acquisition, à l'analyse et à la caractérisation multispectrale des lésions dermatologiques / Development of an imaging system dedicated to the acquisition analysis and multispectral characterisation of skin lesion

Jolivot, Romuald 07 December 2011 (has links)
L’évaluation visuelle de lésions cutanées est l’analyse la plus couramment réalisée par les dermatologues. Ce diagnostic s’effectue principalement à l’œil nu et se base sur des critères tels que la taille, la forme, la symétrie mais principalement la couleur. Cependant, cette analyse est subjective car dépendante de l’expérience du praticien et des conditions d’utilisation. Nous proposons dans ce manuscrit (1) le développement d’une caméra multispectrale spécialement conçue pour un usage en dermatologie. Cette caméra multispectrale se base sur la technologie de roue porte-filtres composée de filtres interférentiels et d’un algorithme basé sur les réseaux de neurones générant un cube hyperspectral de données cutanées. Cet ensemble combine l’avantage d’un spectrophotomètre (information spectrale), et celui d’une caméra (information spatiale). Son intérêt est également de délivrer une information reproductible et indépendante des conditions d’acquisition. La mise en place d’un protocole d’acquisition de données de peaux saines issues de cinq des six phototypes existants a permis la validation de notre système en comparant les spectres générés par notre système avec des spectres théoriques acquis par un spectrophotomètre professionnel. (2) La réflectance spectrale de données de peau fournit une information précieuse, car directement liée à sa composition en chromophores. La mesure quantitative des propriétés optiques du tissu cutané peut être basée sur la modélisation de la propagation de la lumière dans la peau. Pour cela, nous nous sommes appuyés sur le modèle de Kubelka-Munk, auquel nous avons associé une méthode d’optimisation basée sur les algorithmes évolutionnaires. Cette dernière apporte une réponse à l’inversion de ce modèle. A partir de cette approche, la quantification de divers paramètres de la peau peut être obtenue, tels que la mélanine et l’hémoglobine. (3) La validation de cette méthodologie est effectuée sur des données pathologiques (vitiligo et melasma) et permet de quantifier une différence de composition entre zone saine et zone affectée sur une même image. / Visual evaluation of cutaneous lesions is the analysis the most commonly performedby dermatologists. This diagnostic is mainly done by naked eye and is based on criterionsuch as the size, shape, symmetry but principally on colour of the lesions. However, thisanalysis is subjective because it depends on the practician experience and the acquisitionconditions. We propose in this dissertation (1) the development of a multispectralcamera specifically dedicated for dermatological use. This device is based on a filterwheel composed of interferential filters and a neural network-based algorithm, generatinga hyperspectral cube of cutaneous data. This setting combines advantage of both spectrophotometer(spectral information) and digital camera (spatial information). Its maininterest is also to provide reproducible information which is independent of the acquisitionconditions. The setting-up of an acquisition protocol of healthy skin data from five of thesix exisiting skin phototypes allows the validation of our system by comparing spectragenerated by our system and theoretical spectra acquired by professional spectrophotometer.(2) Skin spectral reflectance provides precious information because it is directly linkedto the skin chromophore composition. Quantitative measure of cutaneous tissue opticalproperties can be based on the modelisation of light propagation in skin. For this purpose,we based our method on Kubelka-Munk model with which we associated an optimizationmethod based on evolutionary algorithm. This method helps for the model inversion.Using this approach, quantification of diverse parameters of skin can be obtained such asmelanin and haemoglobin. (3) The validation of this model is performed on disease skindata (vitiligo and melasma) and allows to quantify difference between healthy and affectedskin area within a single image.
26

Subspace clustering on static datasets and dynamic data streams using bio-inspired algorithms / Regroupement de sous-espaces sur des ensembles de données statiques et des flux de données dynamiques à l'aide d'algorithmes bioinspirés

Peignier, Sergio 27 July 2017 (has links)
Une tâche importante qui a été étudiée dans le contexte de données à forte dimensionnalité est la tâche connue sous le nom de subspace clustering. Le subspace clustering est généralement reconnu comme étant plus compliqué que le clustering standard, étant donné que cette tâche vise à détecter des groupes d’objets similaires entre eux (clusters), et qu’en même temps elle vise à trouver les sous-espaces où apparaissent ces similitudes. Le subspace clustering, ainsi que le clustering traditionnel ont été récemment étendus au traitement de flux de données en mettant à jour les modèles de clustering de façon incrémentale. Les différents algorithmes qui ont été proposés dans la littérature, reposent sur des bases algorithmiques très différentes. Parmi ces approches, les algorithmes évolutifs ont été sous-explorés, même si ces techniques se sont avérées très utiles pour traiter d’autres problèmes NP-difficiles. L’objectif de cette thèse a été de tirer parti des nouvelles connaissances issues de l’évolution afin de concevoir des algorithmes évolutifs qui traitent le problème du subspace clustering sur des jeux de données statiques ainsi que sur des flux de données dynamiques. Chameleoclust, le premier algorithme développé au cours de ce projet, tire partie du grand degré de liberté fourni par des éléments bio-inspirés tels qu’un génome de longueur variable, l’existence d’éléments fonctionnels et non fonctionnels et des opérateurs de mutation incluant des réarrangements chromosomiques. KymeroClust, le deuxième algorithme conçu dans cette thèse, est un algorithme de k-medianes qui repose sur un mécanisme évolutif important: la duplication et la divergence des gènes. SubMorphoStream, le dernier algorithme développé ici, aborde le problème du subspace clustering sur des flux de données dynamiques. Cet algorithme repose sur deux mécanismes qui jouent un rôle clef dans l’adaptation rapide des bactéries à des environnements changeants: l’amplification de gènes et l’absorption de matériel génétique externe. Ces algorithmes ont été comparés aux principales techniques de l’état de l’art, et ont obtenu des résultats compétitifs. En outre, deux applications appelées EvoWave et EvoMove ont été développés pour évaluer la capacité de ces algorithmes à résoudre des problèmes réels. EvoWave est une application d’analyse de signaux Wi-Fi pour détecter des contextes différents. EvoMove est un compagnon musical artificiel qui produit des sons basés sur le clustering des mouvements d’un danseur, décrits par des données provenant de capteurs de déplacements. / An important task that has been investigated in the context of high dimensional data is subspace clustering. This data mining task is recognized as more general and complicated than standard clustering, since it aims to detect groups of similar objects called clusters, and at the same time to find the subspaces where these similarities appear. Furthermore, subspace clustering approaches as well as traditional clustering ones have recently been extended to deal with data streams by updating clustering models in an incremental way. The different algorithms that have been proposed in the literature, rely on very different algorithmic foundations. Among these approaches, evolutionary algorithms have been under-explored, even if these techniques have proven to be valuable addressing other NP-hard problems. The aim of this thesis was to take advantage of new knowledge from evolutionary biology in order to conceive evolutionary subspace clustering algorithms for static datasets and dynamic data streams. Chameleoclust, the first algorithm developed in this work, takes advantage of the large degree of freedom provided by bio-like features such as a variable genome length, the existence of functional and non-functional elements and mutation operators including chromosomal rearrangements. KymeroClust, our second algorithm, is a k-medians based approach that relies on the duplication and the divergence of genes, a cornerstone evolutionary mechanism. SubMorphoStream, the last one, tackles the subspace clustering task over dynamic data streams. It relies on two important mechanisms that favor fast adaptation of bacteria to changing environments, namely gene amplification and foreign genetic material uptake. All these algorithms were compared to the main state-of-the-art techniques, obtaining competitive results. Results suggest that these algorithms are useful complementary tools in the analyst toolbox. In addition, two applications called EvoWave and EvoMove have been developed to assess the capacity of these algorithms to address real world problems. EvoWave is an application that handles the analysis of Wi-Fi signals to detect different contexts. EvoMove, the second one, is a musical companion that produces sounds based on the clustering of dancer moves captured using motion sensors.
27

Modèles de parallélisme pour les métaheuristiques multi-objectifs / Parallelism models for multi-objective metaheuristics

Maziere, Florian 17 January 2019 (has links)
L’objectif de ce projet de trois ans est de proposer des avancées conceptuelles et technologiques dans la résolution de problèmes d’ordonnancement du personnel. L’atteinte de cet objectif passe par la proposition de nouveaux algorithmes basés sur les métaheuristiques et leur implémentation sur les architectures de calcul haute performance. Ce projet s’inscrit en complémentarité du projet HORUS qui bénéficie d’une subvention ANR et qui réunit les expertises scientifiques de deux laboratoires universitaires spécialisés en optimisation et en calcul parallèle : l’équipe SysCom du laboratoire CReSTIC de l’URCA et l’équipe CaRO du laboratoire PRiSM de l’UVSQ. Les avancées technologiques proposées s’appuient également sur les moyens de calcul haute performance offerts par le Centre de Calcul Régional Champagne-Ardenne. / .Many academic and industrial optimization problems are multi-objective and have been of particular interest to researchers in recent years. These problems usually do not have a single optimal solution but a set of best trade-off solutions which form the so-called Pareto front in the objective space. In order to approximate the Pareto front, multi-objective evolutionary algorithms (MOEAs) have been largely investigated in the fields of continuous and combinatorial optimization. Contrary to some classical algorithms, MOEAs have the ability to provide a number of solutions in one single run and are less sensitive to the shape of the Pareto front.As they often require a high amount of computing resources to explore large portions of the search space and handle complex real-life constraints, MOEAs could greatly benefit from today's high-performance computing architectures. Although significant progress has been made in recent years in the design and improvement of parallel models for evolutionary algorithms, most of these models have limited scalability and ability to solve various problems. In fact, solving multi-objective combinatorial optimization problems efficiently on a large number of processors remains a challenge today.This thesis aims to propose an island model which is based on objective space division. The main features of the proposed model are the following (i) An organizer has a global view of the current search via a global archive (ii) Asynchronous cooperation between islands, especially for the exchange of local archives with the organizer to limit model overheads (iii)Control islands to guide the exploration of the search space and improve diversity (iv) A periodic use of a specific local search procedure to improve convergence. Extensive experiments have been conducted to evaluate the performance of the approach and more particularly of each component in the resolution of two classical combinatorial problems, the travelling salesman problem and quadratic assignment problem. Extensibility and quality of the solutions are analyzed compared to state-of-the-art parallel models.
28

Spectroscopie haute résolution de spectres rotationnellement denses dédiée à la détection en phase gazeuse de molécules d'intérêt environnemental et défense / High resolution spectroscopy of rotationally dense spectra dedicated to the gas phase detection of molecules of environmental interest and defense

Roucou, Anthony 17 October 2018 (has links)
Ces dernières décennies, la spectroscopie moléculaire a bénéficié du progrès des spectromètres, notamment en terme de sélectivité et sensibilité, et de méthodes d'analyse et de calculs de chimie quantique toujours plus avancés. Désormais, la spectroscopie rotationnelle s'oriente vers l'analyse de systèmes moléculaires plus complexes caractérisés spectralement par une forte densité de raies. La congestion spectrale des espèces étudiées dans ma thèse s'explique non seulement par de faibles constantes rotationnelles mais aussi par la présence d'états vibrationnels excités à température ambiante, une forte richesse isotopique, un haut degré de splittings dus aux mouvements de grande amplitude ou encore par un paysage conformationnel complexe. Cette thèse illustre ainsi divers scénarii à travers les études du chlorure de thionyle, des nitrotoluènes et des méthoxyphénols. Les spectres rovibrationnels des bandes v2 et v5 des isotopologues du chlorure de thionyle ont été mesurés dans l'infrarouge lointain au synchroton SOLEIL et analysés en utilisant une approche semi-automatique basée sur des algorithmes évolutionnaires. Les isomères du nitrotoluène ont été ciblés pour leur intérêt défense comme traceurs d'explosif (TNT), les spectres de rotation pure ont été mesurés dans les régions micro-ondes en jet moléculaire et millimétrique à température ambiante. Le spectre millimétrique du 3-nitrotoluène était particulièrement faible et congestionné avec des splittings dus à la rotation interne très importants (jusqu'à plusieurs GHz) en raison d'une barrière de rotation très faible ( Vз=6.7659(24)cmˉ ¹). La limite de détection a été estimée et une liste de raies établie. Les spectres millimétriques des 2-nitrotoluène et 4-nitrotoluène ont également été partiellement analysés. Enfin, les méthoxyphénols émis lors de feux de biomasse ont également étudiés comme précurseurs d'aérosols organiques secondaires pour leur détection atmosphérique future. Associée à des calculs de chimie quantique, l'analyse du spectre millimétrique du 3-méthoxyphénol mesuré à température ambiante dans la région millimétrique a permis de déterminer la stabilité relative de quatre conformères. / In recent decades, molecular spectroscopy has benefited from the progress of spectrometers, particularly in terms of selectivity and sensitivity, and from the continuous advancement of the analysis methods and quantum chemistry calculations. Today, rational spectroscopy is moving towards the analysis of more complex molecular systems spectrally characterized by a high density of lines. The spectral congestion of the species studied in this thesis is not only explained by low rotational constants, but also by the presence of vibrational states excited at room temperature, a high isotopic richness, a high degree of line splitting due to large amplitude motions or by a complex conformational landscape. This thesis thus illustrates various scenarios through the studies of thionyl chloride, nitrotoluenes and methoxyphenols. The rovibrational spectra of the v2 and v5 bands of the isotopologues of thionyl chloride were measured in far-infrared at the SOLEIL synchroton and analyzed using a semi-automatic approach based on evolutionary algorithms. The isomers of nitrotoluene have been targeted for military application as explosive taggants (TNT), the pure rotation spectra were measured in the microwave region in molecular jet and in the millimeter-wave region at room temperature. The millimeter-wave spectrum of 3-nitrotoluene was especially weak and congested with very large internal rotation splittings (up to several GHz) due to a very weak rotational barrier (V3=6.7659(24)cmˉ ¹). The detection limit was estimated and a linelist established. The 2-nitrotoluene and 4-nitrotoluene millimeter-wave spectra have been also partially analyzed. Finally, methoxyphenols emitted during biomass fires have also been studied as they are secondary organic aerosol precursors for their future atmospheric detection. Combined with quantum chemistry calculations, the analysis of the millimeter-wave spectrum of the 3-methoxyphenol measured at room temperature permitted the relative stability of four conformers to be determined.
29

Optimisation avancée au service du covoiturage dynamique / Advanced optimization for the dynamic carpooling problem

Ben cheikh, Sondes 26 February 2016 (has links)
Le covoiturage se présente comme une solution de transport alternative qui vient soigner l’image environnementale, économique et sociétale de la voiture personnelle. Le problème du covoiturage dynamique consiste à élaborer en temps réel des tournées de véhicules optimisés, afin de répondre au mieux aux demandes instantanées de transport.C’est dans ce cadre que s’inscrivent nos travaux où l’optimisation et le temps réel sont les maître-mots. Étant donné la complexité exponentielle du problème, nous optons pour des méthodes approximatives pour le résoudre. Nous présentons notre première contribution en proposant une métaheuristique basée sur la recherche tabou. L'algorithme utilise un système de mémoire explicite et plusieurs stratégies de recherches développées pour éviter le piégeage par des optimums locaux. Ensuite, nous introduisons notre deuxième contribution qui se présente sous la forme d’une approche évolutionnaire supportée par un codage dynamique et basée sur des opérateurs génétiques contrôlés. La complexité exponentielle du problème nous amène à dévoiler notre troisième méthodologie, en proposant une approche évolutionnaire originale dans laquelle les chromosomes sont définis comme des agents autonomes et intelligents. Grâce à un protocole de négociation puissant, les Agents Chromosomes gèrent les opérateurs génétiques et orientent la recherche afin de trouver des solutions optimales dans un temps de calcul réduit. Dans la perspective d’une meilleure combinaison entre le covoiturage et les autres modes de transport, nous concevons un système baptisé DyCOS, intégrant nos approches et applications dédiées à la résolution du problème du covoiturage dynamique. / Carpooling is presented as an alternative transport solution that comes treat environmental image, economic and societal personal car. The dynamic carpooling problem is to develop real-time optimized touring vehicles to better respond to the instantaneous transport demands.Our work belongs within this context, where optimization and real time are the key words. Given the exponential complexity of the dynamic ridematching problem, we opt for the approximate methods to solve it. We present our first contribution by proposing a metaheuristic based on the multi-criteria tabu search. The proposed algorithm employs an explicit memory system and several searching strategies developed to avoid the entrapment by local solutions. Afterward, we introduce our second contribution which is in the form of an evolutionary approach supported by a dynamic coding and based on controlled genetic operators. However, the exponential complexity of the problem leads us to consider that a simple metaheuristics is not sufficient to solve effectively the problem of dynamic ridematching. It is with this in mind that we are unveiling our third solving methodology by developing an original evolutionary approach in which chromosomes are defined as autonomous and intelligent agents. Thanks to an accurate protocol negotiation, the Chromosomes Agents can control the genetic operators and guide search for finding optimal solutions within a reasonable period of time. With the prospect of a better combination between carpooling and other modes of transport, we design a system called DyCOS, integrating our approaches and applications dedicated to solving the problem of dynamic ridesharing.
30

Conception de métaheuristiques d'optimisation pour la segmentation d'images. Application aux images biomédicales

Nakib, Amir 05 December 2007 (has links) (PDF)
La segmentation des images est généralement l'étape la plus importante dans un système d'analyse d'images : dans l'aide au diagnostic en médecine, en navigation autonome des véhicules, etc. Toutes les tâches ultérieures de ces applications, comme l'extraction de primitives, la détection d'une position ou la reconnaissance d'un objet, dépendent fortement de la qualité de la segmentation. L'inconvénient majeur des algorithmes de segmentation actuels est leur incapacité à s'adapter aux différents types d'images. <br />L'apparition des "métaheuristiques" remonte aux années quatre-vingts. Ces algorithmes stochastiques d'optimisation globale peuvent être appliqués à tout problème, du moment qu'il est formulé sous la forme de l'optimisation de critère(s). Ces algorithmes sont inspirés par des analogies avec la physique (recuit simulé, recuit microcanonique), avec la biologie (algorithmes évolutionnaires) ou avec l'éthologie (colonies de fourmis, essaims particulaires). Ils se prêtent aussi à toutes sortes d'extensions, notamment en optimisation multiobjectif.<br />Afin de concevoir un système de segmentation qui permet d'avoir une meilleure qualité de la segmentation sur une grande variété d'images, nous formulons la segmentation comme un problème d'optimisation, mono-objectif dans un premier temps, puis multiobjectif. <br />Dans l'approche mono-objectif, nous adaptons plusieurs métaheuristiques au problème de la segmentation. Une application sur des images par résonance magnétique (IRM) cérébrales est ensuite réalisée. Cette adaptation des différentes métaheuristiques pour la segmentation nous permet de les comparer sur les plans suivants : la complexité, la vitesse de convergence, l'adaptabilité, et la reproductibilité des solutions. <br />Nous proposons ensuite une approche multiobjectif pour mieux résoudre le problème de la segmentation des images. Dans ce contexte, nous développons trois schémas de systèmes de segmentation adaptatifs : le premier est basé sur l'agrégation de critères, le second sur l'approche non-Pareto, et le troisième sur l'approche Pareto. Enfin, dans le cas particulier de la segmentation des espaces de ventricules cérébraux, nous appliquons différentes approches sur des IRM saines et d'autres pathologiques.

Page generated in 0.0981 seconds