• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 12
  • 6
  • Tagged with
  • 67
  • 67
  • 24
  • 23
  • 22
  • 21
  • 18
  • 17
  • 17
  • 15
  • 13
  • 11
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

An adaptive neighborhood search algorithm for optimizing stochastic mining complexes

Grogan, Sean 09 1900 (has links)
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique. / Metaheuristics are a useful tool within the field of discrete optimization that allow for large, complex, and difficult optimization problems to achieve a solution with a good quality in a reasonable amount of time. Often metaheuristics have many parameters that require a user to manually define and tune for a given problem. An adaptive metaheuristic aims to remove some parameters from being tuned or defined by the end user by allowing the method to specify and/or adapt a parameter or set of parameters based on the problem. The adaptive metaheuristic, using advancements in understanding of the problem being solved, machine learning, and related fields, aims to provide this more generalized and automatic toolkit for solving problems. Global optimization of mining complexes aims to schedule material movement in mines and processing streams to maximize the economic value of the system. Often due to the large number of integer variables within the model, complicated constraints, and non-linear constraints, it becomes prohibitive to solve these models using commercially available optimizers. Therefore, metaheuristics are often employed in solving mining complexes. This thesis builds upon a simulated annealing method developed by Goodfellow & Dimitrakopoulos (2016) to optimize the stochastic global mining complex. The method outlined by the authors requires many parameters to be defined to operate. One of these is how the simulated annealing algorithm searches the local neighborhood of solutions. This thesis illustrates and implements an adaptive way of searching the neighborhood for increasing the quality of a solution. Numerical results show up to a 10% increase in objective function value.
32

2D sparse array optimization and operating strategy for real-time 3D ultrasound imaging / Optimisation et pilotage de sondes parcimonieuses 2D pour l’imagerie ultrasonore 3D temps-réel

Roux, Emmanuel 29 November 2016 (has links)
Aujourd'hui l'utilisation de l'échographie 3D en cardiologie est limitée car l'imagerie de la totalité du myocarde sur un cycle cardiaque, sans apnée, reste un défi technologique. Une solution consiste à réduire le nombre de capteurs dans les sondes échographiques matricielles afin d'alléger le procédé d'acquisition: ces sondes sont dites parcimonieuses. Le but de cette thèse est de proposer les meilleures dispositions d'un nombre réduit de capteurs piézo-électriques répartis sur la surface active de la sonde afin d'optimiser leur capacité à produire des images homogènes en termes de contraste et résolution dans tout le volume d'intérêt. Ce travail présente l'intégration de simulations acoustiques réalistes élaborées au sein d'un processus d'optimisation stochastique (algorithme de recuit simulé). La structure proposée pour le design des sondes parcimonieuse est suffisamment générale pour être appliquée aux sondes régulières (éléments actifs disposés selon une grille) et non-régulières (positionnement arbitraire des éléments actifs). L'introduction d'une fonction d'énergie innovante permet de sculpter en 3D le diagramme optimal de rayonnement de la sonde. Les résultats de sondes optimisées obtenues possèdent 128, 192 ou 256 éléments pour favoriser leur compatibilité avec les échographes commercialisés à ce jour, ce qui permettrait de déployer l'échographie 3D à moindre coût et à très large échelle / Today, the use of 3D ultrasound imaging in cardiology is limited because imaging the entire myocardium on a single heartbeat, without apnea, remains a technological challenge. A solution consists in reducing the number of active elements in the 2D ultrasound probes to lighten the acquisition process: this approach leads to sparse arrays. The aim of this thesis is to propose the best configuration of a given number of active elements distributed on the probe active surface in order to maximize their ability to produce images with homogeneous contrast and resolution over the entire volume of interest. This work presents the integration of realistic acoustic simulations performed in a stochastic optimization process (simulated annealing algorithm). The proposed sparse array design framework is general enough to be applied on both on-grid (active elements located on a regular grid) and non-grid (arbitrary positioning of the active elements) arrays. The introduction of an innovative energy function sculpts the optimal 3D beam pattern radiated by the array. The obtained optimized results have 128, 192 or 256 active elements to help their compatibility with currently commercialized ultrasound scanners, potentially allowing a large scale development of 3D ultrasound imaging with low cost systems
33

Modélisation et Optimisation d’un Système de Transport à la Demande Multicritère et Dynamique / Modeling and Optimization a Dynamic and Multicriteria Dial a Ride Problem

Zidi, Issam 06 July 2012 (has links)
Le Problème de Transport à la Demande (PTD), consiste à prendre en charge le transport des personnes d'un lieu de départ vers un lieu d'arrivée. Il est caractérisé par un ensemble de demandes de transport et d'un nombre de véhicules disponible. L'ultime objectif dans ce travail de thèse est d'offrir une alternative optimisée au déplacement individuel et collectif. Le PTD est classé parmi les problèmes NP-difficile, la majorité des travaux de recherche ont été concentrés sur l'utilisation des méthodes approchées pour le résoudre.Ce problème est également multicritère, la solution proposée dans ce travail permet à la fois une réduction du temps de voyage et également de la distance parcourue. Dans cette thèse, nous proposons notre contribution à l'étude et à la résolution du problème de transport à la demande multicritère et dynamique en appliquant l'algorithme de recuit simulé multi-objectif. Une grande partie de notre travail concerne la conception, le développement et la validation des approches qui permettent de donner des solutions optimales ou quasi optimales, pour un PTD. Ces approches utilisent une méthode multicritère qui s’appuie sur l’algorithme de recuit simulé. La modélisation du PTD est représentée par une architecture multi-acteurs. Cette architecture met en évidence l’aspect distribué du système ainsi que les interactions et les relations qui peuvent avoir lieu entre les différents acteurs. Nous présentons dans ce travail un Système Multi-Agents pour la planification des itinéraires des véhicules affectés au transport des voyageurs. Les agents de ce système utilisent le module d’optimisation développé dans la première partie / The Dial a Ride Problem (DRP) is to take passengers from a place of departures to places of arrivals. Different versions of the dynamic Dial a Ride Problem are found in every day practice; transportation of people in low-density areas, transportation of the handicapped and elderly persons and parcel pick-up and delivery service in urban areas. In the DRP, customers send transportation requests to an operator. A request consists of a specified pickup location and destination location along with a desired departure or arrival time. The ultimate aim is to offer an alternative to displacement optimized individually and collectively. The DRP is classified as NP-hard problem that’s why most research has been concentrated on the use of approximate methods to solve it. Indeed the DRP is a multi-criteria problem, the proposed solution of which aims to reduce both route duration in response to a certain quality of service provided. In this thesis, we offer our contribution to the study and solving the DRP in the application using a multi agent system based on the Multi-Objective Simulated Annealing Algorithm
34

Optimisation par essaim particulaire : adaptation de tribes à l'optimisation multiobjectif / Particle swarm optimization : adaptation of tribes to the multiobjective optimization

Smairi, Nadia 06 December 2013 (has links)
Dans le cadre de l'optimisation multiobjectif, les métaheuristiques sont reconnues pour être des méthodes performantes mais elles ne rencontrent qu'un succès modéré dans le monde de l'industrie. Dans un milieu où seule la performance compte, l'aspect stochastique des métaheuristiques semble encore être un obstacle difficile à franchir pour les décisionnaires. Il est donc important que les chercheurs de la communauté portent un effort tout particulier sur la facilité de prise en main des algorithmes. Plus les algorithmes seront faciles d'accès pour les utilisateurs novices, plus l'utilisation de ceux-ci pourra se répandre. Parmi les améliorations possibles, la réduction du nombre de paramètres des algorithmes apparaît comme un enjeu majeur. En effet, les métaheuristiques sont fortement dépendantes de leur jeu de paramètres. Dans ce cadre se situe l'apport majeur de TRIBES, un algorithme mono-objectif d'Optimisation par Essaim Particulaire (OEP) qui fonctionne automatiquement,sans paramètres. Il a été mis au point par Maurice Clerc. En fait, le fonctionnement de l'OEP nécessite la manipulation de plusieurs paramètres. De ce fait, TRIBES évite l'effort de les régler (taille de l'essaim, vitesse maximale, facteur d'inertie, etc.).Nous proposons dans cette thèse une adaptation de TRIBES à l'optimisation multiobjectif. L'objectif est d'obtenir un algorithme d'optimisation par essaim particulaire multiobjectif sans paramètres de contrôle. Nous reprenons les principaux mécanismes de TRIBES auxquels sont ajoutés de nouveaux mécanismes destinés à traiter des problèmes multiobjectif. Après les expérimentations, nous avons constaté, que TRIBES-Multiobjectif est moins compétitif par rapport aux algorithmes de référence dans la littérature. Ceci peut être expliqué par la stagnation prématurée de l'essaim. Pour remédier à ces problèmes, nous avons proposé l'hybridation entre TRIBES-Multiobjectif et un algorithme de recherche locale, à savoir le recuit simulé et la recherche tabou. L'idée était d'améliorer la capacité d'exploitation deTRIBES-Multiobjectif. Nos algorithmes ont été finalement appliqués sur des problèmes de dimensionnement des transistors dans les circuits analogiques / Meta-heuristics are recognized to be successful to deal with multiobjective optimization problems but still with limited success in engineering fields. In an environment where only the performance counts, the stochastic aspect of meta-heuristics again seems to be a difficult obstacle to cross for the decision-makers. It is, thus, important that the researchers of the community concern a quite particular effort to ease the handling of those algorithms. The more the algorithms will be easily accessible for the novices, the more the use of these algorithms can spread. Among the possible improvements, reducing the number of parameters is considered as the most challenging one. In fact, the performance of meta-heuristics is strongly dependent on their parameters values. TRIBES presents an attempt to remedy this problem. In fact, it is a particle swarm optimization (PSO) algorithm that works in an autonomous way. It was proposed by Maurice Clerc. Indeed, like every other meta-heuristic, PSO requires many parameters to be fitted every time a new problem is considered. The major contribution of TRIBES is to avoid the effort of fitting them. We propose, in this thesis, an adaptation of TRIBES to the multiobjective optimization. Our aim is to conceive a competitive PSO algorithm free of parameters. We consider the main mechanisms of TRIBES to which are added new mechanisms intended to handle multiobjective problems. After the experimentations, we noticed that Multiobjective-TRIBESis not competitive compared to other multiobjective algorithms representative of the state of art. It can be explained by the premature stagnation of the swarm. To remedy these problems, we proposed the hybridization between Multiobjective-TRIBES and local search algorithms such as simulated annealing and tabu search. The idea behind the hybridization was to improve the capacity of exploitation of Multiobjective-TRIBES. Our algorithms were finally applied to sizing analogical circuits' problems
35

Représentation tridimensionnelle et reconstruction 3D à partir de coupes 2D

Rolland, Franck 09 March 1991 (has links) (PDF)
L'objectif des travaux présentés dans ce mémoire est la représentation de formes tridimensionnelles ainsi que la reconstruction tridimensionnelle a partir de coupes sériées. Après avoir défini le cadre exact de la reconstruction tridimensionnelle a partir de coupes sériées, le premier chapitre analyse les différentes étapes et les méthodes généralement employées pour effectuer cette reconstruction. Les chapitre 2 et 3 s'attachent a la description et a la représentation de formes tant bidimensionnelles que tridimensionnelles. Le chapitre 3 developpe ainsi une methode de squelettisation tridimensionnelle permettant d'obtenir un squelette filaire. Le chapitre 4 est consacre a la description de deux méthodes de reconstruction tridimensionnelle opérant par inférence de formes. La methode utilisant l'inférence structurelle de graphes de la ligne médiane est ensuite développée. Elle passe par une nécessaire étape, chapitre 5, de mise en correspondance de graphes de la ligne médiane. Différentes méthodes de mise en correspondance sont présentées, finalement la methode procédant par recherche de cliques dans un graphe est développée. La construction du graphe de mise en correspondance est tout d'abord présentée, ensuite la recherche de cliques est abordée a l'aide de méthodes heuristiques de parcours (recuit simule et algorithmes génétiques). Le chapitre 6 développe le processus d'inférence de graphes de la ligne médiane mis en œuvre, il permet d'inférer des coupes intermediaires qui sont empilées pour finalement donner le volume tridimensionnel recherche. Le chapitre 7 est consacre a la présentation des divers résultats et de leurs conséquences, il présenté aussi d'autres applications possibles des différentes techniques developpees
36

Extraction de réseaux linéiques à partir d'images satellitaires et aériennes par processus ponctuels marqués

Lacoste, Caroline 30 September 2004 (has links) (PDF)
Cette thèse aborde le problème de l'extraction non supervisée des réseaux linéiques (routes, rivières, etc.) à partir d'images satellitaires et aériennes. Nous utilisons des processus objet, ou processus ponctuels marqués, comme modèles a priori. Ces modèles permettent de bénéficier de l'apport d'un cadre stochastique (robustesse au bruit, corpus algorithmique, etc.) tout en manipulant des contraintes géométriques fortes. Un recuit simulé sur un algorithme de type Monte Carlo par Chaîne de Markov (MCMC) permet une optimisation globale sur l'espace des configurations d'objets, indépendamment de l'initialisation.<br />Nous proposons tout d'abord une modélisation du réseau linéique par un processus dont les objets sont des segments interagissant entre eux. Le modèle a priori est construit de façon à exploiter au mieux la topologie du réseau recherche au travers de potentiels fondés sur la qualité de chaque interaction. Les propriétés radiométriques sont prises en compte dans un terme d'attache aux données fondé sur des mesures statistiques.<br />Nous étendons ensuite cette modélisation à des objets plus complexes. La manipulation de lignes brisées permet une extraction plus précise du réseau et améliore la détection des bifurcations.<br />Enfin, nous proposons une modélisation hiérarchique des réseaux hydrographiques dans laquelle les affluents d'un fleuve sont modélisés par un processus de lignes brisées dans le voisinage de ce fleuve.<br />Pour chacun des modèles, nous accélérons la convergence de l'algorithme MCMC par l'ajout de perturbations adaptées.<br />La pertinence de cette modélisation par processus objet est vérifiée sur des images satellitaires et aériennes, optiques et radar.
37

Conception de métaheuristiques d'optimisation pour la segmentation d'images. Application aux images biomédicales

Nakib, Amir 05 December 2007 (has links) (PDF)
La segmentation des images est généralement l'étape la plus importante dans un système d'analyse d'images : dans l'aide au diagnostic en médecine, en navigation autonome des véhicules, etc. Toutes les tâches ultérieures de ces applications, comme l'extraction de primitives, la détection d'une position ou la reconnaissance d'un objet, dépendent fortement de la qualité de la segmentation. L'inconvénient majeur des algorithmes de segmentation actuels est leur incapacité à s'adapter aux différents types d'images. <br />L'apparition des "métaheuristiques" remonte aux années quatre-vingts. Ces algorithmes stochastiques d'optimisation globale peuvent être appliqués à tout problème, du moment qu'il est formulé sous la forme de l'optimisation de critère(s). Ces algorithmes sont inspirés par des analogies avec la physique (recuit simulé, recuit microcanonique), avec la biologie (algorithmes évolutionnaires) ou avec l'éthologie (colonies de fourmis, essaims particulaires). Ils se prêtent aussi à toutes sortes d'extensions, notamment en optimisation multiobjectif.<br />Afin de concevoir un système de segmentation qui permet d'avoir une meilleure qualité de la segmentation sur une grande variété d'images, nous formulons la segmentation comme un problème d'optimisation, mono-objectif dans un premier temps, puis multiobjectif. <br />Dans l'approche mono-objectif, nous adaptons plusieurs métaheuristiques au problème de la segmentation. Une application sur des images par résonance magnétique (IRM) cérébrales est ensuite réalisée. Cette adaptation des différentes métaheuristiques pour la segmentation nous permet de les comparer sur les plans suivants : la complexité, la vitesse de convergence, l'adaptabilité, et la reproductibilité des solutions. <br />Nous proposons ensuite une approche multiobjectif pour mieux résoudre le problème de la segmentation des images. Dans ce contexte, nous développons trois schémas de systèmes de segmentation adaptatifs : le premier est basé sur l'agrégation de critères, le second sur l'approche non-Pareto, et le troisième sur l'approche Pareto. Enfin, dans le cas particulier de la segmentation des espaces de ventricules cérébraux, nous appliquons différentes approches sur des IRM saines et d'autres pathologiques.
38

Etude du couvert forestier par processus ponctuels marqués

Perrin, Guillaume 02 October 2006 (has links) (PDF)
Cette thèse aborde le problème de l'extraction d'arbres à partir d'images aériennes InfraRouge Couleur (IRC) de forêts. Nos modèles reposent sur l'utilisation de processus objets ou processus ponctuels marqués. Il s'agit de variables aléatoires dont les réalisations sont des configurations d'objets géométriques. Une fois l'objet géométrique de référence choisi, nous définissons l'énergie du processus par le biais d'un terme a priori, modélisant les contraintes sur les objets et leurs interactions, ainsi qu'un terme image. Nous échantillonnons le processus objet grâce à un algorithme de type Monte Carlo par Chaînes de Markov à sauts réversibles (RJMCMC), optimisé par un recuit simulé afin d'extraire la meilleure configuration d'objets, qui nous donne l'extraction recherchée.<br /><br />Dans ce manuscrit, nous proposons différents modèles d'extraction de houppiers, qui extraient des informations à l'échelle de l'arbre selon la densité du peuplement. Dans les peuplements denses, nous présentons un processus d'ellipses, et dans les zones de plus faible densité, un processus d'ellipsoïdes. Nous obtenons ainsi le nombre d'arbres, leur localisation, le diamètre de la couronne et leur hauteur pour les zones non denses. Les algorithmes automatiques résultant de cette modélisation sont testés sur des images IRC très haute résolution fournies par l'Inventaire Forestier National (IFN).
39

Estimation des caractéristiques du mouvement humain en station debout. Mise en œuvre d'observateurs flous sous forme descripteur

GUELTON, Kevin 16 December 2003 (has links) (PDF)
La neurophysiologie et la biomécanique constituent deux approches complémentaires à la compréhension globale de la régulation posturale. Le corps humain est considéré comme un système mécanique poly-articulé régulé par le système nerveux central. Ses entrées sont les couples articulaires et ses sorties les positions des segments corporels. Au vu des stratégies posturales employées en station debout, un modèle non linéaire en double pendule inversé est adopté. Il dépend de paramètres pouvant être estimés par des tables anthropométriques standards. Pour ajuster le modèle à un individu particulier, un recuit simulé est utilisé. Les couples articulaires sont classiquement estimés par des techniques de dynamique inverse sensibles aux incertitudes de mesure. Une méthode alternative issue du domaine de l'automatique, basée l'utilisation d'observateurs à entrées inconnues, est proposée. L'étude d'une classe d'observateurs flous de type Takagi-Sugeno basés sur une forme descripteur est proposée. Les conditions de convergence sont obtenues par une fonction de Lyapunov quadratique et peuvent être conservatives. Quatre approches, admettant une écriture sous la forme de problèmes LMI ou BMI, sont alors proposées afin de relâcher ces conditions. La mise en œuvre d'un observateur flou à entrées inconnues dans le cas de l'homme en station debout est proposée. Les résultats obtenus sont confrontés à ceux des différentes approches de la dynamique inverse. L'observateur flou semble mieux adapté à l'estimation des caractéristiques du mouvement en station debout. De plus son caractère temps réel est souligné et conduit à de nombreuses perspectives en rééducation.
40

Imagerie de Réflecteurs Electromagnétiques en Régime Diffusif : Méthode et Applications en Géophysique

Tournerie, Benoît 01 December 1995 (has links) (PDF)
L'imagerie électromagnétique basses fréquences développée actuellement essaie de reconstruire, à partir de données de terrain, la loi de conductivité s(r) de la zone étudiée. On montre que cette approche est similaire à l'imagerie des vitesses sismiques. Ces méthodes n'offrent généralement pas la possibilité de cartographier précisément les limites des objets étudiés. L'objet de cette étude a été de développer une méthode d'imagerie permettant de visualiser des interfaces séparant deux milieux de conductivité différente. Afin de benéficier des connaissances du domaine sismique, nous avons abordé le problème par l'étude de la transformation d'un champ diffusif en un dual propagatif. Ce lien est réalisé via une équation intégrale de Fredholm de première espèce que l'on doit inverser. Deux approches ont été suivies. La première consiste à trouver une solution à cette équation par décomposition en fonctions et valeurs propres de l'opérateur d'intégration. Celle-ci nous ci permis de rendre compte du caractère mal posé de l'inversion face à des données bruitées et/ou incomplètes,et ainsi, de préciser l'importance d'introduire des informations a priori sur le modele pour régulariser le problème inverse. Dans la seconde approche, nous avons développé une inversion numérique de l'équation intégrale. Nous avons utilisé un algorithme de recuit simulé couplé avec la méthode de descente du simplexe. La réunion de ces deux méthodes nous permet d'explorer le domaine continu des solutions. Des données synthétiques 10 et 20 ont été traitées (l'inversion 20 se fait par juxtaposition d'inversions 10). Les résultats de ces inversions montrent que la position des réflecteurs est résolue correctement (tout du moins pour les premiers d'entre eux). Ceci est très important pour le développement futur d'une migration des images obtenues. La loi de conductivité s(r) peut être estimée approximativement à partir des amplitudes des réflecteurs. Une application de cette méthode d'imagerie a été réalisée sur des données enregistrées au Canada (données Coprod2 fournies par A. Jones (Geological Survey of Canada)). L'inversion séparée des données des deux modes de polarisations TE et TM nous montre la présence d'un premier réflecteur s'interprétant comme la limite entre le Paléozoïque supérieur et inférieur, et d'un second, plus profond, représentant le sommet d'un bloc conducteur sans doute à l'origine de l'anomalie de conductivité NACP (North American Central Plain) préalablement identifiée par des données GDS (Geomagnetic Oeep Sounding). Une seconde application traite des données que nous avons recueillies sur le terrain le long d'un profil de sismique réflexion en Bretagne (France). Les résultats préliminaires de l'analyse des résistivités apparentes et des phases de la partie nord du profil met en évidence deux zones situées de part et d'autre du contact de la Baie de la Fresnaye avec des contrastes en conductivité opposés: Résistant sur Conducteur (R/C) au nord du contact et Conducteur sur Résistant (C/R) au sud.

Page generated in 0.0296 seconds