• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 20
  • 1
  • Tagged with
  • 46
  • 46
  • 17
  • 15
  • 14
  • 10
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Development of a GIS-based method for sensor network deployment and coverage optimization

Argany, Meysam 23 April 2018 (has links)
Au cours des dernières années, les réseaux de capteurs ont été de plus en plus utilisés dans différents contextes d’application allant de la surveillance de l’environnement au suivi des objets en mouvement, au développement des villes intelligentes et aux systèmes de transport intelligent, etc. Un réseau de capteurs est généralement constitué de nombreux dispositifs sans fil déployés dans une région d'intérêt. Une question fondamentale dans un réseau de capteurs est l'optimisation de sa couverture spatiale. La complexité de l'environnement de détection avec la présence de divers obstacles empêche la couverture optimale de plusieurs zones. Par conséquent, la position du capteur affecte la façon dont une région est couverte ainsi que le coût de construction du réseau. Pour un déploiement efficace d'un réseau de capteurs, plusieurs algorithmes d'optimisation ont été développés et appliqués au cours des dernières années. La plupart de ces algorithmes reposent souvent sur des modèles de capteurs et de réseaux simplifiés. En outre, ils ne considèrent pas certaines informations spatiales de l'environnement comme les modèles numériques de terrain, les infrastructures construites humaines et la présence de divers obstacles dans le processus d'optimisation. L'objectif global de cette thèse est d'améliorer les processus de déploiement des capteurs en intégrant des informations et des connaissances géospatiales dans les algorithmes d'optimisation. Pour ce faire, trois objectifs spécifiques sont définis. Tout d'abord, un cadre conceptuel est développé pour l'intégration de l'information contextuelle dans les processus de déploiement des réseaux de capteurs. Ensuite, sur la base du cadre proposé, un algorithme d'optimisation sensible au contexte local est développé. L'approche élargie est un algorithme local générique pour le déploiement du capteur qui a la capacité de prendre en considération de l'information spatiale, temporelle et thématique dans différents contextes d'applications. Ensuite, l'analyse de l'évaluation de la précision et de la propagation d'erreurs est effectuée afin de déterminer l'impact de l'exactitude des informations contextuelles sur la méthode d'optimisation du réseau de capteurs proposée. Dans cette thèse, l'information contextuelle a été intégrée aux méthodes d'optimisation locales pour le déploiement de réseaux de capteurs. L'algorithme développé est basé sur le diagramme de Voronoï pour la modélisation et la représentation de la structure géométrique des réseaux de capteurs. Dans l'approche proposée, les capteurs change leur emplacement en fonction des informations contextuelles locales (l'environnement physique, les informations de réseau et les caractéristiques des capteurs) visant à améliorer la couverture du réseau. La méthode proposée est implémentée dans MATLAB et est testée avec plusieurs jeux de données obtenus à partir des bases de données spatiales de la ville de Québec. Les résultats obtenus à partir de différentes études de cas montrent l'efficacité de notre approche. / In recent years, sensor networks have been increasingly used for different applications ranging from environmental monitoring, tracking of moving objects, development of smart cities and smart transportation system, etc. A sensor network usually consists of numerous wireless devices deployed in a region of interest. A fundamental issue in a sensor network is the optimization of its spatial coverage. The complexity of the sensing environment with the presence of diverse obstacles results in several uncovered areas. Consequently, sensor placement affects how well a region is covered by sensors as well as the cost for constructing the network. For efficient deployment of a sensor network, several optimization algorithms are developed and applied in recent years. Most of these algorithms often rely on oversimplified sensor and network models. In addition, they do not consider spatial environmental information such as terrain models, human built infrastructures, and the presence of diverse obstacles in the optimization process. The global objective of this thesis is to improve sensor deployment processes by integrating geospatial information and knowledge in optimization algorithms. To achieve this objective three specific objectives are defined. First, a conceptual framework is developed for the integration of contextual information in sensor network deployment processes. Then, a local context-aware optimization algorithm is developed based on the proposed framework. The extended approach is a generic local algorithm for sensor deployment, which accepts spatial, temporal, and thematic contextual information in different situations. Next, an accuracy assessment and error propagation analysis is conducted to determine the impact of the accuracy of contextual information on the proposed sensor network optimization method. In this thesis, the contextual information has been integrated in to the local optimization methods for sensor network deployment. The extended algorithm is developed based on point Voronoi diagram in order to represent geometrical structure of sensor networks. In the proposed approach sensors change their location based on local contextual information (physical environment, network information and sensor characteristics) aiming to enhance the network coverage. The proposed method is implemented in MATLAB and tested with several data sets obtained from Quebec City spatial database. Obtained results from different case studies show the effectiveness of our approach.
22

Multi-criteria optimization algorithms for high dose rate brachytherapy

Cui, Songye 08 November 2019 (has links)
L’objectif général de cette thèse est d’utiliser les connaissances en physique de la radiation, en programmation informatique et en équipement informatique à la haute pointe de la technologie pour améliorer les traitements du cancer. En particulier, l’élaboration d’un plan de traitement en radiothérapie peut être complexe et dépendant de l’utilisateur. Cette thèse a pour objectif de simplifier la planification de traitement actuelle en curiethérapie de la prostate à haut débit de dose (HDR). Ce projet a débuté à partir d’un algorithme de planification inverse largement utilisé, la planification de traitement inverse par recuit simulé (IPSA). Pour aboutir à un algorithme de planification inverse ultra-rapide et automatisé, trois algorithmes d’optimisation multicritères (MCO) ont été mis en oeuvre. Suite à la génération d’une banque de plans de traitement ayant divers compromis avec les algorithmes MCO, un plan de qualité a été automatiquement sélectionné. Dans la première étude, un algorithme MCO a été introduit pour explorer les frontières de Pareto en curiethérapie HDR. L’algorithme s’inspire de la fonctionnalité MCO intégrée au système Raystation (RaySearch Laboratories, Stockholm, Suède). Pour chaque cas, 300 plans de traitement ont été générés en série pour obtenir une approximation uniforme de la frontière de Pareto. Chaque plan optimal de Pareto a été calculé avec IPSA et chaque nouveau plan a été ajouté à la portion de la frontière de Pareto où la distance entre sa limite supérieure et sa limite inférieure était la plus grande. Dans une étude complémentaire, ou dans la seconde étude, un algorithme MCO basé sur la connaissance (kMCO) a été mis en oeuvre pour réduire le temps de calcul de l’algorithme MCO. Pour ce faire, deux stratégies ont été mises en oeuvre : une prédiction de l’espace des solutions cliniquement acceptables à partir de modèles de régression et d’un calcul parallèle des plans de traitement avec deux processeurs à six coeurs. En conséquence, une banque de plans de traitement de petite taille (14) a été générée et un plan a été sélectionné en tant que plan kMCO. L’efficacité de la planification et de la performance dosimétrique ont été comparées entre les plans approuvés par le médecin et les plans kMCO pour 236 cas. La troisième et dernière étude de cette thèse a été réalisée en coopération avec Cédric Bélanger. Un algorithme MCO (gMCO) basé sur l’utilisation d’un environnement de développement compatible avec les cartes graphiques a été mis en oeuvre pour accélérer davantage le calcul. De plus, un algorithme d’optimisation quasi-Newton a été implémenté pour remplacer le recuit simulé dans la première et la deuxième étude. De cette manière, un millier de plans de traitement avec divers compromis et équivalents à ceux générés par IPSA ont été calculés en parallèle. Parmi la banque de plans de traitement généré par l’agorithme gMCO, un plan a été sélectionné (plan gMCO). Le temps de planification et les résultats dosimétriques ont été comparés entre les plans approuvés par le médecin et les plans gMCO pour 457 cas. Une comparaison à grande échelle avec les plans approuvés par les radio-oncologues montre que notre dernier algorithme MCO (gMCO) peut améliorer l’efficacité de la planification du traitement (de quelques minutes à 9:4 s) ainsi que la qualité dosimétrique des plans de traitements (des plans passant de 92:6% à 99:8% selon les critères dosimétriques du groupe de traitement oncologique par radiation (RTOG)). Avec trois algorithmes MCO mis en oeuvre, cette thèse représente un effort soutenu pour développer un algorithme de planification inverse ultra-rapide, automatique et robuste en curiethérapie HDR. / The overall purpose of this thesis is to use the knowledge of radiation physics, computer programming and computing hardware to improve cancer treatments. In particular, designing a treatment plan in radiation therapy can be complex and user-dependent, and this thesis aims to simplify current treatment planning in high dose rate (HDR) prostate brachytherapy. This project was started from a widely used inverse planning algorithm, Inverse Planning Simulated Annealing (IPSA). In order to eventually lead to an ultra-fast and automatic inverse planning algorithm, three multi-criteria optimization (MCO) algorithms were implemented. With MCO algorithms, a desirable plan was selected after computing a set of treatment plans with various trade-offs. In the first study, an MCO algorithm was introduced to explore the Pareto surfaces in HDR brachytherapy. The algorithm was inspired by the MCO feature integrated in the Raystation system (RaySearch Laboratories, Stockholm, Sweden). For each case, 300 treatment plans were serially generated to obtain a uniform approximation of the Pareto surface. Each Pareto optimal plan was computed with IPSA, and each new plan was added to the Pareto surface portion where the distance between its upper boundary and its lower boundary was the largest. In a companion study, or the second study, a knowledge-based MCO (kMCO) algorithm was implemented to shorten the computation time of the MCO algorithm. To achieve this, two strategies were implemented: a prediction of clinical relevant solution space with previous knowledge, and a parallel computation of treatment plans with two six-core CPUs. As a result, a small size (14) plan dataset was created, and one plan was selected as the kMCO plan. The planning efficiency and the dosimetric performance were compared between the physician-approved plans and the kMCO plans for 236 cases. The third and final study of this thesis was conducted in cooperation with Cédric Bélanger. A graphics processing units (GPU) based MCO (gMCO) algorithm was implemented to further speed up the computation. Furthermore, a quasi-Newton optimization engine was implemented to replace simulated annealing in the first and the second study. In this way, one thousand IPSA equivalent treatment plans with various trade-offs were computed in parallel. One plan was selected as the gMCO plan from the calculated plan dataset. The planning time and the dosimetric results were compared between the physician-approved plans and the gMCO plans for 457 cases. A large-scale comparison against the physician-approved plans shows that our latest MCO algorithm (gMCO) can result in an improved treatment planning efficiency (from minutes to 9:4 s) as well as an improved treatment plan dosimetric quality (Radiation Therapy Oncology Group (RTOG) acceptance rate from 92.6% to 99.8%). With three implemented MCO algorithms, this thesis represents a sustained effort to develop an ultra-fast, automatic and robust inverse planning algorithm in HDR brachytherapy.
23

Optimisation de l'ingénierie de réseaux manufacturiers

Paquet, Marc 12 April 2018 (has links)
La tendance actuelle est à la restructuration rapide des entreprises. Dans un contexte dynamique, ces entreprises doivent être en mesure de s'adapter rapidement aux changements s'opérant dans leur environnement. Ces changements se répercutent presqu'assurément sur leur réseau logistique. L'analyse des stratégies de production, qui incluent les technologies à privilégier ainsi que la capacité requise des processeurs et de la main d'œuvre, doit être effectuée de plus en plus fréquemment afin de permettre aux entreprises de demeurer compétitives. Ces stratégies doivent être flexibles et robustes dans le but de favoriser les réorganisations souhaitées. Cette thèse propose des outils mathématiques d'aide à la réingénierie de réseaux manufacturiers dont le but est de faciliter la prise de décision de la part des entreprises subissant ce type de pressions. Ces outils fournissent des indicateurs de performance afin d'aider efficacement ces entreprises. De plus, ils permettent de réaliser différentes analyses en considérant des scénarios probables et de les comparer. Enfin, les alternatives fournies par ces outils permettent d'obtenir de l'information pertinente a l'étude du réseau manufacturier et ce, dans des délais raisonnables. Trois différents modèles mathématiques de programmation linéaires en nombres entiers sont développés dans le cadre de cette thèse et font office d'outils d'aide à la décision. Les modèles proposés intègrent des aspects complexes que les outils conventionnels ne sont pas en mesure de considérer adéquatement. En effet, ce type de modèle devient rapidement très complexe et difficile à résoudre. Les éléments considérés incluent la localisation des sites de production et leur organisation, le choix et les habiletés des processeurs et de la main d'œuvre et le temps de réponse et le niveau de service offerts aux clients dans un contexte de maximisation des profits dans le cas du dernier modèle. Différentes techniques avancées de recherche opérationnelle ont été investiguées. Notons les approches de décomposition et les techniques accélératrices comme l'ajout de coupes d'optimalité valides. Les résultats obtenus d'après le contexte des expérimentations réalisées démontrent la valeur managériale des outils proposés. Enfin, différentes perspectives de travail intéressantes sont soulevées, favorisant les avancées dans ce domaine de recherche motivant et en pleine ébullition. / Today's enterprises need fast reorganizations. In a dynamic context, enterprises must be able to quickly adapt to environment changes. Moreover, these changes generally reflect on their supply chain. Site selection and production strategies, including technology choices and capacity planning of processors and workers, must be analyzed more frequently in order for the enterprise to remain competitive. These strategies must be flexible and robust in order to support reorganizations of the enterprise. The thesis proposes a set of mathematical tools which aim to help enterprises in the design of their manufacturing networks. The objective of theses tools is to facilitate decision making for enterprises in this context. They provide a means for assessing through key performance indicators the impact of a manufacturing network on the competitiveness of the enterprise. They enable the analysis and comparison of actual versus proposed alternative network designs. They also provide a means for generating in satisfying time sets of realistic optimized alternatives. Mixed integer linear programming models are developed and act as decision-support tools. These models integrate complex aspects that conventional tools are not able to consider adequately. Actually, these models are difficult to solve. Many advanced techniques of operations research were investigated and implemented in this thesis, including decomposition methods and accelerative techniques, like the addition of valid cuts. The results obtained by experimentation show the value of these models as managerial tools. Interesting avenues of research were raised supporting the development of this motivating field of research.
24

Bénéfices et exigences de l'optimisation mathématique pour la planification de l'allocation du bois aux usines de produits forestiers

Auger, Maxime 24 April 2018 (has links)
La planification des approvisionnements représente un grand un défi pour l’industrie forestière, surtout dans le contexte où la forêt naturelle est caractérisée par une grande hétérogénéité de la matière première servant à générer différents produits. Ainsi, l’élaboration de plans pour répondre à la demande des usines devient un problème complexe pour les planificateurs forestiers. La planification automatisée faisant usage d’outils d’optimisation permet de tenir compte de plusieurs facteurs importants pour la planification. Dans la littérature, plusieurs modèles théoriques ont été proposés, mais il semble que très peu de ces modèles soient actuellement utilisés par les entreprises. On suppose que la complexité du problème, l’environnement naturel en constante évolution, de même que l’expertise nécessaire pour utiliser ces modèles limitent leur application dans un contexte industriel. Néanmoins, la mise en œuvre de ces outils pourrait améliorer significativement le bénéfice des entreprises forestières. Les objectifs de l’étude sont (i) évaluer le potentiel d'implantation de l'optimisation mathématique en entreprise, notamment en identifiant les ressources supplémentaires nécessaires à l’adoption d’une telle approche (ii) estimer les bénéfices et avantages d'utiliser l'optimisation mathématique pour soutenir les décisions de planification dans un contexte industriel (iii) analyser l’effet d’une variation dans les informations utilisées pour la confection des plans. Le logiciel d’optimisation LogiLab, développé par le consortium de recherche FORAC, a été utilisé en support à cette étude. L’outil permet de maximiser le profit généré dans la chaîne d’approvisionnement grâce à une allocation optimale de la matière première vers les usines du réseau. Le modèle considère simultanément la récolte, le transport, l’hétérogénéité de la forêt et la performance des usines. Dans ce projet, nous avons adapté LogiLab pour permettre son application dans une étude de cas visant une entreprise de produits forestiers canadienne. Nous avons ensuite analysé les bénéfices générés et évalué le potentiel de mise en œuvre. Pour réaliser le deuxième objectif, nous avons étudié la méthode de planification actuelle de l’entreprise partenaire, pour ensuite la comparer à l’approche d’optimisation utilisée pour générer le plan optimal. Finalement, nous avons ajusté les données d’inventaires de départ en utilisant des données réelles provenant du mesurage pour tester l’effet de la variabilité des informations utilisées dans le développement des plans. L’approche de planification optimisée a permis de générer un bénéfice net plus élevé que la méthode de planification actuelle en entreprise. Cette différence est en partie due à une allocation plus efficace de la matière première aux usines. En ce qui concerne le deuxième objectif, plusieurs avantages ont été identifiés, notamment la réduction du temps nécessaire pour produire un plan. En outre, même si le coût de la mise en œuvre est élevé, ces dépenses supplémentaires sont récupérées en moins de deux ans dus à l’économie de temps associée à la réalisation de la planification. De plus, les gains générés suite à l’utilisation des plans optimisés dépassent largement les coûts initiaux liés à la mise en place du système. / Supply planning is a significant challenge for the forest industry, particularly in natural forests characterized by great heterogeneity. Such forests produce raw material suitable for different final products. Thus, developing plans to match supply with demand becomes a complex problem for forest planners. The automatization of the planning approach using an optimization tool allows many important factors to be taken into consideration during planning. In the literature, several theoretical models have been proposed, but it appears that very few of these are currently used by companies. It is assumed that the complexity of the problem, the ever changing nature of the planning environment, and the expertise required to use these models limit their application in industrial context. Nevertheless, the implementation of such tools could bring significant improvements in profits for the forest companies. The aims of the study are threefold : (i) to evaluate the potential for the implementation of mathematical optimization in companies, in particular by identifying the additional resources needed to adopt such an approach, (ii) to estimate the potential gains associated with utilization of optimization model in formulating wood procurement planning in an industrial case, and (iii) to analyze the effect of variation in the information used could have on the plans. An optimization software (LogiLab) developed by the FORAC research consortium was used. The tool allows to maximize the profit generated on the entire supply chain through optimal allocation of raw materials to mills in the network. The model simultaneously considers both harvesting and transportation cost, the heterogeneity of the forest and mill performances. The planning done now in companies visually focuses on lower transportation distance. We adapted LogiLab to a case study involving a Canadian forest products company, to analyze the generated profits, and assess its potential for implementation. To realize the second objective, we studied the planning method of our Partner Company and compared it to the optimization approach that we used for generating the optimal plan. Finally, we adjusted the baseline inventory data using actual data from the measurement to test the effect of the variability of the information used in developing the plans. A higher net profit was generated when using our planning approach in comparison to the plan prepared by the company. This difference is due, in part, to a more efficient allocation of raw materials to the mills. With regards to the second objective, we found several advantages such as a reduction in the time needed to produce a plan. Moreover, even if the cost of implementation is high they are recovered in less than two years by savings in planning time. The gains generated following the optimized plans exceed by several orders of magnitude the initial costs of the system to be set up.
25

Optimisation directe de machines électriques synchrones à aimants permanents fonctionnant à haute vitesse

Grenier, Jean-Michel 28 June 2024 (has links)
La conception d'une machine haute vitesse est un problème multiphysique très complexe. Les contraintes mécaniques au rotor sont très élevées et la dynamique du rotor ne peut pas être négligée sinon les vibrations excessives risquent de détruire la machine. Même les pertes aérodynamiques créées par le frottement entre le rotor et l'air dans l'entrefer ne peuvent être négligées. La vitesse élevée implique également une fréquence électrique très élevée et donc des problèmes de pertes additionnelles dans le bobinage, de pertes fer, de pertes par courant de Foucault au rotor et de pertes de commutation dans les composantes de puissance de l'onduleur. Les pertes par courant de foucault au rotor, par exemple, augmentent la température des aimants risquant ainsi d'altérer leur performance ou même de les démagnétiser. Le concepteur doit faire preuve d'ingéniosité pour trouver des solutions et des compromis entre ces nombreux problèmes tout en considérant les couplages multiphysiques entre les modèles. Par exemple, l'augmentation de la fréquence de hachage permet la réduction des pertes par courant de foucault au rotor, mais augmente les pertes par commutation dans l'onduleur d'où la nécessité de l'atteinte d'un premier compromis. Les machines synchrones à aimants permanents montés en surface étant des machines prometteuses pour fonctionner à des vitesses et densités de puissance élevées, l'objectif du présent travail de recherche est de développer un outil de CAO adapté à ce type de machine et d'en déduire des règles de conception. Le calcul de champs 2D magnétostatique et magnétoharmonique est directement piloté par un algorithme d'optimisation pour permettre une estimation précise des paramètres les plus complexes à modéliser pour des espaces de conception et des topologies variés. Une étude comparative de moteurs optimisés pour différentes vitesses et densités de puissance a permis de déduire des règles de conception comme le choix du nombre de pôles et l'équilibre entre les pertes cuivre et les pertes fer. Le **Chapitre 1** traite de l'état de l'art actuel de la conception de machines haute vitesse. Les différents défis de conception et de réalisation sont exposés et discutés ainsi que les principales solutions possibles. Le **Chapitre 2** présente différents modèles adaptés aux machines haute vitesse permettant d'aider le concepteur dans son processus. L'implantation de la méthode de conception directe par calcul de champs à l'aide de MATLAB, PYTHON et CEDRAT FLUX est exposé dans le **Chapitre 3** alors que son utilisation pour l'obtention de règles de conception et son application sur un générateur de 80kW fonctionnant à 70000 rpm sont traités au **Chapitre 4**. Finalement, le **Chapitre 5** traite des différentes solutions aux problèmes majeurs des pertes dans les aimants. / Conception of a high-speed electrical machine is a complex multiphisics problem. Mechanical constraints in the rotor are high and rotor dynamics cannot be neglected otherwise excessive vibrations could destroy the machine. Even aerodynamic losses caused by friction between the rotor and the air in the air gap cannot be neglected. High-speed also implies high electrical frequency and therefore additional losses in the windings, iron losses, losses in the rotor et switching losses in power electronics. Rotor losses, for example, raise the temperature of the magnets and may alter their performance or even demagnetize them. The designer must therefore show ingenuity to find solutions and compromises between these numerous problems while considering the multiphysics couplings. For example, increasing switching frequency of the inverter allows the reduction of rotor losses, but increases switching losses in power components, hence the need to reach a compromise. Since Surface Mounted Permanent Magnet synchronous (SMPM) machines are promising for operating at high speeds and power density, the aim of this research is to develop an optimization process adapted to this type of machine that makes it possible to deduce design rules. Parametric magnetodynamic and magneto-harmonic FEA simulations are directly driven by an optimization algorithm to allow accurate estimation of parameters that are difficult to evaluate for various design spaces and topologies. A comparative study of motors optimized for different speeds and power density made it possible to deduce design rules such as the choice of the number of poles and the balance between copper losses and iron losses. First, Chapter 1 introduces the current state of the art for high-speed machines designs. Various design and fabrication challenges are discussed as well as popular solutions. Chapter 2 shows models adapted to high-speed machines to help the designer in his process. Implementation of the optimization process by direct field calculation using MATLAB, PYTHON and CEDRAT FLUX is shown in chapter 3 while its use for obtaining design rules and its application for an 80 kW generator are in chapter 4. Finally, a few solutions for magnet losses are studied in chapter 5.
26

Résolution par éléments finis du problème de contact unilatéral par des méthodes d'optimisation convexe

Youbissi, Fabien Mesmin 11 April 2018 (has links)
Malgré de nombreux travaux sur le sujet, la résolution des problèmes de contact constitue encore un défi pour le numéricien. Il existe deux types de problèmes de contact : soit le contact unilatéral et le contact frottant. Dans cette thèse, nous allons uniquement considérer le contact unilatéral. De plus, nous allons nous limiter au cas de l'élasticité linéaire. Malgré ces hypothèses, les principales difficultés du problème en grandes déformations y sont présentes. La difficulté majeure provient de la non différentiabilité engendrée par la contrainte d'inéquation du contact. Plusieurs auteurs utilisent des méthodes de régularisation afin d'obtenir un problème différentiable soluble par l'algorithme de Newton. Nous croyons que cette stratégie pose problème et qu'il est préférable de traiter le problème directement à partir de l'inéquation variationnelle. Dans la thèse, nous allons proposer plusieurs stratégies de résolution par éléments finis du problème de contact unilatéral. Tous les algorithmes sont basés sur les méthodes puissantes et efficaces de l'optimisation convexe. En premier lieu, on propose un algorithme de type gradient conjugué avec projection sur le cône positif. Cet algorithme baptisé GCP, s'est révélé fort efficace dans le cas du contact entre un solide déformable et une fondation rigide. On propose aussi un algorithme ALG3 basé sur une formulation à trois champs du problème de contact résolu par la méthode du Lagrangien Augmenté. Finalement on propose un algorithme ALGCP qui combine à la fois l'approche du Lagrangien Augmenté ainsi que la méthode du Gradient Conjugué Projeté (GCP). Les résultats numériques montreront la supériorité de ALG3 pour les problèmes de contact unilatéral à plusieurs corps.
27

Description, déploiement et optimisation de chaînes de traitements d'analyse d'images médicales sur grilles de production

Glatard, Tristan 20 November 2007 (has links) (PDF)
En permettant le partage à grande échelle de données et d'algorithmes et en fournissant une quantité importante de puissance de calcul et de stockage, les grilles de calcul sont des plates-formes intéressantes pour les applications d'analyse d'images médicales. Dans cette thèse, nous étudions un problème d'analyse d'images médicales qui s'avère être une application dimensionnante pour les grilles, conduisant au développement de nouvelles méthodes et outils pour la description, l'implémentation et l'optimisation de flots de traitements. Le problème applicatif étudié est l'évaluation de la précision d'algorithmes de recalage d'images médicales en l'absence de vérité terrain. Nous faisons passer à l'échelle une méthode statistique d'évaluation de ces algorithmes et nous montrons des résultats de précision sur une base de données liée au suivi de la radiothérapie du cerveau. Ces résultats permettent notamment de détecter des défauts très légers au sein des données. Nous étendons ce schéma pour quantifier l'impact de la compression des images sur la qualité du recalage. Cette application étant représentative de problèmes typiques survenant sur les grilles, nous nous attachons à son déploiement et à son exécution sur ce type d'infrastructures. Pour faciliter une parallélisation transparente, nous adoptons un modèle générique de flots de traitements, dont nous proposons une nouvelle taxonomie. Pour répondre aux limitations de performance des moteurs d'exécution de flots existants, nous présentons MOTEUR, qui permet d'exploiter les différents types de parallélisme inhérents à ces applications. La définition d'un nouvel opérateur de composition de données facilite la description des applications d'analyse d'images médicales sur les grilles. Par une comparaison entre la grille de production EGEE et des grappes dédiées de Grid'5000, nous mettons en évidence l'importance de la variabilité de la latence sur une grille de production. En conséquence, nous proposons un modèle probabiliste du temps d'exécution d'un flot de traitement sur une grille. Ce modèle est centré sur l'utilisateur : il considère la grille toute entière comme une boîte noire introduisant une latence aléatoire sur le temps d'exécution d'une tâche. A partir de ce modèle, nous proposons trois stratégies d'optimisation visant à réduire l'impact de la latence et de sa variabilité : dans un flot de traitement, grouper les tâches séquentiellement liées permet de réduire la latence moyenne rencontrée, optimiser la valeur du délai d'expiration des tâches prémunit contre les valeurs extrêmes de la latence et optimiser la granularité des tâches permet de réduire le risque de rencontrer de fortes latences. Des accélérations significatives sont ainsi obtenues.
28

Optimization of (R, Q) policies for multi-echelon inventory systems with guaranteed service / Optimisation de politiques de stockage (R, Q) pour les systèmes multi-échelons avec service garanti

Li, Peng 09 July 2013 (has links)
Face à une concurrence féroce par suite de la modélisation économique, les entreprises doivent bien gérer leurs chaînes logistiques afin de réduire leurs coûts d’exploitation tout en améliorant leurs services au client. Un enjeu majeur de cette gestion et la gestion efficace des stocks multi-échelons. Dans cette thèse, nous étudions des systèmes de stocks multi-échelons avec des coûts de passation de commande à chaque stock. En raison de l’existence des coûts de passation de commande, l’optimisation d’un tel système devient très compliquée. Récemment, l’approche de service garanti (GSA) a été utilisée pour déterminer les stocks de sécurité pour les systèmes de stocks multi-échelons, mais sans coûts fixes de passation de commande. Nous généralisons la GSA pour optimiser la politique de stockage (R, Q) d’un système de stocks multi-échelons avec la demande suivant un processus de Poisson et coûts fixes de passation de commande à chaque stock. Nous considérons trois types de systèmes de stocks multi-échelons, et pour chaque type, nous d'abord établissons un modèle mathématique pour le problème d’optimisation. Ensuite, le modèle est résolu par une procédure itérative fondée sur deux algorithmes de programmation dynamique (DP). Un algorithme DP est utilisé pour résoudre le sous-problème de détermination de quantités de commande et l'autre est utilisé pour résoudre le sous-problème de détermination de points de recommande du modèle. Les résultats numériques démontrent l'efficacité des algorithmes et de la procédure / With the increasing complexity of supply chains led by economic globalization, integrated supply chain management has become an important strategy utilized by the firms to reduce the overall cost while meeting the customer service. This change has made academic researchers and industrial practitioners pay more and more attention to multi-echelon inventory management over the last two decades. In this thesis, we study multi-echelon inventory systems with fixed order costs at each stock. Because of the existence of fixed order costs, the optimization of such system becomes very complicated. Recently, Guaranteed Service Approach (GSA) was used to set safety stock for multi-echelon inventory systems, but without fixed order costs. We extend the GSA to optimize (R, Q) inventory policies for multi-echelon inventory systems with Poisson demand and fixed order costs. Our objective is to find optimal (R, Q) policy for such a system so that its total cost is minimized while achieving a service level to customer. Three types of multi-echelon inventory systems, serial systems, assembly systems and two-level distribution systems are considered. For each type, we first establish a mathematical model for the optimization problem. Then, the model is solved by an iterative procedure based on two dynamic programming (DP) algorithms. One DP algorithm is used to solve the order size decision subproblem and the other is used to solve the reorder point decision subproblem of the model. Numerical experiments demonstrate the efficiency of the algorithms and the procedure
29

Optimisation de la conception du stockage de déchets radioactifs HA-MAVL à l’aide de la gestion de flux / Flow design optimization of storing radioactive waste ha-mavl

Rubaszewski, Julie 20 November 2013 (has links)
Ce projet de recherche s’inscrit dans un partenariat entre l’ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) et le LOSI de l’Institut Charles Delaunay (STMR UMR CNRS), UTT.La thèse vise à dimensionner les ouvrages de stockage vis-à-vis des divers flux industriels. Les flux concernés sont de nature variée et cela constitue l’une des caractéristiques du stockage. Les ouvrages doivent en effet être conçus pour permettre un développement progressif, à l’origine d’une coexistence de flux nucléaires (les colis de déchets nucléaires et les flux associés, telle la ventilation nucléaire) et de flux de chantiers conventionnels. Le dimensionnement des flux et la conception des ouvrages pour autoriser ces flux se trouvent donc au cœur du processus de conception du stockage.La problématique de notre partenaire industriel porte sur la conception de réseau (appelé flow path design). Notre contribution est dédiée au développement de modèles de flow path design avec de nouvelles contraintes ainsi qu’au développement de méthodes. Les extensions au modèle de base prennent en compte une flotte hétérogène, des segments interdits d’accès à certains véhicules et des coûts de construction. Différentes méthodes d'optimisation approchées ont aussi été développées et testées. Il s’agit de métaheuristiques basées sur les recherches locales, l’algorithme de colonies de fourmis ainsi que l’algorithme des abeilles. L’efficacité des méthodes est prouvée grâce à des tests sur des instances de la littérature et l’application au cas réel est faite par simulation / This research project is part of a partnership between ANDRA (National Agency for Radioactive Waste Management) and the LOSI, Institut Charles Delaunay (TSR UMR CNRS), UTT.The thesis aims to design the storage structures for various industrial flows. Flows involved are varied in nature and it is one of the characteristics of the storage. The works must be designed to effect a gradual development, from a "coactivity", that is to say, a coexistence of nuclear flux (the nuclear waste packages and the associated flow, such nuclear ventilation) and conventional flow sites. The design flow and the design of structures to allow these flows are therefore at the heart of the design process of storage.The problem of our industrial partner focuses on flow path design. Our contribution is dedicated to the development of models of flow path design with new constraints and the development of methods. Extensions to the basic model takes into account different type of vehicle, not allowed some segments and taking into account construction costs. Different optimization methods have also been developed and tested. Metaheuristics are based on local search, the ant colony algorithm and the algorithm of bees. Efficiency of methods is demonstrated through tests on literature benchmarks and application to the real case is done by simulation
30

Méthodes d'optimisation pour l'analyse de processus invariants d'échelle / Optimization methods for the analysis of scale invariant processes

Frécon, Jordan 11 October 2016 (has links)
L'invariance d'échelle repose sur l'intuition que les dynamiques temporelles ne sont pas gouvernées par une (ou quelques) échelle(s) caratéristique(s). Cette propriété est massivement utilisée dans la modélisation et l'analyse de données univariées issues d'applications réelles. Son utilisation pratique se heurte pourtant à deux difficultés dans les applications modernes : les propriétés d'invariance d'échelle ne sont plus nécessairement homogènes en temps ou espace ; le caractère multivarié des données rend fortement non linéaires et non convexes les fonctionnelles à minimiser pour l'estimation des paramètres d'invariance d'échelle. La première originalité de ce travail est d'envisager l'étude de l'invariance d'échelle inhomogène comme un problème conjoint de détection/segmentation et estimation et d'en proposer une formulation par minimisation de fonctionnelles vectorielles, construites autour de pénalisation par variation totale, afin d'estimer à la fois les frontières délimitant les changements et les propriétés d'invariance d'échelle de chaque région. La construction d'un algorithme de débruitage par variation totale vectorielle à la volée est proposée. La seconde originalité réside dans la conception d'une procédure de minimisation de fonctionnelle non convexe type « branch and bound » pour l'identification complète de l'extension bivariée, du mouvement brownien fractionnaire, considéré comme référence pour la modélisation de l'invariance d'échelle univariée. Cette procédure est mise en œuvre en pratique sur des données de trafic Internet dans le contexte de la détection d'anomalies. Dans un troisième temps, nous proposons des contributions spécifiques au débruitage par variation totale : modèle poissonnien d'attache aux données en relation avec un problème de détection d'états pour la fluorescence intermittente ; sélection automatique du paramètre de régularisation. / Scale invariance relies on the intuition that temporal dynamics are not driven by one (or a few) characteristic scale(s). This property is massively used in the modeling and analysis of univariate data stemming from real-world applications. However, its use in practice encounters two difficulties when dealing with modern applications: scaling properties are not necessarily homogenous in time or space ; the multivariate nature of data leads to the minimization of highly non-linear and non-convex functionals in order to estimate the scaling parameters.The first originality of this work is to investigate the study of non-homogenous scale invariance as a joint problem of detection/segmentation and estimation, and to propose its formulation by the minimization of vectorial functionals constructed around a total variation penalization, in order to estimate both the boundaries delimiting the changes and the scaling properties within each region.The second originality lies in the design of a branch and bound minimization procedure of non-convex functional for the full identification of the bivariate extension of fractional Brownian motion, considered as the reference for modeling univariate scale invariance. Such procedure is applied in practice on Internet traffic data in the context of anomaly detection.Thirdly, we propose some contributions specific to total variation denoising: Poisson data-fidelity model related to a state detection problem in intermittent fluorescence ; automatic selection of the regularization parameter.

Page generated in 0.2974 seconds