• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1054
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 144
  • 116
  • 100
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Machines à commutation de flux à grand nombre de phases : modèles comportementaux en mode dégradé et élaboration d’une stratégie de commande en vue de l’amélioration de la tolérance aux pannes / Flux switching machines with high phases number : behavioral models in degraded mode and development of a control strategy to improve fault tolerance

Ben Sedrine, Emna 28 November 2014 (has links)
Dans cette thèse, nous nous sommes intéressés à l'étude des modèles comportementaux en mode dégradé des machines pentaphasées à commutation de flux (MCF pentaphasée). Tout d'abord, une comparaison des performances électromagnétiques de cette machine à une machine triphasée équivalente est tout d'abord effectuée. Ces performances sont calculées par la méthode des Eléments Finis (EF 2D) et validées expérimentalement. Les résultats ont montré l'apport de la machine pentaphasée avec un couple massique plus élevé, une ondulation de couple plus faible, un courant de court-circuit plus faible et sa capacité à tolérer des défauts de phases. L'étude de la tolérance aux ouvertures de phases est alors élaborée pour cette MCF pentaphasée. Le comportement de la machine en cas d'ouvertures de phases (du point de vue du couple moyen, de l'ondulation de couple, des pertes Joule et du courant dans le neutre) est présenté. Ensuite, des méthodes de reconfiguration en vue d'améliorer le fonctionnement sont proposées dont une reconfiguration minimale permettant de se retrouver avec une alimentation équivalente à celle d'une machine tétraphasée ou triphasée, un calcul analytique des courants optimaux permettant d'annuler à la fois le courant du neutre et l'ondulation du couple tout en assurant le couple moyen, et finalement une reconfiguration assurée par un algorithme génétique d'optimisation qui est un algorithme non-déterministe multi-objectifs et multi-contraintes. Diverses combinaisons des différents objectifs et contraintes sont, dans ce cadre, effectuées et les courants optimaux sont injectés dans le modèle EF 2D de la machine pour vérifier si les performances ont été améliorées. Le modèle analytique du couple pris en compte dans l'algorithme d'optimisation est alors révisé pour prendre en compte l'influence du mode dégradé. Les différentes solutions du front de Pareto sont analysées et les performances électromagnétiques sont bien améliorées. Cela est vérifié par les calculs EF 2D et suivi d'une validation expérimentale. L'influence des défauts sur les forces magnétiques radiales est également analysée. Dans une seconde partie, l'étude de la tolérance de la machine pentaphasée à commutation de flux aux défauts de courts-circuits est effectuée. Les premières étapes d'isolation des défauts de courts-circuits sont proposées. Par la suite, les courants de courts-circuits, prenant en compte l'effet reluctant de la machine, sont calculés analytiquement et leurs effets sur les performances de la machine sont analysés. Les reconfigurations sont aussi calculées par l'algorithme génétique d'optimisation et les nouvelles références des courants permettent d'améliorer le fonctionnement en mode dégradé. Tous les résultats sont validés par la méthode des EF 2D et expérimentalement. En conclusion, des comparaisons entre la tolérance aux défauts d'ouvertures et de courts-circuits de la machine pentaphasée à commutation de flux sont effectuées et ont permis de conclure quant au fonctionnement de cette machine en modes sain et dégradé avec et sans correction. Les résultats analytiques, numériques et expérimentaux ont montré la bonne efficacité de la commande proposée pour l'amélioration de la tolérance aux défauts d'ouvertures et courts-circuits de phases. / In this thesis, we are interested in the study of a five-phase flux switching permanent magnet machine (five-phase FSPM machine) behavior in healthy and faulty mode. First, a comparison of electromagnetic performances between this machine and an equivalent three-phase machine is carried out. These performances are calculated by a Finite Element (FE 2D) model and validated by experiments. Results showed the five-phase machine contribution with a higher torque density, lower torque ripples, lower short-circuit current and ability to tolerate phases faults. The study of open-circuit tolerance is then developed for this five-phase FSPM. The behavior of the machine (the average torque, torque ripples, copper losses and the current in the neutral) in the case of open-circuit on a single and two adjacent and non-adjacent phases is presented. Then reconfiguration methods to improve the operation are proposed including a minimum reconfiguration allowing to end up with a feeding equivalent to that of a three-phase or a four-phase machine, an analytical calculation of optimal currents to cancel both the neutral current and torque ripples while ensuring the average torque, and finally a reconfiguration performed by a genetic optimization algorithm which is a non-deterministic algorithm multi-objective functions and multi-constraints. In this context, various combinations of different objectives and constraints are proposed and optimal currents are injected into the 2D FE model of the machine to see if performances have been improved. The analytical model of the torque used in the optimization algorithm is then revised to take into account the influence of the degraded mode. Different solutions of Pareto front are analyzed and electromagnetic performances are improved. This is verified by FE 2D calculations and followed by experimental validation. Faults impact on the radial magnetic forces is also analyzed. In the second part of this work, the study of the five-phase FSPM machine tolerance to short-circuit faults is performed. First steps of the faults isolation are proposed. Thereafter, short-circuit currents, taking into account the reluctance machine impact, are calculated analytically and their effects on machine performances are analyzed. Reconfigurations are also calculated by the genetic algorithm optimization and new references currents improved the degraded mode operation. All results are validated by the FE 2D calculation and experimentally. In conclusion, comparisons between fault-tolerance to phases openings and short-circuits of the five-phase FSPM machine are performed. Results led to conclude regarding the operation of this machine in healthy and degraded modes with and without correction. Analytical, numerical and experimental results showed good efficiency of the proposed control to improve fault-tolerance to phases openings and short-circuits.
392

Proximal methods for convex minimization of Phi-divergences : application to computer vision. / Méthodes proximales convexes pour la minimisation des Phi-divergences : applications à la stéréo vision

El Gheche, Mireille 27 May 2014 (has links)
Cette thèse s'inscrit dans le contexte de l'optimisation convexe. Elle apporte à ce domaine deux contributions principales. La première porte sur les méthodes d'optimisation convexe non lisse appliquées à la vision par ordinateur. Quant à la seconde, elle fournit de nouveaux résultats théoriques concernant la manipulation de mesures de divergences, telles que celles utilisées en théorie de l'information et dans divers problèmes d'optimisation. Le principe de la stéréovision consiste à exploiter deux images d'une même scène prises sous deux points de vue, afin de retrouver les pixels homologues et de se ramener ainsi à un problème d'estimation d'un champ de disparité. Dans ce travail, le problème de l'estimation de la disparité est considéré en présence de variations d'illumination. Ceci se traduit par l'ajout, dans la fonction objective globale à minimiser, d'un facteur multiplicatif variant spatialement, estimé conjointement avec la disparité. Nous avons mis l'accent sur l'avantage de considérer plusieurs critères convexes et non-nécessairement différentiables, et d'exploiter des images multicomposantes (par exemple, des images couleurs) pour améliorer les performances de notre méthode. Le problème d'estimation posé est résolu en utilisant un algorithme parallèle proximal basé sur des développements récents en analyse convexe. Dans une seconde partie, nous avons étendu notre approche au cas multi-vues qui est un sujet de recherche relativement nouveau. Cette extension s'avère particulièrement utile dans le cadre d'applications où les zones d'occultation sont très larges et posent de nombreuses difficultés. Pour résoudre le problème d'optimisation associé, nous avons utilisé des algorithmes proximaux en suivant des approches multi-étiquettes relaxés de manière convexe. Les algorithmes employés présentent l'avantage de pouvoir gérer simultanément un grand nombre d'images et de contraintes, ainsi que des critères convexes et non convexes. Des résultats sur des images synthétiques ont permis de valider l'efficacité de ces méthodes, pour différentes mesures d'erreur. La dernière partie de cette thèse porte sur les problèmes d'optimisation convexe impliquant des mesures d'information (Phi-divergences), qui sont largement utilisés dans le codage source et le codage canal. Ces mesures peuvent être également employées avec succès dans des problèmes inverses rencontrés dans le traitement du signal et de l'image. Les problèmes d'optimisation associés sont souvent difficiles à résoudre en raison de leur grande taille. Dans ce travail, nous avons établi les expressions des opérateurs proximaux de ces divergences. En s'appuyant sur ces résultats, nous avons développé une approche proximale reposant sur l'usage de méthodes primales-duales. Ceci nous a permis de répondre à une large gamme de problèmes d'optimisation convexe dont la fonction objective comprend un terme qui s'exprime sous la forme de l'une de ces divergences / Convex optimization aims at searching for the minimum of a convex function over a convex set. While the theory of convex optimization has been largely explored for about a century, several related developments have stimulated a new interest in the topic. The first one is the emergence of efficient optimization algorithms, such as proximal methods, which allow one to easily solve large-size nonsmooth convex problems in a parallel manner. The second development is the discovery of the fact that convex optimization problems are more ubiquitous in practice than was thought previously. In this thesis, we address two different problems within the framework of convex optimization. The first one is an application to computer stereo vision, where the goal is to recover the depth information of a scene from a pair of images taken from the left and right positions. The second one is the proposition of new mathematical tools to deal with convex optimization problems involving information measures, where the objective is to minimize the divergence between two statistical objects such as random variables or probability distributions. We propose a convex approach to address the problem of dense disparity estimation under varying illumination conditions. A convex energy function is derived for jointly estimating the disparity and the illumination variation. The resulting problem is tackled in a set theoretic framework and solved using proximal tools. It is worth emphasizing the ability of this method to process multicomponent images under illumination variation. The conducted experiments indicate that this approach can effectively deal with the local illumination changes and yields better results compared with existing methods. We then extend the previous approach to the problem of multi-view disparity estimation. Rather than estimating a single depth map, we estimate a sequence of disparity maps, one for each input image. We address this problem by adopting a discrete reformulation that can be efficiently solved through a convex relaxation. This approach offers the advantage of handling both convex and nonconvex similarity measures within the same framework. We have shown that the additional complexity required by the application of our method to the multi-view case is small with respect to the stereo case. Finally, we have proposed a novel approach to handle a broad class of statistical distances, called $varphi$-divergences, within the framework of proximal algorithms. In particular, we have developed the expression of the proximity operators of several $varphi$-divergences, such as Kulback-Leibler, Jeffrey-Kulback, Hellinger, Chi-Square, I$_{alpha}$, and Renyi divergences. This allows proximal algorithms to deal with problems involving such divergences, thus overcoming the limitations of current state-of-the-art approaches for similar problems. The proposed approach is validated in two different contexts. The first is an application to image restoration that illustrates how to employ divergences as a regularization term, while the second is an application to image registration that employs divergences as a data fidelity term
393

Méthodes d’ensembles pour l’apprentissage multi-tâche avec des tâches hétérogènes et sans restrictions / Ensemble Methods to Learn Multiple Heterogenous Tasks without Restrictions

Faddoul, Jean-Baptiste 18 June 2012 (has links)
Apprendre des tâches simultanément peut améliorer la performance de prédiction par rapport à l'apprentissage de ces tâches de manière indépendante. Dans cette thèse, nous considérons l'apprentissage multi-tâche lorsque le nombre de tâches est grand. En outre, nous débattons des restrictions imposées sur les tâches. Ces restrictions peuvent être trouvées dans les méthodes de l'état de l'art. Plus précisément on trouve les restrictions suivantes : l'imposition du même espace d'étiquette sur les tâches, l'exigence des mêmes exemples d'apprentissage entre tâches et / ou supposant une hypothèse de corrélation globale entre tâches. Nous proposons des nouveaux classificateurs multi-tâches qui relaxent les restrictions précédentes. Nos classificateurs sont considérés en fonction de la théorie de l'apprentissage PAC des classifieurs faibles, donc, afin de parvenir à un faible taux d'erreur de classification, un ensemble de ces classifieurs faibles doivent être appris. Ce cadre est appelé l'apprentissage d'ensembles, dans lequel nous proposons un algorithme d'apprentissage multi-tâche inspiré de l'algorithme Adaboost pour seule tâche. Différentes variantes sont proposées également, à savoir, les forêts aléatoires pour le multi-tâche, c'est une méthode d'apprentissage d'ensemble, mais fondée sur le principe statistique d'échantillonnage Bootstrap. Enfin, nous donnons une validation expérimentale qui montre que l'approche sur-performe des méthodes existantes et permet d'apprendre des nouvelles configurations de tâches qui ne correspondent pas aux méthodes de l'état de l'art. / Learning multiple related tasks jointly by exploiting their underlying shared knowledge can improve the predictive performance on every task compared to learning them individually. In this thesis, we address the problem of multi-task learning (MTL) when the tasks are heterogenous: they do not share the same labels (eventually with different number of labels), they do not require shared examples. In addition, no prior assumption about the relatedness pattern between tasks is made. Our contribution to multi-task learning lies in the framework of en- semble learning where the learned function consists normally of an ensemble of "weak " hypothesis aggregated together by an ensemble learning algorithm (Boosting, Bagging, etc.). We propose two approaches to cope with heterogenous tasks without making prior assumptions about the relatedness patterns. For each approach, we devise novel multi-task weak hypothesis along with their learning algorithms then we adapt a boosting algorithm to the multi-task setting. In the first approach, the weak classi ers we consider are 2-level decision stumps for di erent tasks. A weak classi er assigns a class to each instance on two tasks and abstain on other tasks. The weak classi ers allow to handle dependencies between tasks on the instance space. We introduce di fferent effi cient weak learners. We then consider Adaboost with weak classi ers which can abstain and adapt it to multi-task learning. In an empirical study, we compare the weak learners and we study the influence of the number of boosting rounds. In the second approach, we develop the multi-task Adaboost environment with Multi-Task Decision Trees as weak classi ers. We fi rst adapt the well known decision tree learning to the multi-task setting. We revise the information gain rule for learning decision trees in the multi-task setting. We use this feature to develop a novel criterion for learning Multi-Task Decision Trees. The criterion guides the tree construction by learning the decision rules from data of di fferent tasks, and representing diff erent degrees of task relatedness. We then modify MT-Adaboost to combine Multi-task Decision Trees as weak learners. We experimentally validate the advantage of our approaches; we report results of experiments conducted on several multi-task datasets, including the Enron email set and Spam Filtering collection.
394

Algorithmes et structures de données en topologie algorithmique / Algorithms and data structures in computational topology

Maria, Clément 28 October 2014 (has links)
La théorie de l'homologie généralise en dimensions supérieures la notion de connectivité dans les graphes. Étant donné un domaine, décrit par un complexe simplicial, elle définit une famille de groupes qui capturent le nombre de composantes connexes, le nombre de trous, le nombre de cavités et le nombre de motifs équivalents en dimensions supérieures. En pratique, l'homologie permet d'analyser des systèmes de données complexes, interprétés comme des nuages de points dans des espaces métriques. La théorie de l'homologie persistante introduit une notion robuste d'homologie pour l'inférence topologique. Son champ d'application est vaste, et comprend notamment la description d'espaces des configurations de systèmes dynamiques complexes, la classification de formes soumises à des déformations et l'apprentissage en imagerie médicale. Dans cette thèse, nous étudions les ramifications algorithmiques de l'homologie persistante. En premier lieu, nous introduisons l'arbre des simplexes, une structure de données efficace pour construire et manipuler des complexes simpliciaux de grandes dimensions. Nous présentons ensuite une implémentation rapide de l'algorithme de cohomologie persistante à l'aide d'une matrice d'annotations compressée. Nous raffinons également l'inférence de topologie en décrivant une notion de torsion en homologie persistante, et nous introduisons la méthode de reconstruction modulaire pour son calcul. Enfin, nous présentons un algorithme de calcul de l'homologie persistante zigzag, qui est une généralisation algébrique de la persistance. Pour cet algorithme, nous introduisons de nouveaux théorèmes de transformations locales en théorie des représentations de carquois, appelés principes du diamant. Ces algorithmes sont tous implémentés dans la librairie de calcul Gudhi. / The theory of homology generalizes the notion of connectivity in graphs to higher dimensions. It defines a family of groups on a domain, described discretely by a simplicial complex that captures the connected components, the holes, the cavities and higher-dimensional equivalents. In practice, the generality and flexibility of homology allows the analysis of complex data, interpreted as point clouds in metric spaces. The theory of persistent homology introduces a robust notion of homology for topology inference. Its applications are various and range from the description of high dimensional configuration spaces of complex dynamical systems, classification of shapes under deformations and learning in medical imaging. In this thesis, we explore the algorithmic ramifications of persistent homology. We first introduce the simplex tree, an efficient data structure to construct and maintain high dimensional simplicial complexes. We then present a fast implementation of persistent cohomology via the compressed annotation matrix data structure. We also refine the computation of persistence by describing ideas of homological torsion in this framework, and introduce the modular reconstruction method for computation. Finally, we present an algorithm to compute zigzag persistent homology, an algebraic generalization of persistence. To do so, we introduce new local transformation theorems in quiver representation theory, called diamond principles. All algorithms are implemented in the computational library Gudhi.
395

L'application d'algorithmes de décision et l'utilisation de tests rapides permettent-elles d'optimiser le dépistage et la prévention de l'hépatite B ? / Testing recommendations and rapid tests are-they tools to optimize screening and prevention of hepatitis B?

Bottero, Julie 17 September 2014 (has links)
En France, plus de la moitié des personnes infectées par le VHB ignore leur statut. Le programme " Optiscreen B " visait à évaluer l'intérêt des algorithmes de décision et des tests rapides pour optimiser le dépistage et la prévention de l'hépatite B. Les principaux résultats étaient : La mise en évidence d'occasions manquées de dépistage, principalement liées à une sous-estimation du risque d'exposition lié au pays de naissance.L'application des recommandations de dépistage du CDC pourrait largement diminuer la part des personnes infectées ignorant leur statut mais au prix de très nombreux dépistages.16% des personnes dépistées ont une indication à un traitement antiviral dans les mois suivant le dépistage.100% des personnes ayant des AcHBc isolés avaient une charge virale indétectable.Les TROD AgHBs ont une sensibilité comprise entre 90.5 et 96.5% et une spécificité supérieure à 99%.Le test AcHBs QuickProfileTM a une très bonne spécificité (97.8%) mais une faible sensibilité (58.3%).L'utilité en pratique des TROD VHB pour améliorer la prise en charge des personnes dépistées n'a pas été établie en population générale non ciblée, ceci en partie du fait d'une faible prévalence d'infection et de la sensibilité insuffisante des TROD AcHBs.L'utilisation de TROD AgHBs couplés aux TROD VIH et VHC semble fortement améliorer la cascade de dépistage des personnes migrantes en situation de précarité sociale, à fort risque viral.Les pratiques vaccinales post-dépistage apparaissent extrêmement faibles et le plus souvent liées à l'inertie globale du système.Suite à ce travail, l'analyse médico-économique des différentes stratégies de dépistage est à réaliser. / In France, more than half of those infected with HBV are unaware of their status. The Optiscreen B program aimed to evaluate the interest of testing recommendations and rapid tests (RT) and in optimizing screening, linkage-to-care, and prevention of hepatitis B. The main results were : Identification of missed opportunities for screening, mainly caused by underestimating country of birth as an important risk factor. Implementing screening recommendations from the CDC could significantly reduce the proportion of infected individuals unaware of their status, but with the disadvantage of many tests. 16% of persons testing HBsAg-positive after screening have an indication for antiviral treatment. 100% with isolated anti-HBcAb had undetectable HBV viral load. HBsAg RTs have sensitivities between 90.5 and 96.5% and specificities greater than 99%. The anti-HBsAb QuickProfileTM has very good specificity (97.8%) but low sensitivity (58.3%). The effectiveness of HBV RT in improving linkage-to-care was not established among persons eligible for HBV-screening. This was due in part to low infection prevalence and insufficient sensitivity of the anti-HBsAb RT. Nevertheless, combined use of HBsAg, HIV, and HCV RT seems to greatly improve the cascade of care among migrants in socially precarious situations and at high-risk of infection. HBV-vaccination after HBV screening does not occur often, mainly because of insufficient physician-patient motivation. Increased vaccination coverage might be achieved by emphasizing its need at the organizational level. Following this work, cost-benefit analysis of different screening strategies is greatly needed.
396

Robust covering problems : formulations, algorithms and an application / Problème de couverture robuste : formulations, algorithmes et une application

Almeida Coco, Amadeu 06 October 2017 (has links)
Deux problèmes robustes d'optimisation NP-difficiles sont étudiés dans cette thèse: le problème min-max regret de couverture pondérée (min-max regret WSCP) et le problème min-max regret de couverture et localisation maximale (min-max regret MCLP). Les données incertaines dans ces problèmes sont modélisées par des intervalles et seules les valeurs minimales et maximales pour chaque intervalle sont connues. Le min-max regret WSCP a été investigué notamment dans le cadre théorique, alors que le min-max regret MCLP a des applications en logistique des catastrophes étudiées dans cette thèse. Deux autres critères d'optimisation robuste ont été dérivés pour le MCLP: le max-max MCLP et le min-max MCLP. En matière de méthodes, formulations mathématiques, algorithmes exacts et heuristiques ont été développés et appliqués aux deux problèmes. Des expérimentations computationnelles ont montré que les algorithmes exacts ont permis de résoudre efficacement 14 des 75 instances générées par le min-max regret WSCP et toutes les instances réalistes pour le min-max regret MCLP. Pour les cas simulés qui n'ont pas été résolus de manière optimale dans les deux problèmes, les heuristiques développées dans cette thèse ont trouvé des solutions aussi bien ou mieux que le meilleur algorithme exact dans presque tous les cas. En ce qui concerne l'application en logistique des catastrophes, les modèles robustes ont trouvé des solutions similaires pour les scénarios réalistes des tremblements de terre qui a eu lieu à Katmandu au Népal en 2015. Cela indique que nous avons une solution robuste / Two robust optimization NP-Hard problems are studied in this thesis: the min-max regret Weighted Set Covering Problem (min-max regret WSCP) and the min-max regret Maximal Coverage Location Problem (min-max regret MCLP). The min-max regret WSCP and min-max regret MCLP are, respectively, the robust optimization counterparts of the Set Covering Problem and of the Maximal Coverage Location Problem. The uncertain data in these problems is modeled by intervals and only the minimum and maximum values for each interval are known. However, while the min-max regret WSCP is mainly studied theoretically, the min-max regret MCLP has an application in disaster logistics which is also investigated in this thesis. Two other robust optimization criteria were derived for the MCLP: the max-max MCLP and the min-max MCLP. In terms of methods, mathematical formulations, exact algorithms and heuristics were developed and applied to both problems. Computational experiments showed that the exact algorithms efficiently solved 14 out of 75 instances generated to the min-max regret WSCP and all realistic instances created to the min-max regret MCLP. For the simulated instances that was not solved to optimally in both problems, the heuristics developed in this thesis found solutions, as good as, or better than the exact algorithms in almost all instances. Concerning the application in disaster logistics, the robust models found similar solutions for realistic scenarios of the earthquakes that hit Kathmandu, Nepal in 2015. This indicates that we have got a robust solution, according to all optimization models
397

Distributed automata and logic / Automates distribués et logiques

Reiter, Fabian 12 December 2017 (has links)
Les automates distribués sont des machines à états finis qui opèrent sur des graphes orientés finis. Fonctionnant comme des algorithmes distribués synchrones, ils utilisent leur graphe d'entrée comme un réseau dans lequel des processeurs identiques communiquent entre eux pendant un certain nombre (éventuellement infini) de rondes synchrones. Pour la variante locale de ces automates, où le nombre de rondes est borné par une constante, Hella et al. (2012, 2015) ont établi une caractérisation logique par des formules de la logique modale de base. Dans le cadre de cette thèse, nous présentons des caractérisations logiques similaires pour deux classes d'automates distribués plus expressives.La première classe étend les automates locaux avec une condition d'acceptation globale et la capacité d'alterner entre des modes de calcul non-déterministes et parallèles. Nous montrons qu'elle est équivalente à la logique monadique du second ordre sur les graphes.En nous restreignant à des transitions non-déterministes ou déterministes, nous obtenons également deux variantes d'automates strictement plus faibles pour lesquelles le problème du vide est décidable.Notre seconde classe adapte la notion standard d'algorithme asynchrone au cadre des automates distribués non-locaux. Les machines résultantes sont prouvées équivalentes à un petit fragment de la logique de point fixe, et plus précisément, à une variante restreinte du μ-calcul modal qui autorise les plus petits points fixes mais interdit les plus grands points fixes. Profitant du lien avec la logique, nous montrons aussi que la puissance expressive de ces automates asynchrones est indépendante du fait que des messages puissent être perdus ou non.Nous étudions ensuite la décidabilité du problème du vide pour plusieurs classes d'automates non-locaux. Nous montrons que le problème est indécidable en général, en simulant une machine de Turing par un automate distribué qui échange les rôles de l'espace et du temps. En revanche, le problème s'avère décidable en LOGSPACE pour une classe d'automates oublieux, où les nœuds voient les messages reçus de leurs voisins, mais ne se souviennent pas de leur propre état. Finalement, à titre de contribution mineure, nous donnons également de nouvelles preuves de séparation pour plusieurs hiérarchies d'alternance de quantificateurs basées sur la logique modale. / Distributed automata are finite-state machines that operate on finitedirected graphs. Acting as synchronous distributed algorithms, they use their input graph as a network in which identical processors communicate for a possibly infinite number of synchronous rounds. For the local variant of those automata, where the number of rounds is bounded by a constant, Hella et al. (2012, 2015) have established a logical characterization in terms of basic modal logic. In this thesis, we provide similar logical characterizations for two more expressive classes of distributed automata.The first class extends local automata with a global acceptance condition and the ability to alternate between non deterministic and parallel computations. We show that it is equivalent to monadic second-order logic on graphs. By restricting transitions to be non deterministic or deterministic, we also obtain two strictly weaker variants for which the emptiness problem is decidable.Our second class transfers the standard notion of asynchronous algorithm to the setting of non local distributed automata. There sulting machines are shown to be equivalent to a small fragment of least fixpoint logic, and more specifically, to a restricted variantof the modal μ -calculus that allows least fixpoints but forbids greatest fixpoints. Exploiting the connection with logic, we additionally prove that the expressive power of those asynchronous automata is independent of whether or not messages can be lost.We then investigate the decidability of the emptiness problem forseveral classes of nonlocal automata. We show that the problem isundecidable in general, by simulating a Turing machine with adistributed automaton that exchanges the roles of space and time. Onthe other hand, the problem is found to be decidable in logspace for a class of forgetful automata, where the nodes see the messages received from their neighbors but cannot remember their own state. As a minor contribution, we also give new proofs of the strictness of several set quantifier alternation hierarchies that are based on modallogic.
398

Optimisation du pilotage d'un Réacteur à Eau Pressurisée dans le cadre de la transition énergétique à l'aide d'algorithmes évolutionnaires / Optimization of a PWR management in the framework of the energetic transition using evolutionary algorithms

Muniglia, Mathieu 22 September 2017 (has links)
L'augmentation de la contribution des énergies renouvelables (solaire ou éolien) et une évolution majeure du parc électrique français et s'inscrit dans le cadre de la transition énergétique. Il est prévu que la part de ces énergies dans le mix passe de 6% actuellement à 30% d'ici à 2030. Cette augmentation en revanche laisse entrevoir d'importants déséquilibres entre l'offre et la demande, et les autres moyens de production, l'énergie nucléaire en tête, devront donc s'adapter. Ce travail vise à augmenter la disponibilité de suivi de charge des centrales, en améliorant leur pilotage durant tout le cycle d'exploitation. Parmi l'ensemble des réacteurs du parc nucléaire français, les réacteurs à eau pressurisées d'une puissance électrique de $1300$ MW sont choisis en raison de leur capacité de suivi de charge déjà accrue. Dans un premier temps, un modèle multi-physique et de type simulateur de la centrale est développé, permettant de prendre en arguments les paramètres principaux des barres de commande, et permettant de déterminer en quelques dizaines de minutes de calcul, les critères d'intérêt dont le premier est en lien avec le diagramme de pilotage et le second avec le volume d'effluents. Le problème d'optimisation est alors résolu grâce à des algorithmes évolutionnaires parallèles asynchronesde type maître-esclave, et les mode de pilotage obtenus sont commentés. / The increase of the renewable energies contribution (as wind farms, solar energy) is a major issue in the actual context of energetic transition. The part of intermittent renewable energies is indeed forecast to be around 30% of the total production in 2030, against 6% today. On the other hand, their intermittent production may lead to an important imbalance between production and consumption. Consequently, the other ways of power production must adapt to those variations, especially nuclear energy which is the most important in France. This work aims at increasing the availability of thepower plants to load-follow, by optimizing their manageability all along their operation cycle. Among the French nuclear fleet, the pressurized water reactors(PWR) producing $1300$ electrical MW and operated in the "G" mode are considered as they show the higher capability to load-follow. In a first step, a multi-physics PWR model is designed taking as inputs the main parameters of the control rods, and computing in few minutes the criteria of interest whichare linked to the control diagram and to the effluents volume. The optimization problem which consists in minimizing those two values of interest is then solved thanks to a parallel asynchronous master-worker evolutionary algorithm. Finally, the efficient operating modes are discussed.
399

Contributions to Convergence Analysis of Noisy Optimization Algorithms / Contributions à l'Analyse de Convergence d'Algorithmes d'Optimisation Bruitée

Astete morales, Sandra 05 October 2016 (has links)
Cette thèse montre des contributions à l'analyse d'algorithmes pour l'optimisation de fonctions bruitées. Les taux de convergences (regret simple et regret cumulatif) sont analysés pour les algorithmes de recherche linéaire ainsi que pour les algorithmes de recherche aléatoires. Nous prouvons que les algorithmes basé sur la matrice hessienne peuvent atteindre le même résultat que certaines algorithmes optimaux, lorsque les paramètres sont bien choisis. De plus, nous analysons l'ordre de convergence des stratégies évolutionnistes pour des fonctions bruitées. Nous déduisons une convergence log-log. Nous prouvons aussi une borne basse pour le taux de convergence de stratégies évolutionnistes. Nous étendons le travail effectué sur les mécanismes de réévaluations en les appliquant au cas discret. Finalement, nous analysons la mesure de performance en elle-même et prouvons que l'utilisation d'une mauvaise mesure de performance peut mener à des résultats trompeurs lorsque différentes méthodes d'optimisation sont évaluées. / This thesis exposes contributions to the analysis of algorithms for noisy functions. It exposes convergence rates for linesearch algorithms as well as for random search algorithms. We prove in terms of Simple Regret and Cumulative Regret that a Hessian based algorithm can reach the same results as some optimal algorithms in the literature, when parameters are tuned correctly. On the other hand we analyse the convergence order of Evolution Strategies when solving noisy functions. We deduce log-log convergence. We also give a lower bound for the convergence rate of the Evolution Strategies. We extend the work on revaluation by applying it to a discrete settings. Finally we analyse the performance measure itself and prove that the use of an erroneus performance measure can lead to misleading results on the evaluation of different methods.
400

Studies on Optimal Colorful Structures in Vertex-Colored Graphs / Études sur les structures colorées optimales dans les graphes sommet-colorés

Pham, Hong Phong 07 December 2018 (has links)
Dans cette thèse, nous étudions des problèmes différents de coloration maximale dans les graphes sommet-colorés. Nous nous concentrons sur la recherche des structures avec le nombre maximal possible de couleurs par des algorithmes en temps polynomial, nous donnons aussi la preuve des problèmes NP-difficiles pour des graphes spécifiques. En particulier, nous étudions d’abord le problème de l’appariement coloré maximum. Nous montrons que ce problème peut être résolu efficacement en temps polynomial. En plus, nous considérons également une version spécifique de ce problème, à savoir l’appariement tropical, qui consiste à trouver un appariement contenant toutes les couleurs du graphe original. De même, un algorithme de temps polynomial est également fourni pour le problème de l’appariement tropical avec la cardinalité minimale et le problème de l’appariement tropical maximum avec la cardinalité minimale. Ensuite, nous étudions le problème des chemins colorés maximum. Il existe deux versions pour ce problème: le problème de plus court chemin tropical, c’est-à-dire de trouver un chemin tropical avec le poids total minimum et le problème de plus longue chemin coloré, à savoir, trouver un chemin avec un nombre maximum possible de couleurs. Nous montrons que les deux versions de ce problème sont NP-difficile pour un graphe orienté acyclique, graphes de cactus et graphes d'intervalles où le problème de plus long chemin est facile. De plus, nous fournissons également un algorithme de paramètre fixe pour le premier dans les graphes généraux et plusieurs algorithmes de temps polynomiaux pour le second dans les graphes spécifiques, y compris les graphes des chaîne bipartites, graphes de seuil, arborescences, graphes des blocs et graphes d'intervalles appropriés. Ensuite, nous considérons le problème des cycles colorés maximum. Nous montrons d'abord que le problème est NP-difficile même pour des graphes simples tels que des graphes divisés, des graphes bi-connecteurs et des graphes d'intervalles. Nous fournissons ensuite des algorithmes de temps polynomial pour les classes de graphes de seuil et graphes des chaîne bipartites et graphes d'intervalles appropriés. Plus tard, nous étudions le problème des cliques colorées maximum. Nous montrons tout d’abord que le problème est NP-difficile même pour plusieurs cas où le problème de clique maximum est facile, comme des graphes complémentaires des graphes de permutation bipartite, des graphes complémentaires de graphes convexes bipartites et des graphes de disques unitaires, et aussi pour des graphes sommet-colorées appropriés. Ensuite, nous proposons un algorithme paramétré XP et des algorithmes de temps polynomial pour les classes de graphes complémentaires de graphes en chaîne bipartites, des graphes multipartites complets et des graphes complémentaires de graphes cycles. Enfin, nous nous concentrons sur le problème des stables (ensembles indépendants) colorés maximum. Nous montrons d’abord que le problème est NP-difficile même dans certains cas où le problème de stable maximum est facile, tels que les co-graphes et les graphes des P₅-gratuit. Ensuite, nous fournissons des algorithmes de temps polynomial pour les graphes de grappes, et les arbres. / In this thesis, we study different maximum colorful problems in vertex-colored graphs. We focus on finding structures with the possible maximum number of colors by efficient polynomial-time algorithms, or prove these problems as NP-hard for specific graphs. In particular, we first study the maximum colorful matching problem. We show that this problem can be efficiently solved in polynomial time. Moreover, we also consider a specific version of this problem, namely tropical matching, that is to find a matching containing all colors of the original graph, if any. Similarly, a polynomial time algorithm is also provided for the problem of tropical matching with the minimum cardinality and the problem of maximal tropical matching with the minimum cardinality. Then, we study the maximum colorful paths problem. There are two versions for this problem: the shortest tropical path problem, i.e., finding a tropical path with the minimum total weight, and the maximum colorful path problem, i.e., finding a path with the maximum number of colors possible. We show that both versions of this problem are NP-hard for directed acyclic graphs, cactus graphs and interval graphs where the longest path problem is easy. Moreover, we also provide a fixed parameter algorithm for the former in general graphs and several polynomial time algorithms for the latter in specific graphs, including bipartite chain graphs, threshold graphs, trees, block graphs, and proper interval graphs. Next we consider the maximum colorful cycles problem. We first show that the problem is NP-hard even for simple graphs such as split graphs, biconnected graphs, interval graphs. Then we provide polynomial-time algorithms for classes of threshold graphs and bipartite chain graphs and proper interval graphs. Later, we study the maximum colorful cliques problem. We first show that the problem is NP-hard even for several cases where the maximum clique problem is easy, such as complement graphs of bipartite permutation graphs, complement graphs of bipartite convex graphs, and unit disk graphs, and also for properly vertex-colored graphs. Next, we propose a XP parameterized algorithm and polynomial-time algorithms for classes of complement graphs of bipartite chain graphs, complete multipartite graphs and complement graphs of cycle graphs. Finally, we focus on the maximum colorful independent set problem. We first prove that the problem is NP-hard even for some cases where the maximum independent set problem is easy, such as cographs and P₅-free graphs. Next, we provide polynomial time algorithms for cluster graphs and trees.

Page generated in 0.0333 seconds