• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 37
  • 5
  • 2
  • Tagged with
  • 96
  • 46
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modèles de dépendance dans la théorie du risque / Dependence models in risk theory

Bargès, Mathieu 15 March 2010 (has links)
Initialement, la théorie du risque supposait l’indépendance entre les différentes variables aléatoires et autres paramètres intervenant dans la modélisation actuarielle. De nos jours, cette hypothèse d’indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments des modèles. Dans cette thèse, nous proposons d’introduire des modèles de dépendance pour différents aspects de la théorie du risque. Dans un premier temps, nous suggérons l’emploi des copules comme structure de dépendance. Nous abordons tout d’abord un problème d’allocation de capital basée sur la Tail-Value-at-Risk pour lequel nous supposons un lien introduit par une copule entre les différents risques. Nous obtenons des formules explicites pour le capital à allouer à l’ensemble du portefeuille ainsi que la contribution de chacun des risques lorsque nous utilisons la copule Farlie-Gumbel-Morgenstern. Pour les autres copules, nous fournissons une méthode d’approximation. Au deuxième chapitre, nous considérons le processus aléatoire de la somme des valeurs présentes des sinistres pour lequel les variables aléatoires du montant d’un sinistre et de temps écoulé depuis le sinistre précédent sont liées par une copule Farlie-Gumbel-Morgenstern. Nous montrons comment obtenir des formes explicites pour les deux premiers moments puis le moment d’ordre m de ce processus. Le troisième chapitre suppose un autre type de dépendance causée par un environnement extérieur. Dans le contexte de l’étude de la probabilité de ruine d’une compagnie de réassurance, nous utilisons un environnement markovien pour modéliser les cycles de souscription. Nous supposons en premier lieu des temps de changement de phases de cycle déterministes puis nous les considérons ensuite influencés en retour par les montants des sinistres. Nous obtenons, à l’aide de la méthode d’erlangisation, une approximation de la probabilité de ruine en temps fini. / Initially, it was supposed in risk theory that the random variables and other parameters of actuarial models were independent. Nowadays, this hypothesis is often relaxed to take into account possible interactions. In this thesis, we propose to introduce some dependence models for different aspects of risk theory. In a first part, we use copulas as dependence structure. We first tackle a problem of capital allocation based on the Tail-Value-at-Risk where the risks are supposed to be dependent according to a copula. We obtain explicit formulas for the capital to be allocated to the overall portfolio but also for the contribution of each risk when we use a Farlie-Gumbel-Morenstern copula. For the other copulas, we give an approximation method. In the second chapter, we consider the stochastic process of the discounted aggregate claims where the random variables for the claim amount and the time since the last claim are linked by a Farlie-Gumbel-Morgenstern copula. We show how to obtain exact expressions for the first two moments and for the moment of order m of the process. The third chapter assumes another type of dependence that is caused by an external environment. In the context of the study of the ruin probability for a reinsurance company, we use a Markovian environment to model the underwriting cycles. We suppose first deterministic cycle phase changes and then that these changes can also be influenced by the claim amounts. We use the erlangization method to obtain an approximation for the finite time ruin probability.
32

Analyse de maillages 3D par morphologie mathématique / 3 D mesh analysis by mathematical morphology

Barki, Hichem 05 November 2010 (has links)
La morphologie mathématique est une théorie puissante pour l’analyse d’images 2 D. Elle se base sur la dilatation et l’érosion, qui correspondent à l’addition et la soustraction de Minkowski. Afin d’analyser des maillages 3D par morphologie mathématique, on doit disposer d’algorithmes performants et robustes pour le calcul exact de l’addition et de la soustraction pour ces maillages. Malheureusement, les travaux existants sont, soit approximés, soit non robustes ou limités par des contraintes. Aucun travail n’a traité la différence. Ces difficultés sont dues au fait qu’un maillage représente une surface linéaire par morceaux englobant un ensemble contenu et non dénombrable. Nous avons introduit la notion de sommets contributeurs et nous avons développé un algorithme efficace et robuste pour le calcul de la somme de polyèdres convexes. Nous l’avons par la suite adapté et proposé deux algorithmes performants pour la somme d’une paire de polyèdres non convexe/convexe, tout en gérant correctement les polyèdres complexes, les situations de non-variété ainsi que les changements topologiques. Nous avons également démontré la dualité des sommets contributeurs et nous l’avons exploité pour développer la première approche du calcul exact et efficace de la différence de polyèdres convexes. La dualité des sommets contributeurs ainsi que la robustesse et l’efficacité de nos approches motivent le développement d’une approche unifiée pour l’addition et la soustraction de polyèdres quelconques, ce qui permettra d’appliquer des traitements morphologiques à des maillages 3D. D’autres domaines tels que l’imagerie médicale, la robotique, la géométrie ou la chimie pourront en tirer profit / Mathematical morphology is a powerful theory for the analysis of 2D digital images. It is based on dilation and erosion, which correspond to Minkowski addition and subtraction. To be able to analyze 3D meshes using mathematical morphology, we must use efficient and robust algorithms for the exact computation of the addition and subtraction of meshes. Unfortunately, existing approaches are approximated, non-robust or limited by some constraints. No work has addressed the difference. These difficulties come from the the fact that a mesh represents a piecewise linear surface bounding a continuous and uncountable set. We introduced the concept of contributing vertices and developed an efficient and robust algorithm for the computation of the Minkowski sum of convex polyhedra. After that, we adapted and proposed two efficient algorithms for the computation of the Minkowski sum of a non-convex/convex pair of polyhedra, while properly handling complex polyhedra, non-manifold situations and topological changes. We also demonstrated the duality of the contributing vertices concept and exploited it to develop the first approach for the efficient and exact computation of the Minkowski difference of convex polyhedra. The duality of the contributing vertices concept as well as the robustness and efficiency of our approaches motivate the development of a unified approach for the Minkowski addition and subtraction of arbitrary polyhedral, which will permit the morphological analysis of 3D meshes. Other areas such as medical imaging, robotics, geometry or chemistry may benefit from our approaches
33

Hybrid metaheuristic algorithms for sum coloring and bandwidth coloring / Métaheuristiques hybrides pour la somme coloration et la coloration de bande passante

Jin, Yan 29 May 2015 (has links)
Le problème de somme coloration minimum (MSCP) et le problème de coloration de bande passante (BCP) sont deux généralisations importantes du problème de coloration des sommets classique avec de nombreuses applications dans divers domaines, y compris la conception de circuits imprimés, la planication, l’allocation de ressource, l’affectation de fréquence dans les réseaux mobiles, etc. Les problèmes MSCP et BCP étant NP-difficiles, les heuristiques et métaheuristiques sont souvent utilisées en pratique pour obtenir des solutions de bonne qualité en un temps de calcul acceptable. Cette thèse est consacrée à des métaheuristiques hybrides pour la résolution efcace des problèmes MSCP et BCP. Pour le problème MSCP, nous présentons deux algorithmes mémétiques qui combinent l’évolution d’une population d’individus avec de la recherche locale. Pour le problème BCP, nous proposons un algorithme hybride à base d’apprentissage faisant coopérer une méthode de construction “informée” avec une procédure de recherche locale. Les algorithmes développés sont évalués sur des instances biens connues et se révèlent très compétitifs par rapport à l’état de l’art. Les principaux composants des algorithmes que nous proposons sont également analysés. / The minimum sum coloring problem (MSCP) and the bandwidth coloring problem (BCP) are two important generalizations of the classical vertex coloring problem with numerous applications in diverse domains, including VLSI design, scheduling, resource allocation and frequency assignment in mobile networks, etc. Since the MSCP and BCP are NP-hard problems, heuristics and metaheuristics are practical solution methods to obtain high quality solutions in an acceptable computing time. This thesis is dedicated to developing effective hybrid metaheuristic algorithms for the MSCP and BCP. For the MSCP, we present two memetic algorithms which combine population-based evolutionary search and local search. An effective algorithm for maximum independent set is devised for generating initial solutions. For the BCP, we propose a learning-based hybrid search algorithm which follows a cooperative framework between an informed construction procedure and a local search heuristic. The proposed algorithms are evaluated on well-known benchmark instances and show highly competitive performances compared to the current state-of-the-art algorithms from the literature. Furthermore, the key issues of these algorithms are investigated and analyzed.
34

Interféromètre à somme de fréquences dédié à l'imagerie haute résolution pour l'astronomie en bande L / Up conversion interferometer dedicated to high resolution imagery for astronomy into the L band

Szemendera, Ludovic 16 May 2017 (has links)
Les interféromètres stellaires sont des dispositifs à très haute résolution angulaire, permettant une étude approfondie de l’Univers. Cette thèse décrit la mise en place en laboratoire d’un interféromètre à somme de fréquences dédié à la détection de rayonnement infrarouge en bande L :ALOHA@3.39. Afin de pouvoir limiter le bruit généré par les rayonnements thermiques ambiants et de pouvoir bénéficier des technologies matures en terme de détection et de transport cohérents de la lumière collectée, ce système intègre sur chacune des voies interférométrique un processus non linéaire de somme de fréquence. Les rayonnements autour de 3.39 μm sont transposés autour de 810 nm via des cristaux de PPLN alimentés par une pompe unique à 1064 nm. Une première partie présente le contexte expérimental et théorique de la thèse. La deuxième partie concerne la conception, la réalisation et la caractérisation du banc ALOHA@3.39. La troisième partie présente les résultats expérimentaux obtenus en laboratoire. La mesure répétée du contraste en régime de fort flux permet de calibrer le contraste instrumental du montage. Les premières mesures en régime de comptage de photons montrent que nous sommes actuellement capables de détecter des franges d’interférence avec de hauts contrastes en ne disposant que de 100 Fw à l’entrée de chacune des voies. Enfin, nos investigations nous ont amené à la détection de franges d’interférences via le prototype ALOHA@3.39 à partir d’une source thermique, assimilable à un corps noir. Cette thèse conclue sur une estimation de la magnitude limite accessible, et sur l’utilisation de nouvelles technologies de PPLN. / Stellar interferometers are high angular resolution devices, allowing for detailed research of the Universe. This thesis describes the in-lab implementation of a sum frequency generation interferometer dedicated to the infrared detection in the L band : ALOHA@3.39. In the aim of limiting thermal noise due to the room radiation, and benefit mature detectors and fibered components, this device includes a sum frequency generation non-linear process on each of its arms. Stellar radiations around 3.39 μm are transposed to around 810 nm thanks to PPLN cristals powered by a single pump signal at 1064 nm. The first part presents our global experimental context and theoretical elements about this thesis. The second part deals with the conception, the implementation and characterisation of the test bench ALOHA@3.39. The third part tables in-lab experimental results. Repeated measurements of the fringe contrast on high flux regime allow to calibrate the instrumental contrast of the set-up. First measurements on photon counting regime show we are currently able to detect interference fringes with high contrast with only 100 fW at the input of each arm. Finally, our research led us to realise interference fringes detection via the ALOHA@3.39 prototype, observing a thermal source, considered as a black body. This thesis concludes on an estimation of the limiting reachable magnitude, and on the future use of new PPLN technologies.
35

Analyse du bruit lors de la génération de somme de fréquences dans les cristaux de niobate de lithium périodiquement polarisés (PPLN) et applications en régime de comptage de photons / Noise analysis in the sum frequency generation process in lithium niobate crystals periodically polarized (PPLN) and applications in regime of counting of photons

Baudoin, Romain 27 November 2014 (has links)
Le processus de somme de fréquences optiques est utilisé dans certaines applications pour convertir des signaux de longueurs d’onde infrarouges vers le domaine de longueurs d’onde visibles. Cela permet de bénéficier de technologies plus performantes notamment en terme de détection et de propagation. Les travaux menés dans cette thèse s’intéressent à l’étude de phénomènes optiques parasites générés par ce processus non linéaire dans des cristaux de niobate de lithium périodiquement polarisés (PPLN) pour des applications de conversion de fréquences en régime de comptage de photons. La première partie de ce manuscrit montre l’intérêt du processus de somme de fréquences optiques dans le contexte technologique de la détection infrarouge en régime de comptage de photons, via le concept de détection hybride. Les éléments théoriques et l’état de l’art associés à la détection hybride seront également présentés dans cette première partie. La deuxième partie traite d’une étude comparative entre différents cristaux de PPLN pour la détection hybride à 1550 nm. Pour cela, une analyse expérimentale détaillée des processus parasites est effectuée. Les résultats de cette étude sont utilisés pour des applications en astronomie et en microscopie. Enfin, la troisième partie traite d’une application de la somme de fréquences en interférométrie stellaire. Les résultats de caractérisation des cristaux de PPLN sont mis à contribution dans l’optimisation d’un instrument pour l’astronomie appelé interféromètre à somme de fréquences. Les résultats d’observation sur le site astronomique du Mont Wilson ainsi que les perspectives de cette instrument y sont présentés. / The sum frequency generation process is used in differents applications to convert signals from infrared wavelengths to the field of visible wavelength. This allows to benefit of more efficient technologies in terms of detection and propagation. This thesis describes the study of noise phenomena generated by this process in crystals of periodically poled lithium niobate (PPLN) for frequency up-conversion applications in photon counting regime. The first part of the manuscript shows the advantage of sum frequency generation process in the technological environment of the infrared detection on single photon counting regime, using the concept of hybrid detection. The theoretical elements and the state of the art associated with hybrid detection will also be presented in this first part. The second part deals with a comparative study between different PPLN for hybrid detection at 1550 nm. A detailed experimental analysis of the noise process is performed. The results of this study are used for applications in astronomy and microscopy. The third part deals with an application of the sum frequency in stellar interferometry. The results of PPLN’s characterization are involved in optimizing an instrument for astronomy called sum frequency interferometer. The results of observation on the astronomical site of Mount Wilson and the prospects of this instrument are presented.
36

Analyse of real-time systems from scheduling perspective / Analyse des systèmes temps réel de point de vue ordonnancement

Chadli, Mounir 21 November 2018 (has links)
Les logiciels sont devenus une partie importante de notre vie quotidienne, car ils sont maintenant utilisés dans de nombreux périphériques hétérogènes, tels que nos téléphones, nos voitures, nos appareils ménagers, etc. Ces périphériques sont parsemés d’un certain nombre de logiciels intégrés, chacun gérant une tâche spécifique. Ces logiciels intégrés sont conçus pour fonctionner à l’intérieur de systèmes plus vastes avec un matériel varié et hétérogène et des ressources limitées. L'utilisation de logiciels embarqués est motivée par la flexibilité et la simplicité que ces logiciels peuvent garantir, ainsi que par la réduction des coûts. Les Cyber-Physical System (CPS) sont des logiciels utilisés pour contrôler des systèmes physiques. Les CPS sont souvent intégrés et s'exécutent en temps réel, ce qui signifie qu'ils doivent réagir aux événements externes. Un CPS complexe peut contenir de nombreux systèmes en temps réel. Le fait que ces systèmes puissent être utilisés dans des domaines critiques tels que la médecine ou les transports exige un haut niveau de sécurité pour ces systèmes. Les systèmes temps réel (RTS), par définition, sont des systèmes informatiques de traitement qui doivent répondre à des entrées générées de manière externe. Ils sont appelés temps réel car leur réponse doit respecter des contraintes de temps strictes. Par conséquent, l'exactitude de ces systèmes ne dépend pas seulement de l'exactitude des résultats de leur traitement, mais également du moment auquel ces résultats sont donnés. Le principal problème lié à l'utilisation de systèmes temps réel est la difficulté de vérifier leurs contraintes de synchronisation. Un moyen de vérifier les contraintes de temps peut consister à utiliser la théorie de la planification, stratégie utilisée pour partager les ressources système entre ses différents composants. Outre les contraintes de temps, il convient de prendre en compte d'autres contraintes, telles que la consommation d'énergie ou la sécurité. Plusieurs méthodes de vérification ont été utilisées au cours des dernières années, mais avec la complexité croissante des logiciels embarqués, ces méthodes atteignent leurs limites. C'est pourquoi les chercheurs se concentrent maintenant sur la recherche de nouvelles méthodes et de nouveaux formalismes capables de vérifier l'exactitude des systèmes les plus complexes. Aujourd'hui, une classe de méthodes de vérification bien utilisées est les techniques basées sur des modèles. Ces techniques décrivent le comportement du système considéré à l'aide de formalismes mathématiques, puis, à l'aide de méthodes appropriées, permettent d'évaluer l'efficacité du système par rapport à un ensemble de propriétés. Dans ce manuscrit, nous nous concentrons sur l'utilisation de techniques basées sur des modèles pour développer de nouvelles techniques de planification afin d'analyser et de valider la satisfiabilité d'un certain nombre de propriétés sur des systèmes temps réel. L'idée principale est d'exploiter la théorie de l'ordonnancement pour proposer ces nouvelles techniques. Pour ce faire, nous proposons un certain nombre de nouveaux modèles afin de vérifier la satisfiabilité d'un certain nombre de propriétés telles que l'ordonnancement, la consommation d'énergie ou la fuite d'informations. / Software’s become an important part of our daily life as they are now used in many heterogeneous devices, such as our phones, our cars, our home appliances … etc. These devices are dotted with a number of embedded software’s, each handling a specific task. These embedded software’s are designed to run inside larger systems with various and heterogeneous hardware and limited resources. The use of embedded software is motivated by the flexibility and the simplicity that these software can guarantee, and to minimize the cost. Cyber-Physical System (CPS) are software used to control physical systems. CPS are often embedded and run in real-time, which means that they must react to external events. A complex CPS can contains many real-time systems. The fact that these systems can be used in critical domains like medicine or transport requires a high level of safety for these systems. Real-Time Systems (RTS) by definition are processing information systems that have to respond to externally generated inputs, and they are called real-time because their response must respect a strict timing constraints. Therefore, the correctness of these systems does not depend only on the correctness of their treatment results, but it also depends on the timings at which these results are given. The main problem with using real-time systems is the difficulty to verify their timing constraints. A way to verify timing constraints can be to use Scheduling theory which is a strategy used in order to share the system resources between its different components. In addition to the timing constraints, other constraints should be taken in consideration, like energy consumption or security. Several verification methods have been used in the last years, but with the increasing complexity of the embedded software these methods reach their limitation. That is why researchers are now focusing their works on finding new methods and formalisms capable of verifying the correctness of the most complex systems. Today, a well-used class of verification methods are model-based techniques. These techniques describe the behavior of the system under consideration using mathematical formalisms, then using appropriate methods they give the possibility to evaluate the correctness of the system with respect to a set of properties. In this manuscript we focus on using model-based techniques to develop new scheduling techniques in order to analyze and validate the satisfiability of a number of properties on real-time systems. The main idea is to exploit scheduling theory to propose these new techniques. To do that, we propose a number of new models in order to verify the satisfiability of a number of properties as schedulability, energy consumption or information leakage.
37

Propriétés multiplicatives d'entiers soumis à des conditions digitales

Col, Sylvain 22 June 1996 (has links) (PDF)
Pour une base fixée, les entiers ellipséphiques (c'est-à-dire les entiers dont l'écriture n'utilise que certains chiffres) et les palindromes forment des sous ensembles éparses des entiers, ensembles définis par des conditions digitales. Nous étudions si ces ensembles ont des propriétés multiplicatives similaires à celles des entiers.<br>Nous évaluons d'abord les grands moments de la série génératrice des entiers ellipséphiques. Comme application, nous en déduisons l'existence d'un 0 < c < 1 tel que pour tout entier k, une infinité d'entiers ellipséphiques n possédant un diviseur p^k de l'ordre de n^c, p désignant un nombre premier. De plus, le nombre de tels entiers est de l'ordre de grandeur attendu.<br>Nous établissons ensuite un résultat de crible où les modules possédant un nombre anormalement grand de diviseurs sont écartés du terme d'erreur. Nous en déduisons l'existence d'une proportion positive d'entiers ellipséphiques friables c'est-à-dire possédant tous leurs facteurs premiers majorés par n^c, pour une constante c < 1 fixée.<br>Nous montrons enfin à l'aide de techniques élémentaires comment réduire l'étude de la série génératrice des palindromes à une série proche de celle des entiers ellipséphiques ce qui permet d'étudier la répartition des palindromes dans les progressions arithmétiques et ainsi d'obtenir une majoration de l'ordre de grandeur attendu du nombre de palindromes premiers. Nous en déduisons en particulier l'existence d'une infinité de palindromes possédant en base 10 au plus 372 facteurs premiers (comptés avec multiplicité).
38

Calcul symbolique non commutatif : analyse des constantes d'arbre de fouille

Costermans, Christian 05 June 2008 (has links) (PDF)
L'étude de certaines variables aléatoires, comme les paramètres additifs sur les arbres hyperquaternaires de points, ou encore le nombre de maxima au sein d'un ensemble de n points indépendants, et uniformément distribués dans [0,1]^d font apparaître des suites particulières, les sommes harmoniques multiples (SHM), extensions des nombres harmoniques classiques à des multi-indices.<br /><br />Nos travaux visant à appliquer des méthodes symboliques pour l'étude de ces variables aléatoires, nous remplaçons l'utilisation de multi-indices par des codages sur des alphabets distincts, et nous appuyons alors sur des résultats importants en combinatoire des mots pour les appliquer à nos suites de SHM, et aux fonctions polylogarithmes, qui sont des variantes des génératrices ordinaires des SHM. Dans les cas convergents, les deux objets convergent (respectivement lorsque z tend vers 1 et lorsque N tend vers l'infini) vers la même limite, appelée polyzêta. Pour les cas divergents, l'utilisation de séries génératrices non commutatives nous permet d'établir un théorème ``à l'Abel'', faisant apparaître une limite commune. Ce théorème permet de donner une forme explicite aux constantes d'Euler généralisées associées à des SHM divergentes et ainsi d'obtenir un algorithme très efficace pour calculer leur développement asymptotique.<br /><br />Finalement, nous proposons des applications des sommes harmoniques dans le domaine des structures de données multidimensionnelles, pour lesquelles notre approche donne naissance à des calculs exacts, qui peuvent par la suite être aisément évalués asymptotiquement.
39

Paramètres d'ordre et sélection de modèles en apprentissage : caractérisation des modèles et sélection d'attributs

Gaudel, Romaric 14 December 2010 (has links) (PDF)
Nous nous intéressons à la sélection de modèle en apprentissage automatique, sous deux angles différents. La première partie de la thèse concerne les méthodes à noyau relationnel. Les méthodes à noyau permettent en principe de s'affranchir de la représentation des instances, et de combler le fossé entre apprentissage relationnel et apprentissage propositionnel. Cette thèse s'intéresse à la faisabilité de cet objectif dans un cas particulier : les problèmes à instances multiples, qui sont considérés comme un intermédiaire entre les problèmes propositionnels et les problèmes relationnels. Concrètement, nous déterminons sous quelles conditions le noyau-somme, utilisé sur des problèmes à instances multiples, est en mesure de reconstruire le concept-cible. Cette étude suit le schéma standard des études de transition de phase et s'appuie sur un critère nouveau pour caractériser l'efficacité de la propositionnalisation induite par le noyau-somme. La deuxième partie de la thèse porte sur la sélection d'attributs. Une solution pour résoudre les problèmes à instances multiples, tels que présentés en première partie, passe par une propositionnalisation associant un attribut à chaque instance présente dans le problème. Le nombre d'attributs ainsi construits étant gigantesque, il est alors nécessaire de sélectionner un sous-ensemble d'attributs ne contenant que des attributs pertinents. La deuxième partie de la thèse propose donc une nouvelle approche pour la sélection d'attributs. La sélection d'attributs est réécrite comme un problème d'apprentissage par renforcement, conduisant ainsi à une politique de sélection optimale mais non-calculable en un temps raisonnable. Cette politique est approchée en se fondant sur une approche de jeu à un joueur et en utilisant la méthode Monte-Carlo pour les arbres UCT (Upper Confidence bound applied to Trees), qui a été proposée par Kocsis et Szepesvari (2006). L'algorithme FUSE (Feature Uct SElection) étend UCT pour gérer (1) l'horizon fini mais inconnu, et (2) le facteur de branchement élevé de l'arbre de recherche reflétant la taille de l'ensemble d'attributs. Finalement, une fonction de récompense frugale est proposée en tant qu'estimation grossière mais non-biaisée de la pertinence d'un sous-ensemble d'attributs. Une preuve de concept de FUSE est fournie sur des bases de données de référence.
40

Systèmes quasi-LPV continus : comment dépasser le cadre du quadratique ?

Jaadari, Abdelhafidh 03 July 2013 (has links) (PDF)
Cette thèse aborde le problème de l'analyse de la stabilité et de la conception des lois de commande pour les systèmes non linéaires mis sous la forme de modèles flous continus de type Takagi-Sugeno. L'analyse de stabilité est généralement basée sur la méthode directe de Lyapunov. Plusieurs approches existent dans la littérature, basées sur des fonctions de Lyapunov quadratiques sont proposées pour résoudre ce problème, les résultats obtenus à l'aide des telles fonctions introduisent un conservatisme qui peut être très préjudiciable. Pour surmonter ce problème, différentes approches basées sur des fonctions de Lyapunov non quadratiques ont été proposées, néanmoins ces approches sont basées sur desconditions très restrictives. L'idée développée dans ce travail est d'utiliser des fonctions de Lyapunov non quadratiques et des contrôleurs non-PDC afin d'en tirer des conditions de stabilité et de stabilisation moins conservatives. Les propositions principales sont : l'utilisation des bornes locales des dérivées partielles au lieu des dérivés des fonctions d'appartenances, le découplage du gain du régulateur des variables de décision de la fonction Lyapunov, l'utilisation des fonctions de Lyapunov floues polynomiales dans l'environnement des polynômes et la proposition de la synthèse de contrôleur vérifiant certaines limites de dérivés respectées dans une région de la modélisation à la place de les vérifier a posteriori. Ces nouvelles approches permettent de proposer des conditions locales afin de stabiliser les modèles flous continus de type T-S, y compris ceux qui n'admettent pas une stabilisation quadratique et obtenir des domaines de stabilité plus grand. Plusieurs exemples de simulation sont choisis afin de vérifier les résultats présentésdans cette thèse.

Page generated in 0.0234 seconds