• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 20
  • 2
  • Tagged with
  • 53
  • 15
  • 13
  • 12
  • 9
  • 9
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Online generation of time- optimal trajectories for industrial robots in dynamic environments / Génération en ligne de trajectoires optimales en temps pour des robots industriels en environnements dynamiques

Homsi, Saed Al 17 March 2016 (has links)
Nous observons ces dernières années un besoin grandissant dans l’industrie pour des robots capables d’interagir et de coopérer dans des environnements confinés. Cependant, aujourd’hui encore, la définition de trajectoires sûres pour les robots industriels doit être faite manuellement par l’utilisateur et le logiciel ne dispose que de peu d’autonomie pour réagir aux modifications de l’environnement. Cette thèse vise à produire une structure logicielle innovante pour gérer l’évitement d’obstacles en temps réel pour des robots manipulateurs évoluant dans des environnements dynamiques. Nous avons développé pour cela un algorithme temps réel de génération de trajectoires qui supprime de façon automatique l’étape fastidieuse de définition d’une trajectoire sûre pour le robot.La valeur ajoutée de cette thèse réside dans le fait que nous intégrons le problème de contrôle optimal dans le concept de hiérarchie de tâches pour résoudre un problème d’optimisation non-linéaire efficacement et en temps réel sur un système embarqué aux ressources limitées. Notre approche utilise une commande prédictive (MPC) qui non seulement améliore la réactivité de notre système mais présente aussi l’avantage de pouvoir produire une bonne approximation linéaire des contraintes d’évitement de collision. La stratégie de contrôle présentée dans cette thèse a été validée à l’aide de plusieurs expérimentations en simulations et sur systèmes réels. Les résultats démontrent l’efficacité, la réactivité et la robustesse de cette nouvelle structure de contrôle lorsqu’elle est utilisée dans des environnements dynamiques. / In the field of industrial robots, there is a growing need for having cooperative robots that interact with each other and share work spaces. Currently, industrial robotic systems still rely on hard coded motions with limited ability to react autonomously to dynamic changes in the environment. This thesis focuses on providing a novel framework to deal with real-time collision avoidance for robots performing tasks in a dynamic environment. We develop a reactive trajectory generation algorithm that reacts in real time, removes the fastidious optimization process which is traditionally executed by hand by handling it automatically, and provides a practical way of generating locally time optimal solutions.The novelty in this thesis is in the way we integrate the proposed time optimality problem in a task priority framework to solve a nonlinear optimization problem efficiently in real time using an embedded system with limited resources. Our approach is applied in a Model Predictive Control (MPC) setting, which not only improves reactivity of the system but presents a possibility to obtain accurate local linear approximations of the collision avoidance constraint. The control strategies presented in this thesis have been validated through various simulations and real-world robot experiments. The results demonstrate the effectiveness of the new control structure and its reactivity and robustness when working in dynamic environments.
42

Variants of acceptance specifications for modular system design / Variantes de spécifications à ensemble d'acceptation pour la conception modulaire de systèmes

Verdier, Guillaume 29 March 2016 (has links)
Les programmes informatiques prennent une place de plus en plus importante dans nos vies. Certains de ces programmes, comme par exemple les systèmes de contrôle de centrales électriques, d'avions ou de systèmes médicaux sont critiques : une panne ou un dysfonctionnement pourraient causer la perte de vies humaines ou des dommages matériels ou environnementaux importants. Les méthodes formelles visent à offrir des moyens de concevoir et vérifier de tels systèmes afin de garantir qu'ils fonctionneront comme prévu. Au fil du temps, ces systèmes deviennent de plus en plus évolués et complexes, ce qui est source de nouveaux défis pour leur vérification. Il devient nécessaire de développer ces systèmes de manière modulaire afin de pouvoir distribuer la tâche d'implémentation à différentes équipes d'ingénieurs. De plus, il est important de pouvoir réutiliser des éléments certifiés et les adapter pour répondre à de nouveaux besoins. Aussi les méthodes formelles doivent évoluer afin de s'adapter à la conception et à la vérification de ces systèmes modulaires de taille toujours croissante. Nous travaillons sur une approche algébrique pour la conception de systèmes corrects par construction. Elle définit un formalisme pour exprimer des spécifications de haut niveau et permet de les raffiner de manière incrémentale en des spécifications plus concrètes tout en préservant leurs propriétés, jusqu'à ce qu'une implémentation soit atteinte. Elle définit également plusieurs opérations permettant de construire des systèmes complexes à partir de composants plus simples en fusionnant différents points de vue d'un même système ou en composant plusieurs sous-systèmes ensemble, ainsi que de décomposer une spécification complexe afin de réutiliser des composants existants et de simplifier la tâche d'implémentation. Le formalisme de spécification que nous utilisons est basé sur des spécifications modales. Intuitivement, une spécification modale est un automate doté de deux types de transitions permettant d'exprimer des comportements optionnels ou obligatoires. Raffiner une spécification modale revient à décider si les parties optionnelles devraient être supprimées ou rendues obligatoires. Cette thèse contient deux principales contributions théoriques basées sur une extension des spécifications modales appelée " spécifications à ensembles d'acceptation ". La première contribution est l'identification d'une sous-classe des spécifications à ensembles d'acceptation, appelée " spécifications à ensembles d'acceptation convexes ", qui permet de définir des opérations bien plus efficaces tout en gardant un haut niveau d'expressivité. La seconde contribution est la définition d'un nouveau formalisme, appelé " spécifications à ensembles d'acceptation marquées ", qui permet d'exprimer des propriétés d'atteignabilité. Ceci peut, par exemple, être utilisé pour s'assurer qu'un système termine ou exprimer une propriété de vivacité dans un système réactif. Les opérations usuelles sont définies sur ce nouveau formalisme et elles garantissent la préservation des propriétés d'atteignabilité. Cette thèse présente également des résultats d'ordre plus pratique. Tous les résultats théoriques sur les spécifications à ensembles d'acceptation convexes ont été prouvés en utilisant l'assistant de preuves Coq. L'outil MAccS a été développé pour implémenter les formalismes et opérations présentés dans cette thèse. Il permet de les tester aisément sur des exemples, ainsi que d'étudier leur efficacité sur des cas concrets. / Software programs are taking a more and more important place in our lives. Some of these programs, like the control systems of power plants, aircraft, or medical devices for instance, are critical: a failure or malfunction could cause loss of human lives, damages to equipments, or environmental harm. Formal methods aim at offering means to design and verify such systems in order to guarantee that they will work as expected. As time passes, these systems grow in scope and size, yielding new challenges. It becomes necessary to develop these systems in a modular fashion to be able to distribute the implementation task to engineering teams. Moreover, being able to reuse some trustworthy parts of the systems and extend them to answer new needs in functionalities is increasingly required. As a consequence, formal methods also have to evolve in order to accommodate both the design and the verification of these larger, modular systems and thus address their scalability challenge. We promote an algebraic approach for the design of correct-by-construction systems. It defines a formalism to express high-level specifications of systems and allows to incrementally refine these specifications into more concrete ones while preserving their properties, until an implementation is reached. It also defines several operations allowing to assemble complex systems from simpler components, by merging several viewpoints of a specific system or composing several subsystems together, as well as decomposing a complex specification in order to reuse existing components and ease the implementation task. The specification formalism we use is based on modal specifications. In essence, a modal specification is an automaton with two kinds of transitions allowing to express mandatory and optional behaviors. Refining a modal specification amounts to deciding whether some optional parts should be removed or made mandatory. This thesis contains two main theoretical contributions, based on an extension of modal specifications called acceptance specifications. The first contribution is the identification of a subclass of acceptance specifications, called convex acceptance specifications, which allows to define much more efficient operations while maintaining a high level of expressiveness. The second contribution is the definition of a new formalism, called marked acceptance specifications, that allows to express some reachability properties. This could be used for example to ensure that a system is terminating or to express a liveness property for a reactive system. Usual operations are defined on this new formalism and guarantee the preservation of the reachability properties as well as independent implementability. This thesis also describes some more practical results. All the theoretical results on convex acceptance specifications have been proved using the Coq proof assistant. The tool MAccS has been developed to implement the formalisms and operations presented in this thesis. It allows to test them easily on some examples, as well as run some experimentations and benchmarks.
43

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images / Tomographic reconstruction of qualitative and quantitative properties of images

Abdmouleh, Fatma 12 November 2013 (has links)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d’apporter des réponses. On s’intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l’image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l’unicité de cette reconstruction ; 3) l'estimation d’informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d’aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d’ensembles ayant des propriétés de convexité qu’on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d’ensembles, nous montrons qu’elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d’ensemblesconvexes par quadrants qui, si l’unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l’unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d’estimer, à partir d’une seule projection, la surface d’un ensemble 2D. Concernant l’estimation du périmètre d’un ensemble 2D, en considérant les projections par une deuxième source d’un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l’objet projeté. / Tomography is about reconstructing an nD object from its (n-1)D projections. This discipline addresses many questions to which research tries to provide answers. In this work, we are interested to three aspects: 1) the 2D image reconstruction from projections in a rarely studies framework that is the point sources; 2) the uniqueness of this reconstruction; 3) estimating information about an object without going through the step of reconstructing its image. To approach the problem of tomographic reconstruction for the class of convex sets, we define a new class of sets having properties of convexity called quadrant convexity for point sources. After a study of this new class of sets, we show that it presents strong links with the class of convex sets. Wepropose a reconstruction algorithm for quadrant-convex sets that, if the uniqueness of the reconstruction is guaranteed, allows the reconstruction of convex sets in polynomial time. We also show that if a conjecture we have proposed is true the conditions of uniqueness for quadrant-convex sets are the same as those for convex sets. Regarding the third aspect studied in this thesis, we focus on two quantitative properties that are the surface and the perimeter. We propose a method to estimate, from only one projection, the surface of a 2D set. We obtain two lower bounds and an upper bound for the perimeter of a projected convexobject by considering the projections from a second point source.
44

Influence de la courbure sur la taille du barycentre convexe dans les variétés différentiables / Curvature influence on the size of convex barycenter in differentiable manifolds

Gorine, Mohammed 24 January 2015 (has links)
Si µ est une mesure de probabilité à support compact dans uns espace vectoriel ou affine de dimension finie, le barycentre (ou centre de gravité) de µ est un point bien défini de l’espace. Mais des difficultés surgissent lorsque l’espace est remplacé par une variété riemannienne M ; dans ce cas, même en se restreignant aux variétés convexes (c’est-à-dire deux dont points quelconques sont toujours joints par une géodésique et une seule) et aux mesures à support fini, il est en général impossible d'assigner à chaque probabilité un barycentre de façon que, d'une part,pour tous λϵ [0; 1] et x et y dans M, le barycentre de µ = (1- λ ) δˣ+ λ δy soit toujours le point γ(λ), sur la géodésique telle que γ (0) = x et γ (1) = y, et que, d'autre part, soit préservée la propriété d'associativité (pour faire une moyenne, on peut commencer par faire des moyennes partielles). Dés que la mesure µ est portée par au moins trois points non tous situées sur une même géodésique, il y a de multiples façons différentes de définir son barycentre comme barycentre de barycentres partiels de barycentres partiels etc., chaque opération élémentaire ne faisant intervenir que deux points. On obtient ainsi tout un ensemble de points de M, les barycentres itérés de µ . Pour des probabilités plus générales, on appelle barycentre convexe de µ l'ensemble b(µ) des points x de M qui sont limites d'une suite (xn), ou chaque xn est un barycentre itéré d'une probabilité µn à support fini, les mesures µn tendant vers µ. / If μ is a probability measure carried on a small in a finite-dimension vectorial or affine space, the μ- barycenter (center of gravity) is a well-defined point in space. Nevertheless, difficulties arise when space is changed by Riemannian manifold M. In this case, even if we limit to convex manifolds (i.e : when any two points are joined by one geodesic and just one) and to finite-support measures, it’s, in general impossible to attribute a barycenter to each probability, in such a way, on one hand, whetever λϵ [0; 1] and x and y in M, the barycenter of µ = (1- λ ) δˣ+ λ δy will be always the point γ(λ) of the geodesic such that γ (0) = x et γ (1) =y, and on another hand, the associative property will be maintained (to make a mean, we can begin by doing partial means). Once the measure μ is carried by at least three points which are not all localed on the same geodesic, there are different manners to define its barycenter as one of partial barycenters of partial barycenters and so on, in which each elementary operation includes only two points. Thus, we get a whole set of set of points of M, the iterated barycenters of μ. For more general probabilities μ, we call convex barycenter of μ, the set b(μ) of points x of M which are limit of sequence (xn), in which each xn is an iterated barycenter of a finite support probability μn, the measure μn tending to μ.
45

Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité / Risk process : dependence modeling and risk evaluation under convexity constraints

Kacem, Manel 20 March 2013 (has links)
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées / In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
46

A tropical geometry and discrete convexity approach to bilevel programming : application to smart data pricing in mobile telecommunication networks / Une approche par la géométrie tropicale et la convexité discrète de la programmation bi-niveau : application à la tarification des données dans les réseaux mobiles de télécommunications

Eytard, Jean-Bernard 12 November 2018 (has links)
La programmation bi-niveau désigne une classe de problèmes d'optimisation emboîtés impliquant deux joueurs.Un joueur meneur annonce une décision à un joueur suiveur qui détermine sa réponse parmi l'ensemble des solutions d'un problème d'optimisation dont les données dépendent de la décision du meneur (problème de niveau bas).La décision optimale du meneur est la solution d'un autre problème d'optimisation dont les données dépendent de la réponse du suiveur (problème de niveau haut).Lorsque la réponse du suiveur n'est pas unique, on distingue les problèmes bi-niveaux optimistes et pessimistes,suivant que la réponse du suiveur soit respectivement la meilleure ou la pire possible pour le meneur.Les problèmes bi-niveaux sont souvent utilisés pour modéliser des problèmes de tarification. Dans les applications étudiées ici, le meneur est un vendeur qui fixe un prix, et le suiveur modélise le comportement d'un grand nombre de clients qui déterminent leur consommation en fonction de ce prix. Le problème de niveau bas est donc de grande dimension.Cependant, la plupart des problèmes bi-niveaux sont NP-difficiles, et en pratique, il n'existe pas de méthodes générales pour résoudre efficacement les problèmes bi-niveaux de grande dimension.Nous introduisons ici une nouvelle approche pour aborder la programmation bi-niveau.Nous supposons que le problème de niveau bas est un programme linéaire, en variables continues ou discrètes,dont la fonction de coût est déterminée par la décision du meneur.Ainsi, la réponse du suiveur correspond aux cellules d'un complexe polyédral particulier,associé à une hypersurface tropicale.Cette interprétation est motivée par des applications récentes de la géométrie tropicale à la modélisation du comportement d'agents économiques.Nous utilisons la dualité entre ce complexe polyédral et une subdivision régulière d'un polytope de Newton associé pour introduire une méthode dedécomposition qui résout une série de sous-problèmes associés aux différentes cellules du complexe.En utilisant des résultats portant sur la combinatoire des subdivisions, nous montrons que cette décomposition mène à un algorithme permettant de résoudre une grande classe de problèmes bi-niveaux en temps polynomial en la dimension du problème de niveau bas lorsque la dimension du problème de niveau haut est fixée.Nous identifions ensuite des structures spéciales de problèmes bi-niveaux pour lesquelles la borne de complexité peut être améliorée.C'est en particulier le cas lorsque la fonction coût du meneur ne dépend que de la réponse du suiveur.Ainsi, nous montrons que la version optimiste du problème bi-niveau peut être résolue en temps polynomial, notammentpour des instancesdans lesquelles les données satisfont certaines propriétés de convexité discrète.Nous montrons également que les solutions de tels problèmes sont des limites d'équilibres compétitifs.Dans la seconde partie de la thèse, nous appliquons cette approche à un problème d'incitation tarifaire dans les réseaux mobiles de télécommunication.Les opérateurs de données mobiles souhaitent utiliser des schémas de tarification pour encourager les différents utilisateurs à décaler leur consommation de données mobiles dans le temps, et par conséquent dans l'espace (à cause de leur mobilité), afin de limiter les pics de congestion.Nous modélisons cela par un problème bi-niveau de grande taille.Nous montrons qu'un cas simplifié peut être résolu en temps polynomial en utilisant la décomposition précédente,ainsi que des résultats de convexité discrète et de théorie des graphes.Nous utilisons ces idées pour développer une heuristique s'appliquant au cas général.Nous implémentons et validons cette méthode sur des données réelles fournies par Orange. / Bilevel programming deals with nested optimization problems involving two players. A leader annouces a decision to a follower, who responds by selecting a solution of an optimization problem whose data depend on this decision (low level problem). The optimal decision of the leader is the solution of another optimization problem whose data depend on the follower's response (high level problem). When the follower's response is not unique, one distinguishes between optimistic and pessimistic bilevel problems, in which the leader takes into account the best or worst possible response of the follower.Bilevel problems are often used to model pricing problems.We are interested in applications in which the leader is a seller who announces a price, and the follower models the behavior of a large number of customers who determine their consumptions depending on this price.Hence, the dimension of the low-level is large. However, most bilevel problems are NP-hard, and in practice, there is no general method to solve efficiently large-scale bilevel problems.In this thesis, we introduce a new approach to tackle bilevel programming. We assume that the low level problem is a linear program, in continuous or discrete variables, whose cost function is determined by the leader. Then, the follower responses correspond to the cells of a special polyhedral complex, associated to a tropical hypersurface. This is motivated by recent applications of tropical geometry to model the behavior of economic agents.We use the duality between this polyhedral complex and a regular subdivision of an associated Newton polytope to introduce a decomposition method, in which one solves a series of subproblems associated to the different cells of the complex. Using results about the combinatorics of subdivisions, we show thatthis leads to an algorithm to solve a wide class of bilevel problemsin a time that is polynomial in the dimension of the low-level problem when the dimension of the high-level problem is fixed.Then, we identify special structures of bilevel problems forwhich this complexity bound can be improved.This is the case when the leader's cost function depends only on the follower's response. Then, we showthe optimistic bilevel problem can be solved in polynomial time.This applies in particular to high dimensional instances in which the datasatisfy certain discrete convexity properties. We also show that the solutions of such bilevel problems are limits of competitive equilibria.In the second part of this thesis, we apply this approach to a price incentive problem in mobile telecommunication networks.The aim for Internet service providers is to use pricing schemes to encourage the different users to shift their data consumption in time(and so, also in space owing to their mobility),in order to reduce the congestion peaks.This can be modeled by a large-scale bilevel problem.We show that a simplified case can be solved in polynomial time by applying the previous decomposition approach together with graph theory and discrete convexity results. We use these ideas to develop an heuristic method which applies to the general case. We implemented and validated this method on real data provided by Orange.
47

Transport optimal : régularité et applications / Optimal Transport : Regularity and applications

Gallouët, Thomas 10 December 2012 (has links)
Cette thèse comporte deux parties distinctes, toutes les deux liées à la théorie du transport optimal. Dans la première partie, nous considérons une variété riemannienne, deux mesures à densité régulière et un coût de transport, typiquement la distance géodésique quadratique et nous nous intéressons à la régularité de l’application de transport optimal. Le critère décisif à cette régularité s’avère être le signe du tenseur de Ma-Trudinger-Wang (MTW). Nous présentons tout d’abord une synthèse des travaux réalisés sur ce tenseur. Nous nous intéressons ensuite au lien entre la géométrie des lieux d’injectivité et le tenseur MTW. Nous montrons que dans de nombreux cas, la positivité du tenseur MTW implique la convexité des lieux d’injectivité. La deuxième partie de cette thèse est liée aux équations aux dérivées partielles. Certaines peuvent être considérées comme des flots gradients dans l’espace de Wasserstein W2. C’est le cas de l’équation de Keller-Segel en dimension 2. Pour cette équation nous nous intéressons au problème de quantification de la masse lors de l’explosion des solutions ; cette explosion apparaît lorsque la masse initiale est supérieure à un seuil critique Mc. Nous cherchons alors à montrer qu’elle consiste en la formation d’un Dirac de masse Mc. Nous considérons ici un modèle particulaire en dimension 1 ayant le même comportement que l’équation de Keller-Segel. Pour ce modèle nous exhibons des bassins d’attractions à l’intérieur desquels l’explosion se produit avec seulement le nombre critique de particules. Finalement nous nous intéressons au profil d’explosion : à l’aide d’un changement d’échelle parabolique nous montrons que la structure de l’explosion correspond aux points critiques d’une certaine fonctionnelle. / This thesis consists in two distinct parts both related to the optimal transport theory.The first part deals with the regularity of the optimal transport map. The key tool is the Ma-Trundinger-Wang tensor and especially its positivity. We first give a review of the known results about the MTW tensor. We then explore the geometrical consequences of the MTW tensor on the injectivity domain. We prove that in many cases the positivity of MTW implies the convexity of the injectivity domain. The second part is devoted to the behaviour of a Keller-Segel solution in the super critical case. In particular we are interested in the mass quantization problem: we wish to quantify the mass aggregated when the blow-up occurs. In order to study the behaviour of the solution we consider a particle approximation of a Keller-Segel type equation in dimension 1. We define this approximation using the gradient flow interpretation of the Keller-Segel equation and the particular structure of the Wasserstein space in dimension 1. We show two kinds of results; we first prove a stability theorem for the blow-up mechanism: we exhibit basins of attraction in which the solution blows up with only the critical number of particles. We then prove a rigidity theorem for the blow-up mechanism: thanks to a parabolic rescaling we prove that the structure of the blow-up is given by the critical points of a certain functional.
48

Les actions de groupes en géométrie symplectique et l'application moment

Payette, Jordan 11 1900 (has links)
Ce mémoire porte sur quelques notions appropriées d'actions de groupe sur les variétés symplectiques, à savoir en ordre décroissant de généralité : les actions symplectiques, les actions faiblement hamiltoniennes et les actions hamiltoniennes. Une connaissance des actions de groupes et de la géométrie symplectique étant prérequise, deux chapitres sont consacrés à des présentations élémentaires de ces sujets. Le cas des actions hamiltoniennes est étudié en détail au quatrième chapitre : l'importante application moment y est définie et plusieurs résultats concernant les orbites de la représentation coadjointe, tels que les théorèmes de Kirillov et de Kostant-Souriau, y sont démontrés. Le dernier chapitre se concentre sur les actions hamiltoniennes des tores, l'objectif étant de démontrer le théorème de convexité d'Atiyha-Guillemin-Sternberg. Une discussion d'un théorème de classification de Delzant-Laudenbach est aussi donnée. La présentation se voulant une introduction assez exhaustive à la théorie des actions hamiltoniennes, presque tous les résultats énoncés sont accompagnés de preuves complètes. Divers exemples sont étudiés afin d'aider à bien comprendre les aspects plus subtils qui sont considérés. Plusieurs sujets connexes sont abordés, dont la préquantification géométrique et la réduction de Marsden-Weinstein. / This Master thesis is concerned with some natural notions of group actions on symplectic manifolds, which are in decreasing order of generality : symplectic actions, weakly hamiltonian actions and hamiltonian actions. A knowledge of group actions and of symplectic geometry is a prerequisite ; two chapters are devoted to a coverage of the basics of these subjects. The case of hamiltonian actions is studied in detail in the fourth chapter : the important moment map is introduced and several results on the orbits of the coadjoint representation are proved, such as Kirillov's and Kostant-Souriau's theorems. The last chapter concentrates on hamiltonian actions by tori, the main result being a proof of Atiyah-Guillemin-Sternberg's convexity theorem. A classification theorem by Delzant and Laudenbach is also discussed. The presentation is intended to be a rather exhaustive introduction to the theory of hamiltonian actions, with complete proofs to almost all the results. Many examples help for a better understanding of the most tricky concepts. Several connected topics are mentioned, for instance geometric prequantization and Marsden-Weinstein reduction.
49

Modélisation de la réponse Immunitaire T-CD8 : analyse mathématique et modèles multiéchelles / Modeling the CD8 T-cell Immune Response : Mathematical Analysis and Multiscale Models

Girel, Simon 13 November 2018 (has links)
L'infection d'un organisme par un agent pathogène déclenche l'activation des lymphocytes T-CD8 et l'initiation de la réponse immunitaire. Il s'ensuit un programme complexe de prolifération et de différenciation des lymphocytes T-CD8, contrôlé par l'évolution de leur contenu moléculaire. Dans ce manuscrit, nous présentons deux modèles mathématiques de la réponse T-CD8. Le premier se présente comme une équation différentielle à impulsions grâce à laquelle nous étudions l'effet du partage inégal des protéines lors des divisions cellulaires sur la régulation de l'hétérogénéité moléculaire. Le second est un modèle à base d'agents couplant la description d'une population discrète de lymphocytes T-CD8 à celle du contenu moléculaire de ces derniers. Ce modèle s'avère capable de reproduire les différentes phases caractéristiques de la réponse T-CD8 aux échelle cellulaire et moléculaire. Ces deux travaux supportent l'hypothèse que la dynamique cellulaire observée in vivo est le reflet de l'hétérogénéité moléculaire qui structure la population de lymphocytes T-CD8 / Infection of an organism by a pathogen triggers the activation of the CD8 T-cells and the initiation of the immune response. The result is a complex program of proliferation and differentiation of the CD8 T-cells, controlled by the evolution of their molecular content. In this manuscript, we present two mathematical models of the CD8 T-cell response. The first one is presented as an impulsive differential equation by which we study the effect of unequal molecular partitioning at cell division on the regulation of molecular heterogeneity. The second one is an agent-based-model that couples the description of a discrete population of CD8 T-cells and that of their molecular content. This model can reproduce the different typical phases of the CD8 T-cell response at both the cellular and the molecular scales. These two studies support the hypothesis that the cell dynamics observed in vivo is a consequence of the molecular heterogeneity structuring the CD8 T-cell population
50

Sur l'observation de l'état des systèmes dynamiques non linéaires

Zemouche, Ali 30 March 2007 (has links) (PDF)
L'objectif de cette thèse était de développer des méthodes de synthèse d'observateurs offrant des conditions de synthèse non contraignantes. Trois méthodes ont été proposées et différentes classes de systèmes ont été traitées. La première est la méthode de transformation en système LPV basée sur l'utilisation du théorème des accroissements finis (DMVT). Cette technique, qui fournit des conditions de synthèse non restrictives, est étendue à plusieurs classes de systèmes non linéaires tels que les systèmes non différentiables, les systèmes à sorties non linéaires, les systèmes à entrées inconnues, les systèmes à retard et les systèmes à temps discret. La seule limitation liée à la méthode est le fait qu'elle n'est applicable que pour des non-linéarités à jacobiennes bornées. Afin de surmonter cette limitation, une deuxième méthode est obtenue en combinant la technique du DMVT avec une nouvelle structure d'observateurs de type Luenberger généralisés. Grâce à cette structure, de nouvelles conditions de synthèse sont établies. Ces conditions sont valables même si la jacobienne de la non-linéarité n'est pas bornée. Par ailleurs, une nouvelle méthode de synthèse d'observateurs spécifique aux systèmes à temps discret est également proposée. Cette méthode utilise la condition de Lipschitz conjointement avec la fonction de Lyapunov standard. Des améliorations, qui permettent d'obtenir des conditions de synthèse non contraignantes, sont ensuite proposées en faisant appel à une nouvelle fonction de Lyapunov plus générale (qui tient compte de la non-linéarité du système) et à un observateur de Luenberger généralisé (OLG) qui permet de réduire l'effet de la constante de Lipschitz. Enfin, les résultats obtenus sont validés par une application à la synchronisation et au cryptage/décryptage dans les systèmes de communications chaotiques

Page generated in 0.0451 seconds