• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 38
  • 21
  • Tagged with
  • 140
  • 65
  • 47
  • 37
  • 33
  • 32
  • 27
  • 24
  • 24
  • 22
  • 21
  • 18
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Estimation de la variance et construction d'intervalles de confiance pour le ratio standardisé de mortalité avec application à l'évaluation d'un programme de dépistage du cancer

Talbot, Denis 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L'effet d'un programme de dépistage de cancer peut être évalué par le biais d'un ratio standardisé de mortalité (SMR). Dans ce mémoire, nous proposons un estimateur de la variance du dénominateur du SMR, c'est-à-dire du nombre de décès attendus, dans le cas où ce dernier est calculé selon la méthode de Sasieni. Nous donnons d'abord une expression générale pour la variance, puis développons des cas particuliers où des estimateurs spécifiques de l'incidence de la maladie et de son temps de survie sont utilisés. Nous montrons comment ce nouvel estimateur de la variance peut être utilisé dans la construction d'intervalles de confiance pour le SMR. Nous étudions la couverture de différents types d'intervalles de confiance par le biais de simulations et montrons que les intervalles utilisant l'estimateur de variance proposé disposent des meilleures propriétés. Nous appliquons la méthode suggérée sur les données du Programme québécois de dépistage du cancer du sein.
62

Prévision et réapprovisionnement dynamiques de produits de consommation à cycle rapide

Bouchard, Joëlle 27 August 2024 (has links)
L’industrie du commerce de détail est en plein bouleversement, de nombreuses bannières ont annoncé récemment leur fermeture, telles que Jacob, Mexx, Danier, Smart Set et Target au Canada, pour n’en nommer que quelques-unes. Pour demeurer compétitives et assurer leur pérennité, les entreprises en opération doivent s’adapter aux nouvelles habitudes d’achat des consommateurs. Nul doute qu’une meilleure connaissance de la demande s’impose. Or comment estimer et prévoir cette demande dans un contexte où la volatilité croit constamment, où la pression de la concurrence est omniprésente et globale, et où les cycles de vie des produits sont de plus en plus courts ? La gestion de la demande est un exercice difficile encore aujourd’hui, même avec le développement d’outils de plus en plus sophistiqués. L’environnement dynamique dans lequel évoluent les organisations explique, en partie, cette difficulté. Le client, depuis les 30 dernières années, est passé de spectateur passif à acteur de premier plan, modifiant inévitablement la relation consommateur-entreprise. Le développement technologique et la venue du commerce en ligne sont aussi largement responsables de la profonde mutation que subissent les entreprises. La façon de faire des affaires n’est plus la même et oblige les entreprises à s’adapter à ces nouvelles réalités. Les défis à relever sont nombreux. Les entreprises capables de bien saisir les signaux du marché seront mieux outillées pour prévoir la demande et prendre des décisions plus éclairées en réponse aux besoins des clients. C’est donc autour de ce thème principal, à travers un exemple concret d’entreprise, que s’articule cette thèse. Elle est divisée en trois grands axes de recherche. Le premier axe porte sur le développement d’une méthode de prévision journalière adaptée aux données de vente ou de demande présentant une double saisonnalité de même que des jours spéciaux. Le second axe de recherche, à deux volets, présente d’abord une méthode de prévision par ratios permettant de prévoir rapidement les ventes ou demandes futures d’un très grand nombre de produits et ses variantes. En deuxième volet, il propose une méthode permettant de calculer des prévisions cumulées de vente ou demande et d’estimer la précision de la prévision à l’aide d’un intervalle de confiance pour des produits récemment introduits dans les magasins d’une chaîne. Enfin, le troisième axe traite d’un outil prévisionnel d’aide à la décision de réapprovisionnement et propose des recommandations de taille de commande basées sur les résultats d’une analyse prévisionnelle, sur le déploiement des produits ciblés et sur l’analyse de la demande et des inventaires des produits substituts potentiels. Mots-clés : Prévision; saisonnalité; effet calendaire; produit sans historique; intervalle de confiance; décision de réapprovisionnement; réseau de détail. / The retail industry is in upheaval. Many banners have recently announced their closure, such as Jacob, Mexx, Danier, Smart Set and Target in Canada, to name a few. To remain competitive and ensure their sustainability, companies have to adapt themselves to new consumer buying habits. No doubt that a better understanding of demand is needed. But how to estimate and forecast demand in a context with constantly increasing volatility and ever shorter product lifecycles, where competitive pressure is pervasive and global? Managing demand is a difficult exercise, even in this age when numerous sophisticated tools have been developed. The dynamic environment in which organizations evolve explains in part the difficulty. Through the past 30 years, the customer has gone from passive spectator to leading actor, inevitably changing the consumer-business relationship. Technological development and the advent of e-commerce are also largely responsible for profound changes experienced by businesses. The way of doing business is not the same and forces companies to adapt to these new realities. The challenges are important. Companies able to seize market signals will be better equipped to anticipate demand and make better decisions in response to customer needs. This thesis is articulated according to three main lines of research around this main theme, exploiting a real business testbed. The first theme concerns the development of a daily forecast method adapted to sales data with a double seasonality as well as special days. The second twofold research first presents a forecasting method for using ratio to quickly forecast sales or future demands of a very large number of products and their variations. Then it proposes a method to determine cumulative sales forecasts and confidence intervals for products newly introduced in the chain stores. Finally, the third axis proposes a predictive method to help reorder launching and sizing decision based on the results of a predictive analysis, deployment of targeted products and inventory of potential substitute products. Keywords : Forecasting; seasonality; calendar effect; products without demand history; confidence intervals; replenishment decision; retail network.
63

Musique et Langage : Spécificités, Interactions et Associations spatiales / Music and Language: Specificities, Interactions and Spatial Associations

Lidji, Pascale 30 April 2008 (has links)
L’objectif de ce travail était d’examiner la spécificité fonctionnelle du traitement et des représentations des hauteurs musicales. À cette fin, ce traitement a été comparé à celui des phonèmes de la parole, d’une part, et aux associations spatiales évoquées par des séquences ordonnées, d’autre part. Nos quatre études avaient pour point commun d’adapter à un nouvel objet de recherche des méthodes bien établies en psychologie cognitive. Ainsi, nous avons exploité la tâche de classification accélérée (Etude 1) de Garner (1974), l’analyse des conjonctions illusoires en mémoire (Etude 2), l’additivité de la composante mismatch negativity (MMN) des potentiels évoqués (Etude 3) et l’observation d’associations spatiales de codes de réponse (Etude 4). Les trois premières études, menées chez des participants non-musiciens, portaient sur la spécificité de traitement des hauteurs par rapport à celui des phonèmes au sein de stimuli chantés. Les deux premières études ont mis en évidence un effet surprenant de la nature des phonèmes sur leurs interactions avec le traitement des mélodies : les voyelles apparaissaient plus intégrées à la mélodie que les consonnes. Ceci était vrai à la fois lors du traitement en temps réel de non-mots chantés (Etude 1) et au niveau des traces en mémoire de ces mêmes non-mots (Etude 2, utilisant une tâche de reconnaissance à choix forcé permettant la mise en évidence de conjonctions illusoires). Cette dissociation entre voyelles et consonnes quant à leur intégration avec les traitements mélodiques ne semblait pas causée par des caractéristiques acoustico-phonétiques telles que la sonorité. Les résultats de la troisième étude indiquaient que les MMNs en réponse à des déviations de hauteur et de voyelle n’étaient pas additives et que leur distribution topographique ne différait pas selon le type de déviation. Ceci suggère que, même au niveau pré-attentionnel, le traitement des voyelles n’est pas indépendant de celui des hauteurs. Dans la quatrième étude, nous avons comparé le traitement des hauteurs musicales à un autre domaine : la cognition spatiale. Nous avons ainsi montré que les non-musiciens comme les musiciens associent les notes graves à la partie inférieure et les notes aiguës à la partie supérieure de l’espace. Les deux groupes liaient aussi les notes graves au côté gauche et les notes aiguës au côté droit, mais ce lien n’était automatique que chez les musiciens. Enfin, des stimuli musicaux plus complexes (intervalles mélodiques) n’évoquaient ces associations spatiales que chez les musiciens et ce, uniquement sur le plan horizontal. Ces recherches contribuent de plusieurs manières à la compréhension de la cognition musicale. Premièrement, nous avons montré que les consonnes et les voyelles diffèrent dans leurs interactions avec la musique, une idée à mettre en perspective avec les rôles différents de ces phonèmes dans l’évolution du langage. Ensuite, les travaux sur les représentations spatiales des hauteurs musicales ouvrent la voie à un courant de recherche qui aidera à dévoiler les liens potentiels entre habiletés musicales et spatiales. / The purpose of this work was to examine the functional specificity of musical pitch processing and representation. To this aim, we compared musical pitch processing to (1) the phonological processing of speech and (2) the spatial associations evoked by ordered sequences. The four studies described here all use classical methods of cognitive psychology, which have been adapted to our research question. We have employed Garner’s (1974) speeded classification task (Study 1), the analysis of illusory conjunctions in memory (Study 2), the additivity of the mismatch negativity (MMN) component of event-related potentials (Study 3), as well as the observation of spatial associations of response codes (Study 4). The three first studies examined, in non-musician participants, the specificity of pitch processing compared to phoneme processing in songs. Studies 1 and 2 revealed a surprising effect of phoneme category on their interactions with melodic processing: vowels were more integrated with melody than were consonants. This was true for both on-line processing of sung nonwords (Study 1) and for the memory traces of these nonwords (Study 2, using a forced-choice recognition task allowing the occurrence of illusory conjunctions). The difference between vowels and consonants was not due to acoustic-phonetic properties such as phoneme sonority. The results of the third study showed that the MMN in response to pitch and to vowel deviations was not additive and that its brain topography did not differ as a function of the kind of deviation. This suggests that vowel processing is not independent from pitch processing, even at the pre-attentive level. In the fourth study, we compared pitch processing to another domain: spatial cognition. We showed that both musicians and non-musicians map pitch onto space, in that they associate low-pitched tones to the lower spatial field and high-pitched tones to the higher spatial field. Both groups of participants also associated low pitched-tones with the left and high-pitched tones with the right, but this association was automatic only in musicians. Finally, more complex musical stimuli such as melodic intervals evoked these spatial associations in the horizontal plane only in musicians. This work contributes to the understanding of music cognition in several ways. First, we have shown that consonants and vowels differ in their interactions with music, an idea related to the contrasting roles of these phonemes in language evolution. Second, the work on the spatial representation of pitch opens the path to research that will help uncover the potential links between musical and spatial abilities.
64

Atteignabilité hybride des systèmes dynamiques continus par analyse par intervalles : application à l'estimation ensembliste

Meslem, Nacim 23 June 2008 (has links) (PDF)
Cette thèse porte sur le calcul d'une sur-approximation conservative pour les solutions d'équations différentielles ordinaires en présence d'incertitudes et sur son application à l'estimation et l'analyse de systèmes dynamiques à temps continu. L'avantage principal des méthodes et des algorithmes de calculs présentés dans cette thèse est qu'ils apportent une preuve numérique de résultats. Cette thèse est organisée en deux parties. La première partie est consacrée aux outils mathématiques et aux méthodes d'intégration numérique garantie des équations diff érentielles incertaines. Ces méthodes permettent de caractériser de manière garantie l'ensemble des trajectoires d'état engendrées par un système dynamique incertain dont les incertitudes sont naturellement représentées par des intervalles bornés. Dans cette optique, nous avons développé une méthode d'intégration hybride qui donne de meilleurs résultats que les méthodes d'intégration basées sur les modèles de Taylor intervalles. La seconde partie aborde les problèmes de l'identification et de l'observation dans un contexte à erreurs bornées ainsi que le problème d'atteignabilité continue pour la véri cation de propriétés des systèmes dynamiques hybrides.
65

Strings of congruent primes in short intervals

Freiberg, Tristan 11 1900 (has links)
Soit $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ la suite des nombres premiers, et soient $q \ge 3$ et $a$ des entiers premiers entre eux. R\'ecemment, Daniel Shiu a d\'emontr\'e une ancienne conjecture de Sarvadaman Chowla. Ce dernier a conjectur\'e qu'il existe une infinit\'e de couples $p_n,p_$ de premiers cons\'ecutifs tels que $p_n \equiv p_{n+1} \equiv a \bmod q$. Fixons $\epsilon > 0$. Une r\'ecente perc\'ee majeure, de Daniel Goldston, J\`anos Pintz et Cem Y{\i}ld{\i}r{\i}m, a \'et\'e de d\'emontrer qu'il existe une suite de nombres r\'eels $x$ tendant vers l'infini, tels que l'intervalle $(x,x+\epsilon\log x]$ contienne au moins deux nombres premiers $\equiv a \bmod q$. \'Etant donn\'e un couple de nombres premiers $\equiv a \bmod q$ dans un tel intervalle, il pourrait exister un nombre premier compris entre les deux qui n'est pas $\equiv a \bmod q$. On peut d\'eduire que soit il existe une suite de r\'eels $x$ tendant vers l'infini, telle que $(x,x+\epsilon\log x]$ contienne un triplet $p_n,p_{n+1},p_{n+2}$ de nombres premiers cons\'ecutifs, soit il existe une suite de r\'eels $x$, tendant vers l'infini telle que l'intervalle $(x,x+\epsilon\log x]$ contienne un couple $p_n,p_{n+1}$ de nombres premiers tel que $p_n \equiv p_{n+1} \equiv a \bmod q$. On pense que les deux \'enonc\'es sont vrais, toutefois on peut seulement d\'eduire que l'un d'entre eux est vrai, sans savoir lequel. Dans la premi\`ere partie de cette th\`ese, nous d\'emontrons que le deuxi\`eme \'enonc\'e est vrai, ce qui fournit une nouvelle d\'emonstration de la conjecture de Chowla. La preuve combine des id\'ees de Shiu et de Goldston-Pintz-Y{\i}ld{\i}r{\i}m, donc on peut consid\'erer que ce r\'esultat est une application de leurs m\'thodes. Ensuite, nous fournirons des bornes inf\'erieures pour le nombre de couples $p_n,p_{n+1}$ tels que $p_n \equiv p_{n+1} \equiv a \bmod q$, $p_{n+1} - p_n < \epsilon\log p_n$, avec $p_{n+1} \le Y$. Sous l'hypoth\`ese que $\theta$, le \og niveau de distribution \fg{} des nombres premiers, est plus grand que $1/2$, Goldston-Pintz-Y{\i}ld{\i}r{\i}m ont r\'eussi \`a d\'emontrer que $p_{n+1} - p_n \ll_{\theta} 1$ pour une infinit\'e de couples $p_n,p_$. Sous la meme hypoth\`ese, nous d\'emontrerons que $p_{n+1} - p_n \ll_{q,\theta} 1$ et $p_n \equiv p_{n+1} \equiv a \bmod q$ pour une infinit\'e de couples $p_n,p_$, et nous prouverons \'egalement un r\'esultat quantitatif. Dans la deuxi\`eme partie, nous allons utiliser les techniques de Goldston-Pintz-Yldrm pour d\'emontrer qu'il existe une infinit\'e de couples de nombres premiers $p,p'$ tels que $(p-1)(p'-1)$ est une carr\'e parfait. Ce resultat est une version approximative d'une ancienne conjecture qui stipule qu'il existe une infinit\'e de nombres premiers $p$ tels que $p-1$ est une carr\'e parfait. En effet, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $n = \ell_1\cdots \ell_r$, avec $\ell_1,\ldots,\ell_r$ des premiers distincts, et tels que $(\ell_1-1)\cdots (\ell_r-1)$ est une puissance $r$-i\`eme, avec $r \ge 2$ quelconque. \'Egalement, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n = \ell_1\cdots \ell_r \le Y$ tels que $(\ell_1+1)\cdots (\ell_r+1)$ est une puissance $r$-i\`eme. Finalement, \'etant donn\'e $A$ un ensemble fini d'entiers non-nuls, nous d\'emontrerons une borne inf\'erieure sur le nombre d'entiers naturels $n \le Y$ tels que $\prod_ (p+a)$ est une puissance $r$-i\`eme, simultan\'ement pour chaque $a \in A$. / Let $p_1 = 2, p_2 = 3, p_3 = 5,\ldots$ be the sequence of all primes, and let $q \ge 3$ and $a$ be coprime integers. Recently, and very remarkably, Daniel Shiu proved an old conjecture of Sarvadaman Chowla, which asserts that there are infinitely many pairs of consecutive primes $p_n,p_{n+1}$ for which $p_n \equiv p_{n+1} \equiv a \bmod q$. Now fix a number $\epsilon > 0$, arbitrarily small. In their recent groundbreaking work, Daniel Goldston, J\`anos Pintz and Cem Y{\i}ld{\i}r{\i}m proved that there are arbitrarily large $x$ for which the short interval $(x, x + \epsilon\log x]$ contains at least two primes congruent to $a \bmod q$. Given a pair of primes $\equiv a \bmod q$ in such an interval, there might be a prime in-between them that is not $\equiv a \bmod q$. One can deduce that \emph{either} there are arbitrarily large $x$ for which $(x, x + \epsilon\log x]$ contains a prime pair $p_n \equiv p_{n+1} \equiv a \bmod q$, \emph{or} that there are arbitrarily large $x$ for which the $(x, x + \epsilon\log x]$ contains a triple of consecutive primes $p_n,p_{n+1},p_{n+2}$. Both statements are believed to be true, but one can only deduce that one of them is true, and one does not know which one, from the result of Goldston-Pintz-Y{\i}ld{\i}r{\i}m. In Part I of this thesis, we prove that the first of these alternatives is true, thus obtaining a new proof of Chowla's conjecture. The proof combines some of Shiu's ideas with those of Goldston-Pintz-Y{\i}ld{\i}r{\i}m, and so this result may be regarded as an application of their method. We then establish lower bounds for the number of prime pairs $p_n \equiv p_{n+1} \equiv a \bmod q$ with $p_{n+1} - p_n < \epsilon\log p_n$ and $p_{n+1} \le Y$. Assuming a certain unproven hypothesis concerning what is referred to as the `level of distribution', $\theta$, of the primes, Goldston-Pintz-Y{\i}ld{\i}r{\i}m were able to prove that $p_{n+1} - p_n \ll_{\theta} 1$ for infinitely many $n$. On the same hypothesis, we prove that there are infinitely many prime pairs $p_n \equiv p_{n+1} \equiv a \bmod q$ with $p_{n+1} - p_n \ll_{q,\theta} 1$. This conditional result is also proved in a quantitative form. In Part II we apply the techniques of Goldston-Pintz-Y{\i}ld{\i}r{\i}m to prove another result, namely that there are infinitely many pairs of distinct primes $p,p'$ such that $(p-1)(p'-1)$ is a perfect square. This is, in a sense, an `approximation' to the old conjecture that there are infinitely many primes $p$ such that $p-1$ is a perfect square. In fact we obtain a lower bound for the number of integers $n$, up to $Y$, such that $n = \ell_1\cdots \ell_r$, the $\ell_i$ distinct primes, and $(\ell_1 - 1)\cdots (\ell_r - 1)$ is a perfect $r$th power, for any given $r \ge 2$. We likewise obtain a lower bound for the number of such $n \le Y$ for which $(\ell_1 + 1)\cdots (\ell_r + 1)$ is a perfect $r$th power. Finally, given a finite set $A$ of nonzero integers, we obtain a lower bound for the number of $n \le Y$ for which $\prod_{p \mid n}(p+a)$ is a perfect $r$th power, simultaneously for every $a \in A$.
66

Musique et langage : spécificités, interactions et associations spatiales

Lidji, Pascale January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
67

Contribution à l'agrandissement de l'espace de travail opérationnel des robots parallèles. Vérification du changement de mode d'assemblage et commande pour la traversée des singularités / Contribution to enlargement of parallel robot operationnal workspace. Detection of assembly mode change and advanced control for singularity crossing

Koessler, Adrien 19 December 2018 (has links)
En comparaison avec leurs homologues sériels, les robots parallèles possèdent de nombreux avantages : rigidité, temps de cycle et précision de positionnement. La faible taille de leur espace de travail opérationnel est cependant un inconvénient qui empêche leur développement. L’analyse cinématique décrit la division de l’espace de travail total en aspects, séparés entre eux par des singularités de Type 2. Parmi les solutions d’élargissement de l’espace de travail opérationnel issues de la littérature, que sont comparées entre elles, nous retiendrons la traversée des singularités grâce à une génération de trajectoire et une loi de commande dédiées. Cette solution est cependant sujette aux échecs de traversée et ne permet pas de certifier la réussite de l’opération. La première partie du travail consiste donc à développer un outil permettant de détecter le résultat des traversées. De tels algorithmes n’existent pas dans la littérature ; en effet, les solveurs du problème géométrique direct ne peuvent pas donner de résultats appropriés à proximité des singularités. Cependant les méthodes ensemblistes proposent une manière intéressante de tenir compte de la cinématique du robot. Nous nous basons sur cette considération pour développer un algorithme réalisant le suivi de la pose ainsi que de la vitesse de l’effecteur du robot. En simulation, nous démontrons sa capacité à détecter les changements de mode d’assemblage et son utilité pour générer des trajectoires permettant la traversée. La deuxième problématique consiste à améliorer le suivi de trajectoire par l’utilisation de techniques de commande avancée. Une revue de littérature nous permet d’identifier la commande adaptative et la commande prédictive comme deux schémas intéressants pour notre application. La synthèse d’un loi de commande adaptative par des outils linéaires est proposée et complétée par la prédiction des paramètres dynamiques suivant la méthode Predcitive Functionnal Control. Les gains apportés par les lois de commande proposées sont évalués en simulation. Afin de valider ces contributions, elles sont implémentées sur un robot parallèle plan à deux degrés de liberté nommé DexTAR. Nécessaire à la mise en oeuvre de l’algorithme de détection du mode d’assemblage, un étalonnage géométrique du robot est réalisé et les paramètres estimés sont certifiés de manière ensembliste. La capacité de l’algorithme à statuer sur le mode d’assemblage final est ensuite évaluée sur des trajectoires réelles. Ces résultats sont comparés avec ceux obtenus en simulation. De plus, les lois de commande développées sont implémentées sur le robot DexTAR et testés dans des cas de figure réalistes comme les traversées multiples ou la saisie d’objets.Les propositions formulées dans ce manuscrit permettent de répondre à ces problématiques, afin de faciliter l’utilisation des méthodes d’agrandissement de l’espace de travail par traversée de singularité de Type 2. / Compared to their serial counterparts, parallel robots have the edge in terms of rigidity,cycle time and positioning precision. However, the reduced size of their operationalworkspace is a drawback that limits their use in the industry. Kinematic analysis explainshow the workspace is divided in aspects, separated from each others by so-called Type 2singularities. Among existing solutions for workspace enlargement, which are evaluatedin this thesis, we chose to work on a method based on singularity crossing. This can beachieved thanks to dedicated trajectory generators and control strategies. Yet, failuresin crossing can still happen and crossing success cannot be certified.In consequence, the first part of the thesis consists in the development of an algorithmable to state on the results of a crossing attempt. Such a tool does not exist inthe literature, since solvers for the forward kinematics of parallel robots diverge aroundsingularities. Nonetheless, interval methods allow to bypass this problem by trackingend-effector velocity alongside with its pose. The ability of the algorithm to detect assemblymode change is proven in simulation, and its usefulness for reliable trajectoryplanning is shown.In a second part, we seek to improve trajectory tracking through the use of advancedcontrol techniques. A review on those techniques showed adaptive control and predictivecontrol methods to be well-fitted to our application. Linear synthesis of articularadaptive control is proposed and then derived in order to predict dynamic parametersthanks to the Predictive Functional Control method. Efficiency of the proposed controllaws is evaluated in simulation.1In order to validate both contributions, algorithms and control laws are implementedon a 2-degree of freedom planar parallel robot named DexTAR. As it is mandatory forassembly mode detection, the kinematic calibration of the robot is completed from whichcertified geometric parameters are derived. Assembly mode detection is performed onreal trajectories and results are compared to those obtained in simulation. Moreover,adaptive and predictive control laws are tested in realistic cases of singularity crossingand object manipulation.Overall, proposed contributions answer the problems that were stated previously andform an improvement to the workspace enlargement method based on Type 2 singularitycrossing.
68

Localisation multi-capteurs garantie : résolution d'un problème de satisfaction de contraintes / Guaranteed multi-sensor localisation : solving a constraint satisfaction problem

Kueviakoe, Kangni 30 September 2014 (has links)
Cette thèse traite de la localisation de véhicule. Plusieurs méthodes sont utilisées pour résoudre ce type de problème. Elles peuvent être classées en deux grandes catégories d’approches : les approches probabilistes et les approches déterministes.Ce travail aborde les approches déterministes et plus précisément l'approche ensembliste basée sur l'analyse par intervalles. Les travaux ont été conduits sur des jeux de données réelles collectées en environnements d'extérieur comprenant des capteurs proprioceptifs et extéroceptifs.Lorsque l'on met en jeu plusieurs capteurs fournissant des informations complémentaires ou redondantes, il est important de fusionner les données afin d'améliorer la pose estimée. L'approche détaillée dans ce document utilise les méthodes intervalles et présente le problème de la localisation sous la forme d'un problème de satisfaction de contraintes.La résolution se fait à l'aide d’un solveur à intervalles. Plusieurs algorithmes ont été comparés. Un constat s'est dégagé : les algorithmes de consistance locale ne corrigent pas l'incertitude sur l’orientation. Cette thèse propose une méthode de localisation utilisable dans des applications temps réel et qui corrige l'incertitude sur le cap du véhicule. Nous avons comparé nos résultats à ceux du filtre de Kalman étendu (méthode probabiliste de référence) et mis en avant un des intérêts de notre méthode : l'assurance d'une consistance de la pose (position et orientation du mobile).Cette thèse propose deux contributions. La première est d'ordre méthodologique. Dans l'état de l'art tous les travaux affirment la nécessité (voire l'obligation) d'une décomposition préalable des contraintes du problème avant l'étape de résolution. Nos travaux permettent de prouver le contraire. La deuxième contribution concerne la réduction du domaine de l'incertitude en orientation en couplant la propagation de contraintes et une approche de bissection. / This thesis deals with the vehicle locationand addresses the problem of SLAM (simultaneous localization and mapping). Several methods are used to solve this kind of problem. They can be classified into two broad categories of approaches: probabilistic approach and deterministic approaches. This work addresses the deterministic approaches and more precisely the approach based on interval analysis. The work has been conducted on real data sets collected in outdoor environments with proprioceptive and exteroceptive sensors.When multiple sensors providing complementary or redundant information are put into play, it is important to merge the data to improve the estimated pose. The approach detailed in this document uses the intervals methods and presents the localization problem as a constraint satisfaction problem.The resolution is done using a solver interval. Several solvers were compared. One thing is clear: local consistency algorithms do not address the uncertainty of the orientation. This thesis proposes a method of locating usable in real time applications and corrects the uncertainty in the heading of the vehicle. We compared our results with those of the extended Kalman filter (probabilistic reference method) and highlighted one of the interests of our method: the assurance of consistency of the pose (position and orientation of the mobile).This thesis proposes two contributions. The first is methodological. In the state of the art all works affirm the need (or obligation) to pre-decompose the constraints of the problem before the resolution step. Our work allows to prove otherwise. The second contribution relates to the reduction of the orientation uncertainty by combining constraint propagation and a bisection approach.
69

Méthode non-additive intervalliste de super-résolution d'images, dans un contexte semi-aveugle / A non-additive interval-valued super-resolution image method, in a semi-blind context

Graba, Farès 17 April 2015 (has links)
La super-résolution est une technique de traitement d'images qui consiste en la reconstruction d'une image hautement résolue à partir d'une ou plusieurs images bassement résolues.Cette technique est apparue dans les années 1980 pour tenter d'augmenter artificiellement la résolution des images et donc de pallier, de façon algorithmique, les limites physiques des capteurs d'images.Comme beaucoup des techniques de reconstruction en traitement d'images, la super-résolution est connue pour être un problème mal posé dont la résolution numérique est mal conditionnée. Ce mauvais conditionnement rend la qualité des images hautement résolues reconstruites très sensible au choix du modèle d'acquisition des images, et particulièrement à la modélisation de la réponse impulsionnelle de l'imageur.Dans le panorama des méthodes de super-résolution que nous dressons, nous montrons qu'aucune des méthodes proposées par la littérature ne permet de modéliser proprement le fait que la réponse impulsionnelle d'un imageur est, au mieux, connue de façon imprécise. Au mieux l'écart existant entre modèle et réalité est modélisé par une variable aléatoire, alors que ce biais est systématique.Nous proposons de modéliser l'imprécision de la connaissance de la réponse impulsionnelle par un ensemble convexe de réponses impulsionnelles. L'utilisation d'un tel modèle remet en question les techniques de résolution. Nous proposons d'adapter une des techniques classiques les plus populaires, connue sous le nom de rétro-projection itérative, à cette représentation imprécise.L'image super-résolue reconstruite est de nature intervalliste, c'est à dire que la valeur associée à chaque pixel est un intervalle réel. Cette reconstruction s'avère robuste à la modélisation de la réponse impulsionnelle ainsi qu'à d'autres défauts. Il s'avère aussi que la largeur des intervalles obtenus permet de quantifier l'erreur de reconstruction. / Super-resolution is an image processing technique that involves reconstructing a high resolution image based on one or several low resolution images. This technique appeared in the 1980's in an attempt to artificially increase image resolution and therefore to overcome, algorithmically, the physical limits of an imager.Like many reconstruction problems in image processing, super-resolution is known as an ill-posed problem whose numerical resolution is ill-conditioned. This ill-conditioning makes high resolution image reconstruction qualityvery sensitive to the choice of image acquisition model, particularly to the model of the imager Point Spread Function (PSF).In the panorama of super-resolution methods that we draw, we show that none of the methods proposed in the relevant literature allows properly modeling the fact that the imager PSF is, at best, imprecisely known. At best the deviation between model and reality is considered as being a random variable, while it is not: the bias is systematic.We propose to model scant knowledge on the imager's PSF by a convex set of PSFs. The use of such a model challenges the classical inversion methods. We propose to adapt one of the most popular super-resolution methods, known under the name of "iterative back-projection", to this imprecise representation. The super-resolved image reconstructed by the proposed method is interval-valued, i.e. the value associated to each pixel is a real interval. This reconstruction turns out to be robust to the PSF model and to some other errors. It also turns out that the width of the obtained intervals quantifies the reconstruction error.
70

Modèles non linéaires et prévision / Non-linear models and forecasting

Madkour, Jaouad 19 April 2013 (has links)
L’intérêt des modèles non-linéaires réside, d’une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d’autre part, dans une prévision plus riche en information.A ce niveau, l’originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu’une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu’il faut disposer de tests d’évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l’adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l’évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L’utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d’une analyseempirique a confirmé l’idée selon laquelle les premiers sont préférés si l’objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci. / The interest of non-linear models is, on the one hand, to better take into account non-linearities characterizing themacroeconomic and financial series and, on the other hand, to get richer information in forecast. At this level,originality intervals (asymmetric and / or discontinuous) and forecasts densities (asymmetric and / or multimodal)offered by this new modelling form suggests that improving forecasts according to linear models is possible and thatwe should have enough powerful tests of evaluation to check this possible improvement. Such tests usually meanchecking distributional assumptions on violations and probability integral transform processes respectively associatedto each of these forms of forecast. In this thesis, we have adapted the GMM framework based on orthonormalpolynomials designed by Bontemps and Meddahi (2005, 2012) to test for some probability distributions, an approachalready adopted by Candelon et al. (2011) in the context of backtesting Value-at-Risk. In addition to the simplicity androbustness of the method, the tests we have developed have good properties in terms of size and power. The use of ournew approach in comparison of linear and non-linear models in an empirical analysis confirmed the idea according towhich the former are preferred if the goal is the calculation of simple point forecasts while the latter are moreappropriated to report the uncertainty around them.

Page generated in 0.3655 seconds