• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 51
  • 13
  • Tagged with
  • 124
  • 96
  • 67
  • 26
  • 23
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Décomposition en images intrinsèques à partir de plusieurs photographies

Laffont, Pierre-Yves 12 October 2012 (has links) (PDF)
La modification d'éclairage et de matériaux dans une image est un objectif de longue date en traitement d'image, vision par ordinateur et infographie. <br /><br /> Cette thèse a pour objectif de calculer une décomposition en images intrinsèques, qui sépare une photographie en composantes indépendantes : la réflectance, qui correspond à la couleur des matériaux, et l'illumination, qui représente la contribution de l'éclairage à chaque pixel. Nous cherchons à résoudre ce problème difficile à l'aide de plusieurs photographies de la scène. L'intuition clé des approches que nous proposons est de contraindre la décomposition en combinant des algorithmes guidés par l'image, et une reconstruction 3D éparse et incomplète générée par les algorithmes de stéréo multi-vue. <br /><br /> Une première approche permet de décomposer des images de scènes extérieures, à partir de plusieurs photographies avec un éclairage fixe. Cette méthode permet non seulement de séparer la réflectance de l'illumination, mais décompose également cette dernière en composantes dues au soleil, au ciel, et à l'éclairage indirect. Une méthodologie permettant de simplifier le processus de capture et de calibration, est ensuite proposée. La troisième partie de cette thèse est consacrée aux collections d'images: nous exploitons les variations d'éclairage afin de traiter des scènes complexes sans intervention de l'utilisateur. <br /><br /> Les méthodes décrites dans cette thèse rendent possible plusieurs manipulations d'images, telles que l'édition de matériaux tout en préservant un éclairage cohérent, l'insertion d'objets virtuels, ou le transfert d'éclairage entre photographies d'une même scène.
12

Partitionnement réparti basé sur les sommets / Distributed edge partitioning

Mykhailenko, Hlib 14 June 2017 (has links)
Pour traiter un graphe de manière répartie, le partitionnement est une étape préliminaire importante car elle influence de manière significative le temps final d’exécutions. Dans cette thèse nous étudions le problème du partitionnement réparti de graphe. Des travaux récents ont montré qu’une approche basée sur le partitionnement des sommets plutôt que des arêtes offre de meilleures performances pour les graphes de type power-laws qui sont courant dans les données réelles. Dans un premier temps nous avons étudié les différentes métriques utilisées pour évaluer la qualité d’un partitionnement. Ensuite nous avons analysé et comparé plusieurs logiciels d’analyse de grands graphes (Hadoop, Giraph, Giraph++, Distributed GrahpLab et PowerGraph), les comparant `a une solution très populaire actuellement, Spark et son API de traitement de graphe appelée GraphX. Nous présentons les algorithmes de partitionnement les plus récents et introduisons une classification. En étudiant les différentes publications, nous arrivons à la conclusion qu’il n’est pas possible de comparer la performance relative de tous ces algorithmes. Nous avons donc décidé de les implémenter afin de les comparer expérimentalement. Les résultats obtenus montrent qu’un partitionneur de type Hybrid-Cut offre les meilleures performances. Dans un deuxième temps, nous étudions comment il est possible de prédire la qualité d’un partitionnement avant d’effectivement traiter le graphe. Pour cela, nous avons effectué de nombreuses expérimentations avec GraphX et effectué une analyse statistique précise des résultats en utilisation un modèle de régression linéaire. Nos expérimentations montrent que les métriques de communication sont de bons indicateurs de la performance. Enfin, nous proposons un environnement de partitionnement réparti basé sur du recuit simulé qui peut être utilisé pour optimiser une large partie des métriques de partitionnement. Nous fournissons des conditions suffisantes pour assurer la convergence vers l’optimum et discutons des métriques pouvant être effectivement optimisées de manière répartie. Nous avons implémenté cet algorithme dans GraphX et comparé ses performances avec JA-BE-JA-VC. Nous montrons que notre stratégie amène a` des améliorations significatives. / In distributed graph computation, graph partitioning is an important preliminary step because the computation time can significantly depend on how the graph has been split among the different executors. In this thesis we explore the graph partitioning problem. Recently, edge partitioning approach has been advocated as a better approach to process graphs with a power-law degree distribution, which are very common in real-world datasets. That is why we focus on edge partition- ing approach. We start by an overview of existing metrics, to evaluate the quality of the graph partitioning. We briefly study existing graph processing systems: Hadoop, Giraph, Giraph++, Distributed GrahpLab, and PowerGraph with their key features. Next, we compare them to Spark, a popular big-data processing framework with its graph processing APIs — GraphX. We provide an overview of existing edge partitioning algorithms and introduce partitioner classification. We conclude that, based only on published work, it is not possible to draw a clear conclusion about the relative performances of these partitioners. For this reason, we have experimentally compared all the edge partitioners currently avail- able for GraphX. Results suggest that Hybrid-Cut partitioner provides the best performance. We then study how it is possible to evaluate the quality of a parti- tion before running a computation. To this purpose, we carry experiments with GraphX and we perform an accurate statistical analysis using a linear regression model. Our experimental results show that communication metrics like vertex-cut and communication cost are effective predictors in most of the cases. Finally, we propose a framework for distributed edge partitioning based on distributed simulated annealing which can be used to optimize a large family of partitioning metrics. We provide sufficient conditions for convergence to the optimum and discuss which metrics can be efficiently optimized in a distributed way. We implemented our framework with GraphX and performed a comparison with JA-BE-JA-VC, a state-of-the-art partitioner that inspired our approach. We show that our approach can provide significant improvements.
13

Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps / Analysis of stationary and emerging properties in information flows changing over time

Kassab, Randa 11 May 2009 (has links)
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps. L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples. / Many applications produce and receive continuous, unlimited, and high-speed data streams. This raises obvious problems of storage, treatment and analysis of data, which are only just beginning to be treated in the domain of data streams. On the one hand, it is a question of treating data streams on the fly without having to memorize all the data. On the other hand, it is also a question of analyzing, in a simultaneous and concurrent manner, the regularities inherent in the data stream as well as the novelties, exceptions, or changes occurring in this stream over time. The main contribution of this thesis concerns the development of a new machine learning approach - called ILoNDF - which is based on novelty detection principle. The learning of this model is, contrary to that of its former self, driven not only by the novelty part in the input data but also by the data itself. Thereby, ILoNDF can continuously extract new knowledge relating to the relative frequencies of the data and their variables. This makes it more robust against noise. Being operated in an on-line mode without repeated training, ILoNDF can further address the primary challenges for managing data streams. Firstly, we focus on the study of ILoNDF's behavior for one-class classification when dealing with high-dimensional noisy data. This study enabled us to highlight the pure learning capacities of ILoNDF with respect to the key classification methods suggested until now. Next, we are particularly involved in the adaptation of ILoNDF to the specific context of information filtering. Our goal is to set up user-oriented filtering strategies rather than system-oriented in following two types of directions. The first direction concerns user modeling relying on the model ILoNDF. This provides a new way of looking at user's need in terms of specificity, exhaustivity and contradictory profile-contributing criteria. These criteria go on to estimate the relative importance the user might attach to precision and recall. The filtering threshold can then be adjusted taking into account this knowledge about user's need. The second direction, complementary to the first one, concerns the refinement of ILoNDF's functionality in order to confer it the capacity of tracking drifting user's need over time. Finally, we consider the generalization of our previous work to the case where streaming data can be divided into multiple classes.
14

La modélisation de l'indice CAC 40 avec le modèle basé agents / Research and modelling for french financial markets by ACE model

Lu, Nan 13 March 2018 (has links)
Nous développons un modèle basé agents pour reproduire deux anomalies fréquemment observées sur les marchés financiers : distribution leptokurtique des rendements et ampleur de la volatilité irrégulière mais persistante de ces mêmes rendements. Notre but est de montrer de façon probante que ces anomalies pourraient être attribuées à une formation mimétique des anticipations des intervenants sur les marchés. Nous nous éloignons des développements récents dans le domaine des modèles modèles basés agents en finance pour proposer un modèle très simple, estimé à partir des traits statistiques saillants de l’indice français journalier CAC 40. L’hypothèse d’anticipations mimétiques peut ainsi être testée : elle n’est pas rejetée dans notre modélisation. / We develop an agent-based model to replicate two frequently observed anomalies in the financial markets: the fat tails and the clustered volatility of the distribution of the returns. Our goal is to show conclusively that these anomalies could be attributed to a mimetic formation of the expectations of the stakeholders in the markets. We did not follow the rencent developpments in the field of the ACE model in the finance, but we propose a very simple model which is estimated from the stylized facts of the French daily index CAC 40. The hypothesis of mimetic anticipations can thus be tested: it is not rejected in our modeling.
15

Verification of behaviourist multi-agent systems by means of formally guided simulations

Salem da silva, Paulo 28 November 2011 (has links) (PDF)
Les systèmes multi-agents (SMA) peuvent être utilisé pour modéliser les phénomènes qui peuvent être décomposés en plusieurs agents qui interagissent et qui existent au sein d'un environnement. En particulier, ils peuvent être utilisés pour modéliser les sociétés humaines et animales, aux fins de l'analyse de leurs propriétés par des moyens de calcul. Cette thèse est consacrée à l'analyse automatisée d'un type particulier de ces modèles sociaux, à savoir, celles qui sont fondées sur les principes comportementalistes, qui contrastent avec les approches cognitives plus dominante dans la littérature des SMAs. La caractéristique des théories comportementalistes est l'accent mis sur la définition des comportements basée sur l'interaction entre les agents et leur environnement. De cette manière, non seulement des actions réflexives, mais aussi d'apprentissage, les motivations, et les émotions peuvent être définies. Plus précisément, dans cette thèse, nous introduisons une architecture formelle d'agent (spécifiée avec la Notation Z) basée sur la théorie d'analyse comportementale de B. F. Skinner, ainsi que une notion appropriée et formelle de l'environnement (basée sur l'algèbre de processus pi-calculus) pour mettre ces agents ensemble dans un SMA. La simulation est souvent utilisée pour analyser les SMAs. Les techniques consistent généralement à simuler le SMA plusieurs fois, soit pour recueillir des statistiques, soit pour voir ce qui se passe à travers l'animation. Toutefois, les simulations peuvent être utilisés d'une manière plus orientée vers la vérification si on considère qu'elles sont en réalité des explorations de grandes espaces d'états. Dans cette thèse nous proposons une technique de vérification nouvelle basé sur cette idée, qui consiste à simuler un SMA de manière guidée, afin de vérifier si quelques hypothèses sur lui sont confirmées ou non. À cette fin, nous tirons profit de la position privilégiée que les environnements sont dans les SMAs de cette thèse: la spécification formelle de l'environnement d'un SMA sert à calculer les évolutions possibles du SMA comme un système de transition, établissant ainsi l'espace d'états à vérifier. Dans ce calcul, les agents sont pris en compte en les simulant afin de déterminer, à chaque état de l'environnement, quelles sont leurs actions. Chaque exécution de la simulation est une séquence d'états dans cet espace d'états, qui est calculée à la volée, au fur et à mesure que la simulation progresse. L'hypothèse à étudier, à son tour, est donnée comme un autre système de transition, appelé objectif de simulation, qui définit les simulations désirables et indésirables (e.g., "chaque fois que l'agent fait X, il fera Y plus tard"). Il est alors possible de vérifier si le SMA est conforme à l'objectif de simulation selon un certain nombre de notions de satisfiabilité très précises. Algorithmiquement, cela correspond à la construction d'un produit synchrone de ces deux systèmes de transitions (i.e., celui du SMA et l'objectif de simulation) à la volée et à l'utiliser pour faire fonctionner un simulateur. C'est-à-dire, l'objectif de simulation est utilisé pour guider le simulateur, de sorte que seuls les états concernés sont en réalité simulés. À la fin d'un tel algorithme, il délivre un verdict concluant ou non concluant. Si c'est concluant, il est connu que le SMA est conforme à l'objectif de simulation par rapport aux observations qui ont été faites lors des simulations. Si c'est non-concluant, il est possible d'effectuer quelques ajustements et essayer à nouveau. En résumé, donc, dans cette thèse nous fournissons quatre nouveaux éléments: (i) une architecture d'agent; (ii) une spécification formelle de l'environnement de ces agents, afin qu'ils puissent être composés comme un SMA; (iii) une structure pour décrire les propriétés d'intérêt, que nous avons nommée objectif de simulation, et (iv) une technique pour l'analyse formelle du SMA résultant par rapport à un objectif de simulation. Ces éléments sont mis en œuvre dans un outil, appelé Simulateur Formellement Guidé (FGS, de l'anglais Formally Guided Simulator). Des études de cas exécutables dans FGS sont fournies pour illustrer l'approche.
16

Essais en Macroéconomie Financière

Ghattassi, Imen 13 December 2006 (has links) (PDF)
L'objectif de cette thèse est double. Tout d'abord, la thèse propose un cadre théorique permettant d'évaluer à la fois le rôle de la persistance des habitudes et des nouvelles financières et celui de la dynamique des variables macroéconomiques afin d'expliquer les variations du ratio cours des actions-dividende et de la structure à terme des taux d'intérêt. Les modèles envisagés sont ainsi des extensions du modèle d'évaluation des actifs financiers basé sur la consommation ((C)CAPM). Ensuite, la thèse contribue à l'analyse empirique de ces modèles. L'objectif est ici de tester le pouvoir de prédiction (i) du ratio surplus de consommation et (ii) du ratio cours des actions-dividende. Cette thèse comporte trois chapitres. Le premier chapitre montre que dans le cadre d'un modèle (C)CAPM avec formation des habitudes, la persistance du stock d'habitudes permet de reproduire la persistance du ratio cours des actions-dividende et en partie la prédictabilité des excès de rendements des actifs risqués à long terme. Dans le deuxième chapitre, nous mettons en évidence, théoriquement et empiriquement, la capacité du ratio surplus de consommation à expliquer les variations des rendements d'actifs risqués, à la fois en séries chronologiques et en coupe transversale. Enfin, dans le dernier chapitre de cette thèse, nous considérons un modèle (C)CAPM avec (i) une modélisation générale du niveau de consommation de référence et (ii) une spécification affine des variablesexogènes. La représentation affine du taux d'escompte stochastique et des processus exogènes permet de déterminer les solutions analytiques exactes du ratio cours des actions-dividende, du ratio cours du portefeuille de marché-consommation et de la structure à terme des taux d'intérêt
17

Contributions à la dextérité d'un système de réalité augmentée mobile appliqué à la maintenance industrielle

Didier, Jean-Yves 12 December 2005 (has links) (PDF)
La dextérité d'un système de Réalité Augmentée (RA) mobile appliqué à la maintenance industrielle repose sur sa flexibilité, sa précision et sa robustesse intrinsèque face aux verrous scientifique et technologique. Nous introduisons d'abord une architecture orientée composants flexible, innovante et satisfaisant les contraintes de temps réel des systèmes de RA. Sur cette architecture est bâti un système de localisation par la vision utilisant des cibles codées. De nouveaux algorithmes d'estimation de pose sont proposés. Notre architecture comporte un Système de Gestion des Augmentations (SGA) utilisant des procédures de maintenance numériques. Chacune est liée à des documents multimédia l'illustrant, dont des modèles 3D animés. Le projet RNTL-Assistance à la Maintenance en RA intègre ce SGA. Enfin, le système est élargi à la RA en vision directe pour laquelle nous combinons une technique de prédiction du point de vue basée sur le filtre particulaire et une méthode de post-rendering.
18

Conception et réalisation d'un consultant basé sur le contexte : application en histopathologie pour la gradation du cancer du sein

Aroua, Anissa 13 June 2014 (has links) (PDF)
Le diagnostic du cancer du sein est une activité humaine qui dépend du contexte dans lequel il est réalisé. Ce contexte se traduit par l'existence de très nombreux éléments qui rend l'automatisation de cette activité impossible. Depuis quelques années, la numérisation des lames (support de raisonnement) a incité les pathologistes à passer à l'analyse d'image de lames à l'écran. Cette migration a offre la possibilité d'une procéduralisation au moins partielle de leurs méthodes d'analyse. Dans le cadre de cette thèse, nous nous sommes intéressés à l'activité d'analyse d'une image de lame par un pathologiste qui est modélisée dans le formalisme des graphes contextuels dans le but de proposer une solution permettant d'assister les pathologistes dans leurs diagnostics. Notre Consultant fait partie des Systèmes d'Assistance Intelligents basés sur le Contexte. L'outil principal du Consultant est basé sur la Simulation à partir de pratiques expertes décrites dans un graphe contextuel. En partant d'une image que le pathologiste doit analyser, le simulateur va développer une pratique qui est la plus adaptée au contexte de travail. Le résultat de la simulation va donc être la pratique résultante et toutes les informations sur la manière dont cette pratique a été obtenue. Le consultant propose alors à l'utilisateur une visualisation des résultats des simulations réalisées permettant de les analyser et de les comparer.
19

Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation

Mihaita, Adriana, Mihaita, Adriana 18 September 2012 (has links) (PDF)
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l'aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s'adapte aux événements arbitraires qui peuvent changer complètement l'évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu'à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l'état normal).Notre approche vise le développement d'un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l'énergie du système) pour la politiquede contrôle choisie. Nous proposons d'abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l'application ducontrôle.Un modèle analytique pour déterminer l'énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation.
20

Vers les applications fiables basées sur des composants dynamiques

Santos da Gama, Kiev 06 October 2011 (has links) (PDF)
Les logiciels s'orientent de plus en plus vers des architectures évolutives, capables de s'adapter facilement aux changements et d'intégrer de nouvelles fonctionnalités. Ceci est important pour plusieurs classes d'applications qui ont besoin d'évoluer sans que cela implique d'interrompre leur exécution. Des plateformes dynamiques à composants autorisent ce type d'évolution à l'exécution, en permettant aux composants d'être chargés et exécutés sans requérir le redémarrage complet de l'application en service. Toutefois, la flexibilité d'un tel mécanisme introduit de nouveaux défis qui exigent de gérer les possibles erreurs dues à des incohérences dans le processus de mise à jour, ou en raison du comportement défectueux de composants survenant pendant l'exécution de l'application. Des composants tiers dont l'origine ou la qualité sont inconnus peuvent être considérées à priori comme peu fiables, car ils peuvent potentiellement introduire des défauts d'applications lorsqu'il est combiné avec d'autres composants. Nous sommes intéressés à la réduction de l'impact de ces composants considérés comme non fiables et qui sont susceptibles de compromettre la fiabilité de l'application en cours d'exécution. Cette thèse porte sur l'application de techniques pour améliorer la fiabilité des applications dynamiques à composants. Pour cela, nous proposons l'utilisation des frontières d'isolation pouvant fournir du contingentement de fautes. Le composant ainsi isolé ne perturbe pas le reste de l'application quand il est défaillant. Une telle approche peut être vu sous trois perspectives présentées: (i) l'isolement des composants dynamiques, régi par une politique d'exécution reconfigurable, (ii) l'autoréparation de conteneurs d'isolement, et (iii) l'utilisation des aspects pour séparer les préoccupations de fiabilité à partir du code fonctionnel.

Page generated in 0.1966 seconds