• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Description de stratégies d'enseignement et de compréhension en lecture dans une praxis basée sur les inférences au 3e cycle du primaire

André de l'Arc, Magali 11 1900 (has links) (PDF)
De nombreux élèves fréquentant le troisième cycle des écoles primaires québécoises présentent des difficultés de compréhension de lecture fine, alors que cette compétence occupe une place prépondérante au secondaire, hypothéquant ainsi leurs chances de réussite. La méconnaissance du processus des inférences requérant la maîtrise de savoir-faire complexes et variés, compte au nombre des principales causes à l'origine de ces difficultés. Alors que la seule épreuve ministérielle consacrée exclusivement à la compréhension de lecture scelle la fin du troisième cycle, la recherche se propose de décrire des stratégies d'enseignement et de compréhension en lecture dans une praxis basée sur les inférences au 3e cycle du primaire. Pour servir nos objectifs observationnels et descriptifs, nous avons réalisé un entretien dirigé et assisté à une séance d'enseignement des inférences avec trois enseignants de 6e année. La méthodologie a permis d'élaborer une grille basée sur les quatre facettes de développements de compétences de l'outil COMP.A.S, le critère d'évaluation de l'épreuve ministérielle de lecture obligatoire et des stratégies d'enseignement de la lecture dans le cadre des Processus d'intégration entre les phrases. Les résultats obtenus démontrent que les pratiques déclarées et les pratiques observées se rejoignent et que les enseignants ont globalement utilisé les stratégies répertoriées dans les modèles décrits dans le cadre conceptuel. Cela dit, la confrontation entre les propos tenus par les enseignants et l'observation de leurs pratiques met en exergue la prédominance de la facette « Accompagner » et la faiblesse tant de la facette « Intégrer » que « Transférer ». Ensuite, un ajustement des interprétations propices à relancer la discussion sur l'importance des stratégies d'autorégulation est proposé. Au-delà de son apport au plan scientifique et pratique, la recherche propose finalement une piste de recherche future : la création d'un outil pour aider les enseignants à construire des activités de compréhension de lecture fine signifiantes en lien avec la progression des apprentissages afin de favoriser l'autonomie dans l'utilisation des stratégies. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : inférences, compréhension de lecture, stratégies d'enseignement, modélisation, primaire
62

Modélisation de la fiabilité et de la maintenance par modèles graphiques probabilistes : application à la prévention des ruptures de rail

Donat, Roland 30 November 2009 (has links) (PDF)
Les réseaux ferroviaires sont sujets à des dégradations de leur voie qui impactent directement le service offert aux voyageurs. Des politiques de maintenance sont donc déployées pour en limiter les effets sur la qualité et la disponibilité du réseau. Ce mémoire propose une modélisation générique de ces politiques reposant sur la fiabilité, et ce à partir du seul formalisme des réseaux bayésiens (RB). La fiabilité du système est caractérisée par un RB dynamique particulier tenant compte des temps de séjour dans chacun de ses états (hypothèse semi-markovienne). Les outils de diagnostics et les actions et les actions de maintenance sont également modélisés, autorisant la description fine de stratégies complexes. La prise en compte de l'utilité de chaque attribut du modèle (disponibilité/sécurité/coût) permet l'évaluation des politiques de maintenance innovantes en particulier prévisionnelles. La méthodologie est appliquée au cas précis du réseau RER de la RATP relativement au problème du rail cassé.
63

Apprentissage de grammaires catégorielles : transducteurs d'arbres et clustering pour induction de grammaires catégorielles

Sandillon Rezer, Noémie Fleur 09 December 2013 (has links) (PDF)
De nos jours, il n'est pas rare d'utiliser des logiciels capables d'avoir une conversation, d'interagir avec nous (systèmes questions/réponses pour les SAV, gestion d'interface ou simplement Intelligence Artificielle - IA - de discussion). Ceux-ci doivent comprendre le contexte ou réagir par mot-clefs, mais générer ensuite des réponses cohérentes, aussi bien au niveau du sens de la phrase (sémantique) que de la forme (syntaxe). Si les premières IA se contentaient de phrases toutes faites et réagissaient en fonction de mots-clefs, le processus s'est complexifié avec le temps. Pour améliorer celui-ci, il faut comprendre et étudier la construction des phrases. Nous nous focalisons sur la syntaxe et sa modélisation avec des grammaires catégorielles. L'idée est de pouvoir aussi bien générer des squelettes de phrases syntaxiquement correctes que vérifier l'appartenance d'une phrase à un langage, ici le français (il manque l'aspect sémantique). On note que les grammaires AB peuvent, à l'exception de certains phénomènes comme la quantification et l'extraction, servir de base pour la sémantique en extrayant des λ-termes. Nous couvrons aussi bien l'aspect d'extraction de grammaire à partir de corpus arborés que l'analyse de phrases. Pour ce faire, nous présentons deux méthodes d'extraction et une méthode d'analyse de phrases permettant de tester nos grammaires. La première méthode consiste en la création d'un transducteur d'arbres généralisé, qui transforme les arbres syntaxiques en arbres de dérivation d'une grammaire AB. Appliqué sur les corpus français que nous avons à notre disposition, il permet d'avoir une grammaire assez complète de la langue française, ainsi qu'un vaste lexique. Le transducteur, même s'il s'éloigne peu de la définition usuelle d'un transducteur descendant, a pour particularité d'offrir une nouvelle méthode d'écriture des règles de transduction, permettant une définition compacte de celles-ci. Nous transformons actuellement 92,5% des corpus en arbres de dérivation. Pour notre seconde méthode, nous utilisons un algorithme d'unification en guidant celui-ci avec une étape préliminaire de clustering, qui rassemble les mots en fonction de leur contexte dans la phrase. La comparaison avec les arbres extraits du transducteur donne des résultats encourageants avec 91,3% de similarité. Enfin, nous mettons en place une version probabiliste de l'algorithme CYK pour tester l'efficacité de nos grammaires en analyse de phrases. La couverture obtenue est entre 84,6% et 92,6%, en fonction de l'ensemble de phrases pris en entrée. Les probabilités, appliquées aussi bien sur le type des mots lorsque ceux-ci en ont plusieurs que sur les règles, permettent de sélectionner uniquement le "meilleur" arbre de dérivation.Tous nos logiciels sont disponibles au téléchargement sous licence GNU GPL.
64

Mise en contexte des traces pour une analyse en niveaux d'abstraction / Exploiting context for an structuration of execution traces in abstraction layers

Fopa, Léon Constantin 23 June 2015 (has links)
Les techniques d'analyse et de débogage d'applications sont de plus en plus mises à mal dans les systèmes modernes. En particulier dans les systèmes basés sur des composants embarqués multiprocesseurs (ou MPSoc) qui composent aujourd'hui la plupart de nos dispositifs quotidiens. Le recours à des traces d'exécution devient incontournable pour appliquer une analyse fine de tels systèmes et d'en identifier les comportements divergents. Même si la trace représente une source d'information riche mise à disposition du développeur pour travailler, les informations pertinentes à l'analyse se retrouvent noyées dans la masse et sont difficilement utilisables sans une expertise de haut niveau. Des outils dédiés à l'exploitation des traces deviennent nécessaires. Cependant les outils existants prennent rarement en compte les aspects métiers spécifiques à l'application afin d'optimiser le travail d'analyse. Dans cette thèse, nous proposons une approche qui permet au développeur de représenter, manipuler et interroger une trace d'exécution en se basant sur des concepts liés à ses propres connaissances métier. Notre approche consiste en l'utilisation d'une ontologie pour modéliser et interroger les concepts métier dans une trace, et l'utilisation d'un moteur d'inférence pour raisonner sur ces concepts métier. Concrètement, nous proposons VIDECOM l'ontologie du domaine de l'analyse des traces d'exécution des applications embarquées multimédia sur MPSoC. Nous nous intéressons ensuite au passage à l'échelle de l'exploitation de cette ontologie pour l'analyse des traces de grandes tailles. Ainsi, nous faisons une étude comparative des différents systèmes de gestion des ontologies pour déterminer l'architecture la plus adaptée aux traces de très grande taille au sein de notre ontologie VIDECOM. Nous proposons également un moteur d'inférence qui adresse les défis que pose le raisonnement sur les concepts métier, à savoir l'inférence de l'ordre temporel entre les concepts métier dans la trace et la terminaison du processus de génération de nouvelles connaissances métier. Enfin, nous illustrons la mise en pratique de l'utilisation de l'ontologie VIDECOM dans le cadre du projet SoC-Trace pour l'analyse des traces d'exécution réelles sur MPSoC. / Applications analysis and debugging techniques are increasingly challenging task in modern systems. Especially in systems based on embedded multiprocessor components (or MPSoC) that make up the majority of our daily devices today. The use of execution traces is unavoidable to apply a detailed analysis of such systems and identify unexpected behaviors. Even if the trace offers a rich corpus of information to the developer for her work, information relevant to the analysis are hidden in the trace and is unusable without a high level of expertise. Tools dedicated to trace analysis become necessary. However existing tools take little or no account of the specific business aspects to an application or the developer's business knowledge to optimize the analysis task. In this thesis, we propose an approach that allows the developer to represent, manipulate and query an execution trace based on concepts related to her own business knowledge. Our approach is the use of an ontology to model and query business concepts in a trace, and the use of an inference engine to reason about these business concepts. Specifically, we propose VIDECOM, the domain ontology for the analysis of execution traces of multimedia applications embedded on MPSoC. We then focus on scaling the operation of this ontology for the analysis of huge traces. Thus, we make a comparative study of different ontologies management systems (or triplestores) to determine the most appropriate architecture for very large traces in our VIDECOM ontology.We also propose an inference engine that addresses the challenges of reasoning about business concepts, namely the inference of the temporal order between business concepts in the trace and the termination of the process of generating new knowledge from business knowledge. Finally, we illustrate the practical use of VIDECOM in the SoC-Trace project for the analysis of real execution traces on MPSoC.
65

Conception de machines probabilistes dédiées aux inférences bayésiennes / Theory and hardware implementation of probabilistic machines

Faix, Marvin 12 December 2016 (has links)
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence. / The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem.
66

Inférence de réseaux de régulation de gènes à partir de données dynamiques multi-échelles / Gene regulatory network inference from dynamic multi-scale data

Bonnaffoux, Arnaud 12 October 2018 (has links)
L'inférence des réseaux de régulation de gènes (RRG) à partir de données d'expression est un défi majeur en biologie. L’arrivée des technologies de mesure de transcriptomique à l’échelle de la cellule a suscité de nombreux espoirs, mais paradoxalement elles montrent une nouvelle complexité du problème d’inférence des RRG qui limite encore les approches existantes. Nous avons commencé par montrer, à partir de données d'expression en cellules uniques acquises sur un modèle aviaire de différenciation érythrocytaire, que les RRG sont des systèmes stochastiques à l'échelle de la cellule et qu'il y a une évolution dynamique de cette stochasticité au cours du processus de différenciation (Richard et al, PLOS Comp.Biol., 2016). C'est pourquoi nous avons développé par la suite un modèle de RRG mécaniste qui inclus cette stochasticité afin d'exploiter au maximum l'information des données expérimentales à l'échelle de la cellule (Herbach et al, BMC Sys.Biol., 2017). Ce modèle décrit les interactions entre gènes comme un couplage de processus de Markov déterministes par morceaux. En régime stationnaire une formule explicite de la distribution jointe est dérivée du modèle et peut servir à inférer des réseaux simples. Afin d'exploiter l'information dynamique et d'intégrer d'autres données expérimentales (protéomique, demi-vie des ARN), j’ai développé à partir du modèle précédent une approche itérative, intégrative et parallèle, baptisée WASABI qui est basé sur le concept de vague d'expression (Bonnaffoux et al, en révision, 2018). Cette approche originale a été validée sur des modèles in-silico de RRG, puis sur nos données in-vitro. Les RRG inférés affichent une structure de réseau originale au regard de la littérature, avec un rôle central du stimulus et une topologie très distribuée et limitée. Les résultats montrent que WASABI surmonte certaines limitations des approches existantes et sera certainement utile pour aider les biologistes dans l’analyse et l’intégration de leurs données. / Inference of gene regulatory networks from gene expression data has been a long-standing and notoriously difficult task in systems biology. Recently, single-cell transcriptomic data have been massively used for gene regulatory network inference, with both successes and limitations.In the present work we propose an iterative algorithm called WASABI, dedicated to inferring a causal dynamical network from timestamped single-cell data, which tackles some of the limitations associated with current approaches. We first introduce the concept of waves, which posits that the information provided by an external stimulus will affect genes one-byone through a cascade, like waves spreading through a network. This concept allows us to infer the network one gene at a time, after genes have been ordered regarding their time of regulation. We then demonstrate the ability of WASABI to correctly infer small networks, which have been simulated in-silico using a mechanistic model consisting of coupled piecewise-deterministic Markov processes for the proper description of gene expression at the single-cell level. We finally apply WASABI on in-vitro generated data on an avian model of erythroid differentiation. The structure of the resulting gene regulatory network sheds a fascinating new light on the molecular mechanisms controlling this process. In particular, we find no evidence for hub genes and a much more distributed network structure than expected. Interestingly, we find that a majority of genes are under the direct control of the differentiation-inducing stimulus. Together, these results demonstrate WASABI versatility and ability to tackle some general gene regulatory networks inference issues. It is our hope that WASABI will prove useful in helping biologists to fully exploit the power of time-stamped single-cell data.
67

Raisonnement à partir d'informations structurées et hiérarchisées : application à l'information archéologique / Reasoning from structured and hierarchized information : application to archeological information

Serayet, Mariette 06 May 2010 (has links)
La thèse s'inscrit dans le cadre du projet européen VENUS. Dans ce contexte, la photogrammétrie est utilisée pour produire des relevés 3D sur les objets. La connaissance sur ces objets provient à la fois de l'archéologie sous-marine et de la photogrammétrie. Les informations étant structurées, hiérarchisées et parfois incomparables, nous nous sommes intéressés aux bases de croyance partiellement préordonnées. Par ailleurs, l'acquisition des données peut conduire à l'apparition d'incohérence. Nous avons étendu l'approche des R-ensembles à la restauration de la cohérence. Nous avons également proposé un cadre de travail pour la révision de bases de croyance partiellement préordonnées et deux relations d'inférence lexicograhique. nous avons fourni pour ces approches une mise en oeuvre en utilisant la programmation logique avec ASP. Finalement, nous avons implanté notre méthode de restauration de la cohérence dans le contexte de VENUS et nous l'avons testé sur les relevés issus du projet. / This PHD has been performed within the European VENUS project. In this context, photogrammetry is used to produced 3D survey on objects and the knowledge on studied artefacts comes from both underwater archaeology and photogrammetry. This information being structured, hierachized and sometimes incomparable, we focused on partially preordered belief bases. Data acquisition possibly leads to inconsistency. We extended the Removed Set approach to inconsistency handling. To compare subsets of formulae to remove in order to restore consistency, we introduced the lexicographic comparator. Moreover, we proposed a new framework for the revision of partially preordered belief bases and two lexicographic inference relations. We proposed an implementation stemming from ASP. Finally, we implemented our inconsistency handling method in the VENUS context and we provided an experimental study on 3D surveys of the project.
68

Inférence automatique de modèles d'applications Web et protocoles pour la détection de vulnérabilités / Automatic model inference of Web applications and protocols for vulnerability detection

Hossen, Karim 15 December 2014 (has links)
Les approches de tests basées sur les modèles (MBT) ont su montrer leur efficacité pour le test logiciel, mais elles nécessitent de disposer au préalable d'un modèle formel du logiciel. Dans la plupart des cas, ce modèle n'est pas disponible pour des raisons de coût, de temps ou encore de droits. Dans le cadre du projet SPaCIoS qui vise à développer une plate-forme pour le test de la sécurité basé sur les modèles, l'objectif est de fournir un outil d'inférence automatique de modèle pour les applications Web ainsi que des méthodes de détection de vulnérabilités à partir de ce modèle. Nous avons conçu pour cela un algorithme d'inférence adapté aux applications Web et à leurs caractéristiques. Cette méthode prend en compte les données et leurs impacts sur le flot de contrôle. À l'aide d'algorithmes de fouille de données, le modèle est complété par des gardes ainsi que des fonctions de sortie. Nous avons aussi travaillé sur l'automatisation de la procédure d'inférence. Dans les approches d'inférence active, il est généralement nécessaire de connaître l'interface complète du système à inférer pour pouvoir communiquer avec l'application. Cette étape a été rendue automatique par l'utilisation d'un collecteur qui parcourt l'application pour en extraire les informations nécessaires et optimisées pour l'inférence. Ce collecteur est aussi utilisable par des méthodes d'inférence tierces. Dans la version complète de l'algorithme, nous avons fusionné l'algorithme d'inférence et celui d'extraction d'interfaces pour obtenir une méthode automatique. Nous présentons ensuite l'outil libre SIMPA qui implémente ces différents algorithmes ainsi que divers résultats obtenus sur les cas d'études du projet SPaCIoS ainsi que des protocoles. / In the last decade, model-based testing (MBT) approaches have shown their efficiency in the software testing domain but a formal model of the system under test (SUT) is required and, most of the time, not available for several reasons like cost, time or rights. The goal of the SPaCIoS project is to develop a security testing tool using MBT approach. The goal of this work, funded by the SPaCIoS project, is to develop and implement a model inference method for Web applications and protocols. From the inferred model, vulnerability detection can be done following SPaCIoS model-checking method or by methods we have developed. We developed an inference algorithm adapted to Web applications and their properties. This method takes into account application data and their influence on the control flow. Using data mining algorithms, the inferred model is refined with optimized guards and output functions. We also worked on the automation of the inference. In active learning approaches, it is required to know the complete interface of the system in order to communicate with it. As this step can be time-consuming, this step has been made automatic using crawler and interface extraction method optimized for inference. This crawler is also available as standalone for third-party inference tools. In the complete inference algorithm, we have merged the inference algorithm and the interface extraction to build an automatic procedure. We present the free software SIMPA, containing the algorithms, and we show some of the results obtained on SPaCIoS case studies and protocols.
69

Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec organogenèse stochastique / Probability analysis, combinatorial study and parametric estimation for a class of growth models of plants with stochastic development

Loi, Cédric 31 May 2011 (has links)
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastiques de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L’objectif est double. En premier lieu, il s’agit d’étudier les processus stochastiques sous-jacents à l’organogenèse. Un nouveau cadre de travail combinatoire reposant sur l’utilisation de grammaires formelles a été établi dans le but d’étudier la distribution des nombres d’organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti `a la mise en place d’une méthode symbolique permettant le calcul de distributions associées `a l’occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l’estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d’un modèle de Markov caché et des méthodes d’inférence bayésienne sont utilisées pour résoudre le problème. / This PhD focuses on a particular class of stochastic models of functional-structural plant growth to which the GreenLab model belongs. First, the stochastic processes underlying the organogenesis phenomenon were studied. A new combinatorial framework based on formal grammars was built to study the distributions of the number of organs or more generally patterns in plant structures. This work led to the creation of a symbolic method which allows the computation of the distributions associated to word occurrences in random texts generated by stochastic L-systems. The second part of the PhD tackles the estimation of the parameters of the functional submodel (linked to the creation of biomass by photosynthesis and its allocation). For this purpose, the plant model was described by a hidden Markov model and Bayesian inference methods were used to solve the problem.
70

Distributed and higher-order graphical models : towards segmentation, tracking, matching and 3D model inference / Modèles graphiques distribués et d'ordre supérieur : pour la segmentation, le suivi d'objet, l'alignement et l'inférence de modèle 3D

Wang, Chaohui 29 September 2011 (has links)
Cette thèse est dédiée au développement de méthodes à base de graphes, permettant de traiter les problèmes fondamentaux de la vision par ordinateur tels que la segmentation, le suivi d’objets, l’appariement de formes et l’inférence de modèles 3D. La première contribution de cette thèse est une méthode unifiée reposant sur un champ de Markov aléatoire (MRF) d’ordre deux permettant de réaliser en une seule étape la segmentation et le suivi de plusieurs objets observés par une caméra unique, tout en les ordonnançant en fonction de leur distance à la caméra. Nous y parvenons au moyen d’un nouveau modèle stratifié (2.5D) dans lequel une représentation bas-niveau et une représentation haut-niveau sont combinées par le biais de contraintes locales. Afin d’introduire des connaissances de haut niveau a priori, telles que des a priori sur la forme des objets, nous étudions l’appariement non-rigide de surfaces 3D. La seconde contribution de cette thèse consiste en une formulation générique d’appariement de graphes qui met en jeu des potentiels d’ordre supérieur et qui est capable d’intégrer différentes mesures de similarités d’apparence, de similarités géométriques et des pénalisations sur les déformations des formes. En tant que la troisième contribution de cette thèse, nous considérons également des interactions d’ordre supérieur pour proposer un a priori de forme invariant par rapport à la pose des objets, et l’exploitons dans le cadre d’une nouvelle approche de segmentation d’images médicales 3D afin d’obtenir une méthode indépendante de la pose de l’objet d’intérêt et de l’initialisation du modèle de forme. La dernière contribution de cette thèse vise à surmonter l’influence de la pose de la caméra dans les problèmes de vision. Nous introduisons un paradigme unifié permettant d’inférer des modèles 3D à partir d’images 2D monoculaires. Ce paradigme détermine simultanément le modèle 3D optimal et les projections 2D correspondantes sans estimer explicitement le point de vue de la caméra, tout en gérant les mauvaises détections et les occlusions. / This thesis is devoted to the development of graph-based methods that address several of the most fundamental computer vision problems, such as segmentation, tracking, shape matching and 3D model inference. The first contribution of this thesis is a unified, single-shot optimization framework for simultaneous segmentation, depth ordering and multi-object tracking from monocular video sequences using a pairwise Markov Random Field (MRF). This is achieved through a novel 2.5D layered model where object-level and pixel-level representations are seamlessly combined through local constraints. Towards introducing high-level knowledge, such as shape priors, we then studied the problem of non-rigid 3D surface matching. The second contribution of this thesis consists of a higher-order graph matching formulation that encodes various measurements of geometric/appearance similarities and intrinsic deformation errors. As the third contribution of this thesis, higher-order interactions were further considered to build pose-invariant statistical shape priors and were exploited for the development of a novel approach for knowledge-based 3D segmentation in medical imaging which is invariant to the global pose and the initialization of the shape model. The last contribution of this thesis aimed to partially address the influence of camera pose in visual perception. To this end, we introduced a unified paradigm for 3D landmark model inference from monocular 2D images to simultaneously determine both the optimal 3D model and the corresponding 2D projections without explicit estimation of the camera viewpoint, which is also able to deal with misdetections/occlusions

Page generated in 0.0375 seconds