• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 51
  • 13
  • Tagged with
  • 124
  • 96
  • 67
  • 26
  • 23
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'informations changeant au cours du temps

Kassab, Randa 11 May 2009 (has links) (PDF)
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps.<br /><br />L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. <br /><br />Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples.
72

Contours actifs paramétriques pour la segmentation<br />d'images et vidéos

Precioso, Frédéric 24 September 2004 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des modèles de contours actifs. Il s'agit de méthodes dynamiquesappliquées à la segmentation d'image, en image fixe et vidéo. L'image est représentée par desdescripteurs régions et/ou contours. La segmentation est traitée comme un problème deminimisationd'une fonctionnelle. La recherche du minimum se fait via la propagation d'un contour actif dit basérégions. L'efficacité de ces méthodes réside surtout dans leur robustesse et leur rapidité. L'objectifde cette thèse est triple : le développement (i) d'une représentation paramétrique de courbes respectantcertaines contraintes de régularités, (ii) les conditions nécessaires à une évolution stable de cescourbes et (iii) la réduction des coûts calcul afin de proposer une méthode adaptée aux applicationsnécessitant une réponse en temps réel.Nous nous intéressons principalement aux contraintes de rigidité autorisant une plus granderobustesse vis-à-vis du bruit. Concernant l'évolution des contours actifs, nous étudions les problèmesd'application de la force de propagation, de la gestion de la topologie et des conditionsde convergence. Nous avons fait le choix des courbes splines cubiques. Cette famille de courbesoffre d'intéressantes propriétés de régularité, autorise le calcul exact des grandeurs différentiellesqui interviennent dans la fonctionnelle et réduit considérablement le volume de données à traiter.En outre, nous avons étendu le modèle classique des splines d'interpolation à un modèle de splinesd'approximation, dites smoothing splines. Ce dernier met en balance la contrainte de régularité etl'erreur d'interpolation sur les points d'échantillonnage du contour. Cette flexibilité permet ainsi deprivilégier la précision ou la robustesse.L'implémentation de ces modèles de splines a prouvé son efficacité dans diverses applicationsde segmentation.
73

Environnements de simulation adaptés à l'étude du comportement énergétique des bâtiments basse consommation

Tittelein, Pierre 09 December 2008 (has links) (PDF)
En France, à partir de 2012, tous les bâtiments neufs devront répondre aux critères de basse consommation, c'est-à-dire qu'ils devront consommer moins de 50 kW.h/(m².an) en énergie primaire pour le chauffage, le refroidissement, la ventilation, la production d'eau chaude sanitaire et l'éclairage (à moduler selon la région et l'altitude). La simulation numérique a un rôle important à jouer pour atteindre cet objectif.<br />Les environnements de simulation énergétique existants ont été conçus pour des bâtiments classiques pour lesquels les consommations sont beaucoup plus importantes que celles fixées pour 2012, il faut donc voir si les modèles mais aussi les méthodes de simulations utilisés correspondent toujours aux spécificités de ces nouveaux bâtiments. L'objectif de ce travail est de montrer l'intérêt d'utiliser un environnement de simulation basé sur les systèmes d'équations pour étudier le comportement énergétique des bâtiments basse consommation. <br />Pour cela, plusieurs modèles ont été implémentés dans l'environnement SIMSPARK. Il s'agit d'un modèle de matériau à changement de phase, d'un modèle de prise en compte du rayonnement de courtes longueurs d'onde par calcul de la tache solaire et d'un modèle d'échangeur air-sol. Ils ont été intégrés dans un modèle global de bâtiment basse consommation ce qui a permis de montrer les avantages de l'environnement de simulation utilisé. Le fait qu'il soit orienté objet permet de valider indépendamment les nouveaux modèles puis de les intégrer facilement à un modèle de niveau hiérarchique supérieur. Le fait qu'il soit basé sur les systèmes d'équations a permis grâce à la non orientation a priori du modèle d'inverser le sens de résolution de plusieurs problèmes dans une simulation dynamique. Enfin, la robustesse des méthodes de résolution utilisées a été éprouvée.
74

CONTRIBUTION AU PRONOSTIC DES SYSTÈMES NON LINÉAIRES À BASE DE MODÈLES : THÉORIE ET APPLICATION

Gucik-Derigny, David 09 December 2011 (has links) (PDF)
Cette thèse est une contribution au problème du pronostic des systèmes complexes. Plus précisément, elle concerne l'approche basée modèles et est composée de trois contributions principales. Tout d'abord, dans une première contribution une définition du concept de pronostic est proposée et est positionnée par rapport aux concepts de diagnostic et de diagnostic prédictif. Pour cela, une notion de contrainte temporelle a été introduite afin de donner toute pertinence à la prédiction réalisée. Il a également été montré comment le pronostic est lié à la notion d'accessibilité en temps fini. La deuxième contribution est dédiée à l'utilisation des observateurs à convergence en temps fini pour la problématique du pronostic. Une méthodologie de pronostic est présentée pour les systèmes non linéaires à échelle de temps multiple. Puis, une troisième contribution est introduite par l'utilisation des observateurs par intervalle pour le pronostic. Une méthodologie de pronostic est proposée pour les systèmes non linéaires incertains à échelle de temps multiple. Pour illustrer les différents résultats théoriques, des simulations ont été conduites sur un modèle de comportement d'un oscillateur électromécanique.
75

Pénalisation et réduction de la dimension des variables auxiliaires en théorie des sondages

Shehzad, Muhammad Ahmed 12 October 2012 (has links) (PDF)
Les enquêtes par sondage sont utiles pour estimer des caractéristiques d'une populationtelles que le total ou la moyenne. Cette thèse s'intéresse à l'étude detechniques permettant de prendre en compte un grand nombre de variables auxiliairespour l'estimation d'un total.Le premier chapitre rappelle quelques définitions et propriétés utiles pour lasuite du manuscrit : l'estimateur de Horvitz-Thompson, qui est présenté commeun estimateur n'utilisant pas l'information auxiliaire ainsi que les techniques decalage qui permettent de modifier les poids de sondage de facon à prendre encompte l'information auxiliaire en restituant exactement dans l'échantillon leurstotaux sur la population.Le deuxième chapitre, qui est une partie d'un article de synthèse accepté pourpublication, présente les méthodes de régression ridge comme un remède possibleau problème de colinéarité des variables auxiliaires, et donc de mauvais conditionnement.Nous étudions les points de vue "model-based" et "model-assisted" dela ridge regression. Cette technique qui fournit de meilleurs résultats en termed'erreur quadratique en comparaison avec les moindres carrés ordinaires peutégalement s'interpréter comme un calage pénalisé. Des simulations permettentd'illustrer l'intérêt de cette technique par compar[a]ison avec l'estimateur de Horvitz-Thompson.Le chapitre trois présente une autre manière de traiter les problèmes de colinéaritévia une réduction de la dimension basée sur les composantes principales. Nousétudions la régression sur composantes principales dans le contexte des sondages.Nous explorons également le calage sur les moments d'ordre deux des composantesprincipales ainsi que le calage partiel et le calage sur les composantes principalesestimées. Une illustration sur des données de l'entreprise Médiamétrie permet deconfirmer l'intérêt des ces techniques basées sur la réduction de la dimension pourl'estimation d'un total en présence d'un grand nombre de variables auxiliaires
76

Diagnostic et observation d'une classe de systèmes dynamiques hybrides. Application au convertisseur multicellulaire série

Van Gorp, Jérémy 05 December 2013 (has links) (PDF)
Cette thèse s'intéresse au diagnostic et à l'observation de systèmes linéaires à commutations et à l'application au convertisseur multicellulaire série. L'objectif est de proposer des solutions pour des sous-systèmes non-observables au sens classique et dont des fautes continues ou discrètes peuvent être présentes. Après la présentation d'un état de l'art sur les techniques d'observation et de diagnostic pourles systèmes à commutations, le mémoire est scindé en deux parties. La première partie propose, d'une part, une stratégie d'estimation des états discret et continu d'un système linéaire à commutation soumis à une entrée inconnue. Un observateur hybride basé sur la théorie des modes glissants d'ordre supérieur est développé. D'autre part, deux procédures de diagnostic sont présentées. La première combine un observateur hybride et un diagnostiqueur pour détecter une faute continue. Pour la seconde, un diagnostic actif est défini sur la base de la théorie du test afin de détecter et d'isoler une faute discrète. Dans la seconde partie de ce mémoire, les étapes de la réalisation d'un convertisseur multicellulaire sont détaillées. Ensuite, un chapitre est dédié à la validation des approches théoriques d'observation et de diagnostic sur le convertisseur à trois cellules. Un observateur est synthétisé afin d'estimer les tensions des capacités. Les deux procédures de diagnostic sont appliquées pour la détection d'une variation des valeurs des capacités et le diagnostic de cellules bloquées. Enfin, une commande binaire pour le convertisseur est proposée. L'application de cette stratégie permettra, par la suite, la commande tolérante aux fautes du convertisseur.
77

Une famille de distributions symétriques et leptocurtiques représentée par la différence de deux variables aléatoires gamma

Augustyniak, Maciej January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
78

SYSTEME DE SUIVI BASE SUR L'ECHOGRAPHIE 3D POUR L'ASSURANCE DE LA QUALITE DE LA DISTRIBUTION DES BIOPSIES DE LA PROSTATE ET LE GUIDAGE DU GESTE.

Baumann, Michael 26 May 2008 (has links) (PDF)
A l'heure actuelle, la procédure clinique standard de prélèvement de biopsies de la prostate est effectuée sous contrôle échographique 2D en utilisant un protocole systématique. Il est difficile pour le clinicien de localiser les cibles de biopsie avec précision, et il est impossible de connaître la position exacte des tissus échantillonnés après l'intervention. Dans ce mémoire, nous proposons une méthode permettant de localiser la position des tissus prélevés avec une précision millimétrique par rapport à une image 3D de la prostate de référence. Elle combine des techniques de recalage rigide et élastique basées sur les intensités (recalage iconique) avec des modèles a priori des contraintes biomécaniques. Ce travail permet la mise en œuvre d'applications telles que la validation postopératoire de la distribution des biopsies et l'établissement de cartographies précises des tissus cancéreux, ce qui permettrait éventuellement un traitement localisé du cancer de la prostate. L'approche proposée permet également de guider le clinicien vers des cibles définies sur l'image de référence, provenant par exemple d'une autre modalité d'imagerie telle que l'IRM ou le SpectroIRM.
79

L'ajustement de faisceaux contraint comme cadre d'unification des méthodes de localisation : application à la réalité augmentée sur des objets 3D / Constrained beam adjustment as a framework for unifying location methods : application to augmented reality on 3D objects

Tamaazousti, Mohamed 13 March 2013 (has links)
Les travaux réalisés au cours de cette thèse s’inscrivent dans la problématique de localisation en temps réel d’une caméra par vision monoculaire. Dans la littérature, il existe différentes méthodes qui peuvent être classées en trois catégories. La première catégorie de méthodes considère une caméra évoluant dans un environnement complètement inconnu (SLAM). Cette méthode réalise une reconstruction enligne de primitives observées dans des images d’une séquence vidéo et utilise cette reconstruction pour localiser la caméra. Les deux autres permettent une localisation par rapport à un objet 3D de la scène en s’appuyant sur la connaissance, a priori, d’un modèle de cet objet (suivi basé modèle). L’une utilise uniquement l’information du modèle 3D de l’objet pour localiser la caméra, l’autre peut être considérée comme l’intermédiaire entre le SLAM et le suivi basé modèle. Cette dernière méthode consiste à localiser une caméra par rapport à un objet en utilisant, d’une part, le modèle de ce dernier et d’autre part, une reconstruction en ligne des primitives de l’objet d’intérêt. Cette reconstruction peut être assimilée à une mise à jour du modèle initial (suivi basé modèle avec mise à jour). Chacune de ces méthodes possède des avantages et des inconvénients. Dans le cadre de ces travaux de thèse, nous proposons une solution unifiant l’ensemble de ces méthodes de localisation dans un unique cadre désigné sous le terme de SLAM contraint. Cette solution, qui unifie ces différentes méthodes, permet de tirer profit de leurs avantages tout en limitant leurs inconvénients respectifs. En particulier, nous considérons que la caméra évolue dans un environnement partiellement connu, c’est-à-dire pour lequel un modèle (géométrique ou photométrique) 3D d’un objet statique de la scène est disponible. L’objectif est alors d’estimer de manière précise la pose de la caméra par rapport à cet objet 3D. L’information absolue issue du modèle 3D de l’objet d’intérêt est utilisée pour améliorer la localisation de type SLAM en incluant cette information additionnelle directement dans le processus d’ajustement de faisceaux. Afin de pouvoir gérer un large panel d’objets 3D et de scènes, plusieurs types de contraintes sont proposées dans ce mémoire. Ces différentes contraintes sont regroupées en deux approches. La première permet d’unifier les méthodes SLAM et de suivi basé modèle, en contraignant le déplacement de la caméra via la projection de primitives existantes extraites du modèle 3D dans les images. La seconde unifie les méthodes SLAM et de suivi basé modèle avec mise à jour en contraignant les primitives reconstruites par le SLAM à appartenir à la surface du modèle (unification SLAM et mise à jour du modèle). Les avantages de ces différents ajustements de faisceaux contraints, en terme de précision, de stabilité de recalage et de robustesse aux occultations, sont démontrés sur un grand nombre de données de synthèse et de données réelles. Des applications temps réel de réalité augmentée sont également présentées sur différents types d’objets 3D. Ces travaux ont fait l’objet de 4 publications internationales, de 2 publications nationales et d’un dépôt de brevet. / This thesis tackles the problem of real time location of a monocular camera. In the literature, there are different methods which can be classified into three categories. The first category considers a camera moving in a completely unknown environment (SLAM). This method performs an online reconstruction of the observed primitives in the images and uses this reconstruction to estimate the location of the camera. The two other categories of methods estimate the location of the camera with respect to a 3D object in the scene. The estimation is based on an a priori knowledge of a model of the object (Model-based). One of these two methods uses only the information of the 3D model of the object to locate the camera. The other method may be considered as an intermediary between the SLAM and Model-based approaches. It consists in locating the camera with respect to the object of interest by using, on one hand the 3D model of this object, and on the other hand an online reconstruction of the primitives of the latter. This last online reconstruction can be regarded as an update of the initial 3D model (Model-based with update). Each of these methods has advantages and disadvantages. In the context of this thesis, we propose a solution in order to unify all these localization methods in a single framework referred to as the constrained SLAM, by taking parts of their benefits and limiting their disadvantages. We, particularly, consider that the camera moves in a partially known environment, i.e. for which a 3D model (geometric or photometric) of a static object in the scene is available. The objective is then to accurately estimate the pose (position and orientation) of the camera with respect to this object. The absolute information provided by the 3D model of the object is used to improve the localization of the SLAM by directly including this additional information in the bundle adjustment process. In order to manage a wide range of 3D objets and scenes, various types of constraints are proposed in this study and grouped into two approaches. The first one allows to unify the SLAM and Model-based methods by constraining the trajectory of the camera through the projection, in the images, of the 3D primitives extracted from the model. The second one unifies the SLAM and Model-based with update methods, by constraining the reconstructed 3D primitives of the object to belong to the surface of the model (unification SLAM and model update). The benefits of the constrained bundle adjustment framework in terms of accuracy, stability, robustness to occlusions, are demonstrated on synthetic and real data. Real time applications of augmented reality are also presented on different types of 3D objects. This work has been the subject of four international publications, two national publications and one patent.
80

Traitement conjoint de la géométrie et de la radiance d'objets 3D numérisés / Joint treatment of geometry and radiance for 3D model digitisation

Vanhoey, Kenneth 18 February 2014 (has links)
Depuis quelques décennies, les communautés d'informatique graphique et de vision ont contribué à l'émergence de technologies permettant la numérisation d'objets 3D. Une demande grandissante pour ces technologies vient des acteurs de la culture, notamment pour l'archivage, l'étude à distance et la restauration d'objets du patrimoine culturel : statuettes, grottes et bâtiments par exemple. En plus de la géométrie, il peut être intéressant de numériser la photométrie avec plus ou moins de détail : simple texture (2D), champ de lumière (4D), SV-BRDF (6D), etc. Nous formulons des solutions concrètes pour la création et le traitement de champs de lumière surfaciques représentés par des fonctions de radiance attachés à la surface.Nous traitons le problème de la phase de construction de ces fonctions à partir de plusieurs prises de vue de l'objet dans des conditions sur site : échantillonnage non structuré voire peu dense et bruité. Un procédé permettant une reconstruction robuste générant un champ de lumière surfacique variant de prévisible et sans artefacts à excellente, notamment en fonction des conditions d'échantillonnage, est proposé. Ensuite, nous suggérons un algorithme de simplification permettant de réduire la complexité mémoire et calculatoire de ces modèles parfois lourds. Pour cela, nous introduisons une métrique qui mesure conjointement la dégradation de la géométrie et de la radiance. Finalement, un algorithme d'interpolation de fonctions de radiance est proposé afin de servir une visualisation lisse et naturelle, peu sensible à la densité spatiale des fonctions. Cette visualisation est particulièrement bénéfique lorsque le modèle est simplifié. / Vision and computer graphics communities have built methods for digitizing, processing and rendering 3D objects. There is an increasing demand coming from cultural communities for these technologies, especially for archiving, remote studying and restoring cultural artefacts like statues, buildings or caves. Besides digitizing geometry, there can be a demand for recovering the photometry with more or less complexity : simple textures (2D), light fields (4D), SV-BRDF (6D), etc. In this thesis, we present steady solutions for constructing and treating surface light fields represented by hemispherical radiance functions attached to the surface in real-world on-site conditions. First, we tackle the algorithmic reconstruction-phase of defining these functions based on photographic acquisitions from several viewpoints in real-world "on-site" conditions. That is, the photographic sampling may be unstructured and very sparse or noisy. We propose a process for deducing functions in a manner that is robust and generates a surface light field that may vary from "expected" and artefact-less to high quality, depending on the uncontrolled conditions. Secondly, a mesh simplification algorithm is guided by a new metric that measures quality loss both in terms of geometry and radiance. Finally, we propose a GPU-compatible radiance interpolation algorithm that allows for coherent radiance interpolation over the mesh. This generates a smooth visualisation of the surface light field, even for poorly tessellated meshes. This is particularly suited for very simplified models.

Page generated in 0.0729 seconds