• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 30
  • 8
  • 1
  • Tagged with
  • 135
  • 46
  • 43
  • 24
  • 20
  • 19
  • 19
  • 19
  • 14
  • 14
  • 14
  • 13
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Qualité, Fouille et Gestion des Connaissances

Guillet, Fabrice 08 December 2006 (has links) (PDF)
Qualité, Fouille et Gestion des Connaissances Lorem ipsum dolor sit amet, consectetuer adipiscing elit. Sed non risus. Suspendisse lectus tortor, dignissim sit amet, adipiscing nec, ultricies sed, dolor. Cras elementum ultrices diam. Maecenas ligula massa, varius a, semper congue, euismod non, mi. Proin porttitor, orci nec nonummy molestie, enim est eleifend mi, non fermentum diam nisl sit amet erat. Duis semper. Duis arcu massa, scelerisque vitae, consequat in, pretium a, enim. Pellentesque congue. Ut in risus volutpat libero pharetra tempor. Cras vestibulum bibendum augue. Praesent egestas leo in pede. Praesent blandit odio eu enim. Pellentesque sed dui ut augue blandit sodales
72

Appariement d'images par invariants locaux de niveaux de gris. Application à l'indexation d'une base d'objets

Schmid, Cordelia 02 February 1996 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'appariement, un sujet fondamental en vision par ordinateur. Ce domaine recouvre des problèmes variés allant de celui de l'appariement entre deux images à celui de l'appariement d'une image et un modèle CAO. Notre approche permet d'apparier des objets s'ils sont observés dans des scènes complexes, s'ils sont partiellement visibles et s'ils sont aperçus de points de vue différents. Cette méthode est étendue à l'interrogation de bases d'images et à la reconnaissance d'objets. Notre approche est basée sur une caractérisation locale des niveaux de gris d'une image. Cette caractérisation est calculée en des points particuliers des images : les points d'intérêt. Ces points sont détectés automatiquement et sont représentatifs de l'objet observé. De ce fait, la caractérisation obtenue représente une information très riche. De plus, elle est invariante pour le groupe des similitudes image et permet d'apparier des images ayant subi de telles transformations. Comme le groupe des similitudes absorbe au premier ordre les variations dues à un changement de point de vue lors d'une projection perspective, notre représentation est quasi-invariante et donc robuste à une telle transformation. La solution présentée a été appliquée à la recherche d'une image dans une volumineuse base d'images. Comme la multiplicité des correspondances ne permet plus d'avoir directement de réponse satisfaisante, une méthode statistiquement robuste fait émerger la solution. D'autre part, pour effectuer une recherche rapide dans une large base un mécanisme d'indexation a été développé. La recherche d'image a été étendue à la reconnaissance d'objet à partir d'une seule image. Pour ce faire, un objet 3D est modélisé par une collection d'images représentatives de l'objet. Pour obtenir une information 3D, des données symboliques sont ajoutées aux différents aspects de l'objet stockés dans la base. La relation trilinéaire permet alors de retrouver ces données sur une image recherchée.
73

Contributions à la segmentation de séquences d'images au sens du mouvement dans un contexte semi-automatique

Fradet, Matthieu 22 January 2010 (has links) (PDF)
De nombreuses applications en vision par ordinateur nécessitent la distinction et le suivi des différents objets vidéo constituant une scène dynamique. Dans le contexte de la post-production, la qualité visuelle des résultats est une contrainte si forte qu'un opérateur doit pouvoir intervenir facilement et rapidement pour guider efficacement les traitements. Le but de cette thèse est de proposer de nouveaux algorithmes de segmentation au sens du mouvement. Ce document est décomposé en deux parties. Dans la première partie, deux nouvelles méthodes séquentielles et semi-automatiques de segmentation de séquences d'images au sens du mouvement sont proposées. Toutes deux exploitent la représentation d'une scène par un ensemble de couches de mouvement. L'extraction de ces dernières repose sur différents critères (mouvement, couleur, cohérence spatio-temporelle) combinés au sein d'une fonctionnelle d'énergie minimisée par coupe minimale/flot maximal dans un graphe. La seconde partie présente une nouvelle méthode pour le partitionnement automatique d'un ensemble de trajectoires de points d'intérêt. Chaque trajectoire est définie sur un intervalle temporel qui lui est propre et qui correspond aux instants auxquels le point considéré est visible. Comparée à un mouvement estimé entre deux images, l'information de mouvement fournie par une trajectoire offre un horizon temporel étendu qui permet de mieux distinguer des objets dont les mouvements sont différents. Les méthodes sont validées sur différentes séquences aux contenus dynamiques variés.
74

La détermination des taux d'intérêt des obligations provinciales à long terme

Lukawecki, Sonia January 2007 (has links) (PDF)
Dans le présent travail, nous proposons un modèle structurel qui tente d'expliquer l'écart de rendement entre les obligations des provinces de Québec, de la Colombie-Britannique et de l'Ontario, d'une part, et les obligations fédérales canadiennes, d'autre part. La période de notre échantillon s'étend de 1963 à 2004. Les titres choisis sont des obligations à long terme d'échéance de 10 ans. Pour y parvenir, nous nous sommes inspirés d'une approche théorique basée sur la contrainte budgétaire et le risque de défaut de paiement. Plusieurs conclusions peuvent être tirées de cette étude. D'abord, les marchés financiers semblent surveiller de très près les mouvements des trois facteurs fondamentaux de la solvabilité à long terme. De plus, nous observons que certains phénomènes politiques influencent de façon indirecte les marchés financiers en influençant les attentes sur le solde budgétaire futur et, par le fait même, la prime de risque provinciale. Selon les estimations de notre modèle, les impacts financiers reliés à l'incertitude politique du Québec restent surtout temporaires et concentrés autour de quelques événements bien précis. Le premier chapitre présente un bref survol de la théorie économique pertinente. Il introduit les notions financières qui seront utilisées et développées tout au long de ce mémoire. Il motive le sujet traité en le plaçant dans le contexte de l'économie actuelle. Le deuxième chapitre passe en revue la littérature sur laquelle s'appuie le reste du mémoire. Nous allons y aborder les principaux travaux dont s'inspire essentiellement notre travail. Étant donné le sujet traité, il s'agit surtout d'études empiriques canadiennes, comme celles de Claude Montmarquette et Claude Dallaire (1980), Richard Carter et Henri-Paul Rousseau (1986), Claude Carbonneau (1990), Howard Howe et Charles Pigott (1991-1992), Albert H. Gordon (1995) et George Georgopolos (2004). Le troisième chapitre proposera une approche théorique au problème qui sera basée sur la contrainte budgétaire gouvernementale et sur la perception qu'en ont les milieux financiers. Nous en profiterons pour identifier les différentes variables pouvant expliquer le comportement des taux d'intérêt obligataires et, tout particulièrement, le niveau et l'évolution du risque financier. Le quatrième chapitre va ensuite employer ces variables pour estimer et tester un modèle économique de l'écart de taux d'intérêt entre les obligations provinciales et les obligations fédérales canadiennes. Ce modèle sera complété par l'addition des variables politiques jugées pertinentes. Les obligations des trois plus grandes provinces seront ainsi étudiées en mode panel, soit celles du Québec de 1963 à 2004, de l'Ontario de 1963 à 2004 et de la Colombie-Britannique de 1973 à 2004. Enfin, en conclusion, un retour sur les questions posées initialement examinera quelles réponses y apportent les résultats obtenus. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Obligation, Contrainte budgétaire, Prime de risque, Phénomène politique.
75

Essais sur les Crises Financières

Moysan, Gwenael 10 December 2013 (has links) (PDF)
La thèse traite de differents aspects des crises financières et de leur gestion par les régulateurs. Les systèmes financiers complexes, tel le réseau interbancaire, peuvent être modélisés par une approche de type réseau, pour calculer la propagation des faillites et modéliser le risque systémique. Partant d'un réseau d'agents identiquement capitalisés, l'impact d'un ratio de capitalisation est testé selon l'horizon de maximisation des profits des agents. Performante lorsque les agents optimisent en horizon infini, la prévention du risque systémique par ce ratio peut créer d'importants problèmes de liquidité lorsque les agents sont myopes. L'effet des taux d'intérêts sur les bulles de crédit est analysé en partant d'un modèle basé sur une économie de production, dans laquelle les entreprises font face à de rares opportunités d'investissement. Lorsqu'elles investissent, ces entreprises ont recours à de la dette court-terme, limitée à une partie de leur valeur boursière. Dans ce modèle générant des bulles sur les prix des firmes, les taux d'intérêts sur la dette n'ont que peu d'effets sur les prix des firmes. En outre, des réserves sont émises concernant la présence de véritables bulles dans les prix vis-à-vis des concepts historiques. Le précédent modèle est étendu en introduisant une part de dette à long-terme dans le capital des firmes. Dans ce cadre, les valeurs boursières des firmes sont très réactives au taux d'intérêt, étant même discontinues lors de chocs de taux persistants. Par ailleurs, l'économie de production peut atteindre un état bullier: les prix des firmes reflètent les gains de capital uniquement dus à la dette.
76

Vers une meilleure disponibilité des données dans les réseaux ad-hoc mobiles : Proposition d'une méthodologie de réplication fondée sur la notion de communauté d'intérêt et le contrôle des ressources

Torbey Takkouz, Zeina 28 September 2012 (has links) (PDF)
Les réseaux ad hoc mobiles sont des réseaux qui se forment spontanément grâce à la présence de terminaux mobiles. Ces réseaux sans fil sont de faible capacité. Les nœuds se déplacent librement et de manière imprévisible et ils se déchargent très rapidement. En conséquence, un réseau MANET est très enclin à subir des partitionnements fréquents. Les applications déployées sur de tels réseaux, souffrent de problèmes de disponibilité des données induits par ces partitionnements. La réplication des données constitue un mécanisme prometteur pour pallier ce problème. Cependant, la mise en œuvre d'un tel mécanisme dans un environnement aussi contraint en ressources constitue un réel défi. L'objectif principal est donc de réaliser un mécanisme peu consommateur en ressources. Le second objectif de la réplication est de permettre le rééquilibrage de la charge induite par les requêtes de données. Le choix des données à répliquer ainsi que celui des nœuds optimaux pour le placement des futurs réplicas est donc crucial, spécialement dans le contexte du MANET. Dans cette thèse, nous proposons CReaM (Community-Centric and Resource-Aware Replication Model") un modèle de réplication adapté à un réseau MANET. CReaM fonctionne en mode autonomique : les prises de décisions se basent sur des informations collectées dans le voisinage du nœud plutôt que sur des données globalement impliquant tous les nœuds, ce qui permet de réduire le trafic réseau lié à la réplication. Pour réduire l'usage des ressources induit par la réplication sur un nœud, les niveaux de consommation des ressources sont contrôlés par un moniteur. Toute consommation excédant un seuil prédéfini lié à cette ressource déclenche le processus de réplication. Pour permettre le choix de la donnée à répliquer, une classification multi critères a été proposée (rareté de la donnée, sémantique, niveau de demande); et un moteur d'inférence qui prend en compte l'état de consommation des ressources du nœud pour désigner la catégorie la plus adaptée pour choisir la donnée à répliquer. Pour permettre de placer les réplicas au plus près des nœuds intéressés, CReaM propose un mécanisme pour l'identification et le maintien à jour des centres d'intérêt des nœuds. Les utilisateurs intéressés par un même sujet constituent une communauté. Par ailleurs, chaque donnée à répliquer est estampillée par le ou les sujets au(x)quel(s) elle s'apparente. Un nœud désirant placer un réplica apparenté à un sujet choisira le nœud ayant la plus grande communauté sur ce sujet. Les résultats d'expérimentations confirment la capacité de CReaM à améliorer la disponibilité des données au même niveau que les solutions concurrentes, tout en réduisant la charge liée à la réplication. D'autre part, CReaM permet de respecter l'état de consommation des ressources sur les nœuds.
77

Le cheminement de la recherche dans l'élaboration des politiques publiques : une analyse de la politique québécoise de lutte contre la pauvreté

Souffez, Karine January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
78

Détection de primitives par une approche discrète et non linéaire : application à la détection et la caractérisation de points d'intérêt dans les maillages 3D

Walter, Nicolas 26 August 2010 (has links) (PDF)
Ce manuscrit est dédié à la détection et la caractérisation de points d'intérêt dans les maillages. Nous montrons tout d'abord les limitations de la mesure de courbure sur des contours francs, mesure habituellement utilisée dans le domaine de l'analyse de maillages. Nous présentons ensuite une généralisation de l'opérateur SUSAN pour les maillages, nommé SUSAN-3D. La mesure de saillance proposée quantifie les variations locales de la surface et classe directement les points analysés en cinq catégories : saillant, crête, plat, vallée et creux. Les maillages considérés sont à variété uniforme avec ou sans bords et peuvent être réguliers ou irréguliers, denses ou non et bruités ou non. Nous étudions ensuite les performances de SUSAN-3D en les comparant à celles de deux opérateurs de courbure : l'opérateur de Meyer et l'opérateur de Stokely. Deux méthodes de comparaison des mesures de saillance et courbure sont proposées et utilisées sur deux types d'objets : des sphères et des cubes. Les sphères permettent l'étude de la précision sur des surfaces différentiables et les cubes sur deux types de contours non-différentiables : les arêtes et les coins. Nous montrons au travers de ces études les avantages de notre méthode qui sont une forte répétabilité de la mesure, une faible sensibilité au bruit et la capacité d'analyser les surfaces peu denses. Enfin, nous présentons une extension multi-échelle et une automatisation de la détermination des échelles d'analyse qui font de SUSAN-3D un opérateur générique et autonome d'analyse et de caractérisation pour les maillages
79

Détection et suivi d'objets par vision fondés sur segmentation par contour actif basé région

Ait Fares, Wassima 27 September 2013 (has links) (PDF)
La segmentation et le suivi d'objets sont des domaines de recherche compétitif dans la vision par ordinateur. Une de leurs applications importantes réside dans la robotique où la capacité à segmenter un objet d'intérêt du fond de l'image, d'une manière précise, est cruciale particulièrement dans des images acquises à bord durant le mouvement du robot. Segmenter un objet dans une image est une opération qui consiste à distinguer la région objet du celle du fond suivant un critère défini. Suivre un objet dans une séquence d'images est une opération qui consiste à localiser la région objet au fil du temps dans une vidéo. Plusieurs techniques peuvent être utilisées afin d'assurer ces opérations. Dans cette thèse, nous nous sommes intéressés à segmenter et suivre des objets en utilisant la méthode du contour actif en raison de sa robustesse et son efficacité à pouvoir segmenter et suivre des objets non rigides. Cette méthode consiste à faire évoluer une courbe à partir d'une position initiale, entourant l'objet à détecter, vers la position de convergence qui correspond aux bords de cet objet d'intérêt. Nous proposons d'abord un critère global qui dépend des régions de l'image ce qui peut imposer certaines contraintes sur les caractéristiques de ces régions comme une hypothèse d'homogénéité. Cette hypothèse ne peut pas être toujours vérifiée du fait de l'hétérogénéité souvent présente dans les images. Dans le but de prendre en compte l'hétérogénéité qui peut apparaître soit sur l'objet d'intérêt soit sur le fond dans des images bruitées et avec une initialisation inadéquate du contour actif, nous proposons une technique qui combine des statistiques locales et globales pour définir le critère de segmentation. En utilisant un rayon de taille fixe, un demi-­‐disque est superposé sur chaque point du contour actif afin de définir les régions d'extraction locale. Lorsque l'hétérogénéité se présente à la fois sur l'objet d'intérêt et sur le fond de l'image, nous développons une technique basée sur un rayon flexible déterminant deux demi-­‐disques avec deux rayons de valeurs différentes pour extraire l'information locale. Le choix de la valeur des deux rayons est déterminé en prenant en considération la taille de l'objet à segmenter ainsi que de la distance séparant l'objet d'intérêt de ses voisins. Enfin, pour suivre un objet mobile dans une séquence vidéo en utilisant la méthode des contours actifs, nous développons une approche hybride du suivi d'objet basée sur les caractéristiques de la région et sur le vecteur mouvement des points d'intérêt extraits dans la région objet. En utilisant notre approche, le contour actif initial à chaque image sera ajusté suffisamment d'une façon à ce qu'il soit le plus proche possible au bord réel de l'objet d'intérêt, ainsi l'évolution du contour actif basée sur les caractéristiques de la région ne sera pas piégée par de faux contours. Des résultats de simulations sur des images synthétiques et réelles valident l'efficacité des approches proposées.
80

Etude comportementale des mesures d'intérêt d'extraction de connaissances

Grissa, Dhouha 02 December 2013 (has links) (PDF)
La recherche de règles d'association intéressantes est un domaine important et actif en fouille de données. Puisque les algorithmes utilisés en extraction de connaissances à partir de données (ECD), ont tendance à générer un nombre important de règles, il est difficile à l'utilisateur de sélectionner par lui même les connaissances réellement intéressantes. Pour répondre à ce problème, un post-filtrage automatique des règles s'avère essentiel pour réduire fortement leur nombre. D'où la proposition de nombreuses mesures d'intérêt dans la littérature, parmi lesquelles l'utilisateur est supposé choisir celle qui est la plus appropriée à ses objectifs. Comme l'intérêt dépend à la fois des préférences de l'utilisateur et des données, les mesures ont été répertoriées en deux catégories : les mesures subjectives (orientées utilisateur ) et les mesures objectives (orientées données). Nous nous focalisons sur l'étude des mesures objectives. Néanmoins, il existe une pléthore de mesures objectives dans la littérature, ce qui ne facilite pas le ou les choix de l'utilisateur. Ainsi, notre objectif est d'aider l'utilisateur, dans sa problématique de sélection de mesures objectives, par une approche par catégorisation. La thèse développe deux approches pour assister l'utilisateur dans sa problématique de choix de mesures objectives : (1) étude formelle suite à la définition d'un ensemble de propriétés de mesures qui conduisent à une bonne évaluation de celles-ci ; (2) étude expérimentale du comportement des différentes mesures d'intérêt à partir du point de vue d'analyse de données. Pour ce qui concerne la première approche, nous réalisons une étude théorique approfondie d'un grand nombre de mesures selon plusieurs propriétés formelles. Pour ce faire, nous proposons tout d'abord une formalisation de ces propriétés afin de lever toute ambiguïté sur celles-ci. Ensuite, nous étudions, pour différentes mesures d'intérêt objectives, la présence ou l'absence de propriétés caractéristiques appropriées. L'évaluation des mesures est alors un point de départ pour une catégorisation de celle-ci. Différentes méthodes de classification ont été appliquées : (i) méthodes sans recouvrement (CAH et k-moyennes) qui permettent l'obtention de groupes de mesures disjoints, (ii) méthode avec recouvrement (analyse factorielle booléenne) qui permet d'obtenir des groupes de mesures qui se chevauchent. Pour ce qui concerne la seconde approche, nous proposons une étude empirique du comportement d'une soixantaine de mesures sur des jeux de données de nature différente. Ainsi, nous proposons une méthodologie expérimentale, où nous cherchons à identifier les groupes de mesures qui possèdent, empiriquement, un comportement semblable. Nous effectuons par la suite une confrontation avec les deux résultats de classification, formel et empirique dans le but de valider et mettre en valeur notre première approche. Les deux approches sont complémentaires, dans l'optique d'aider l'utilisateur à effectuer le bon choix de la mesure d'intérêt adaptée à son application.

Page generated in 0.0577 seconds