• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 44
  • 12
  • 3
  • 1
  • 1
  • Tagged with
  • 165
  • 107
  • 46
  • 40
  • 26
  • 20
  • 19
  • 17
  • 17
  • 16
  • 16
  • 16
  • 16
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Dimensionality reduction and saliency for spectral image visualization / Réduction de dimensionalité et saillance pour la visualisation d'images spectrales

Le Moan, Steven 26 September 2012 (has links)
De nos jours, la plupart des dispositifs numériques d’acquisition et d’affichage d’images utilisent un petit nombre de couleurs dites primaires afin de représenter n’importe quelle couleur visible. Par exemple, la majorité des appareils photos "grand public" quantifient la couleur comme une certaine combinaison de Rouge, Vert et Bleu(RVB). Ce genre de technologie est qualifiée de tri-chromatique et, au même titre que les modèles tetra-chromatiques communs en imprimerie, elle présente un certain nombre d’inconvénients, tels que le métamérisme ou encore la limitation aux longueurs d’onde visibles. Afin de palier à ces limitations, les technologies multi-, hyper,voire ultra-spectrale ont connu un gain notable d’attention depuis plusieurs décennies. Un image spectrale est constituée d’un nombre de bandes (ou canaux) supérieur à 3, représentant des régions spectrales spécifiques et permettant de recouvrer la radiance ou reflectance d’objets avec plus de précision et indépendamment du capteur utilisé. De nombreux travaux de recherche ont fait considérablement progresser les méthodes d’acquisition et d’analyse, mais beaucoup de challenges demeurent, particulièrement en ce qui concernel a visualisation de ce type de données. En effet, si une image contient plusieurs dizaines de canaux comment la représenter sur un écran qui n’en accepte que trois ? Dans cette thèse, nous présentons un certain nombre de méthodes d’extraction d’attributs pour l’analyse d’images spectrales, avec une attention particulière sur la problématique de la visualisation. / Nowadays, digital imaging is mostly based on the paradigm that a combinations of a small number of so-called primary colors is sufficient to represent any visible color. For instance, most cameras usepixels with three dimensions: Red, Green and Blue (RGB). Such low dimensional technology suffers from several limitations such as a sensitivity to metamerism and a bounded range of wavelengths. Spectral imaging technologies offer the possibility to overcome these downsides by dealing more finely withe the electromagnetic spectrum. Mutli-, hyper- or ultra-spectral images contain a large number of channels, depicting specific ranges of wavelength, thus allowing to better recover either the radiance of reflectance of the scene. Nevertheless,these large amounts of data require dedicated methods to be properly handled in a variety of applications. This work contributes to defining what is the useful information that must be retained for visualization on a low-dimensional display device. In this context, subjective notions such as appeal and naturalness are to be taken intoaccount, together with objective measures of informative content and dependency. Especially, a novel band selection strategy based on measures derived from Shannon’s entropy is presented and the concept of spectral saliency is introduced.
32

Les zéros des intégrales pseudo-abéliennes : un cas non générique / Zeros of pseudo-abelian integrals : non generic case

Braghtha, Aymen 20 June 2013 (has links)
Pas de résumé / No abstract
33

Les incidences de l'accès à la propriété immobilière des étrangers sur le droit cambodgien de la copropriété / The effects of foreign ownership over property on Canbodian law on co-ownership

Phal, Theany 05 February 2016 (has links)
Pas de résumé / No abstract
34

L' Exposition internationale du surréalisme de 1938 / The International surrealist exhibition of 1938

Chaullet, Fabienne 28 March 2014 (has links)
Ce travail de thèse propose une monographie de l’Exposition internationale du surréalisme qui se déroula à Paris en janvier-février 1938. Cette manifestation qui marque une date importante dans l’histoire des dernières véhémences du surréalisme sera étudiée dans une réflexion contextualisée du point de vue historique, idéologique et iconologique reposant prioritairement sur la base des archives, correspondances, témoignages, articles de presse et photographies de l’époque. La première partie de ce travail est consacrée à la reconstruction historique de cet événement, de sa genèse, aux préparatifs jusqu’à la visite de l’exposition, telle que les visiteurs purent la vivre le soir du vernissage à la Galerie Beaux-Arts le 17 janvier 1938. La seconde partie est dédiée aux œuvres et aux artistes. Cette recherche a pour objectif de proposer un catalogue au plus près de la réalité des œuvres ayant été exposées à la Galerie Beaux-Arts (voir Annexes II). Mais aussi d’aborder la volonté rétrospective de cette manifestation ainsi que le développement de l’internationalisation du mouvement au travers des nationalités représentées.La dernière partie de cette recherche s’attache à l’analyse des intentions avouées et inavouées de l’exposition de 1938 et à sa réception. Notamment à l’étude des enjeux de pouvoir historique, politique et artistique sous-jacents, qui permettent d’interpréter cette manifestation sous un angle différent, non pas celui d’un bilan du surréalisme, mais bien plutôt celui d’une revanche éclatante face à ses détracteurs et d’une réaffirmation de la suprématie du groupe parisien dans l’exposition du surréalisme. / This thesis dissertation propounds a monograph of International Exhibition of Surrealism, which was held in Paris in the months of January-February 1938.This event, which was an important landmark in the history of the last vehemences of Surrealism will be analysed in an outlook contextualized from an historical, ideological and iconological points of view. This research will be based primarely on archives, letters, testimonies, newspapers articles, photographs of the era. The first part of this work is devoted to the historical reconstruction of this event, from its genesis to the preparations until the visit of the exhibition, as the visitors were able to experience it on the opening evening at the Galerie Beaux-Arts on January 17, 1938. The second part is dedicated to the works and artists.The purpose of this research is to present a nearest catalogue of works exhibited in the Galerie Beaux-Arts (see Annex II).This research also analyzes the will of the surrealists to present a retrospective exhibition, as well as the development of the internationalisation of the movement. The last part of this research focuses on the analyses of the intentions spoken and unspoken of the exhibition of 1938 and its reception.Specially in regards to the study of underlying issues of powers, from an historical, political and artistic point of view. These issues analyse this event from a different angle : not that of a balance of Surrealism, but rather that of glittering revenge in front of his detractors and a reaffirmation of the supremacy of the Parisian group in the exhibition of Surrealism.
35

Indexation sonore : recherche de composantes primaires pour une structuration audiovisuelle

PINQUIER, Julien 20 December 2004 (has links) (PDF)
Le développement croissant des données numériques et l'explosion des accès multimédia à l'information, sont confrontés au manque d'outils automatiques efficaces. Dans ce cadre, plusieurs approches relatives à l'indexation et la structuration de la bande sonore de documents audiovisuels sont proposées. Leurs buts sont de détecter les composantes primaires telles que la parole, la musique et les sons clés (jingles, sons caractéristiques, mots clés...). Pour la classification parole/musique, trois paramètres inhabituels sont extraits : la modulation de l'entropie, la durée des segments (issue d'une segmentation automatique) et le nombre de ces segments par seconde. Les informations issues de ces trois paramètres sont ensuite fusionnées avec celle issue de la modulation de l'énergie à quatre hertz. Des expériences sur un corpus radiophonique montrent la robustesse de ces paramètres : notre système possède un taux de classification correcte supérieur à 90%. Le système est ensuite comparé, puis fusionné à un système classique basé sur des Modèles de Mélanges de lois Gaussiennes (MMG) et une analyse cepstrale. Un autre partitionnement consiste à détecter des sons clés. La sélection de candidats potentiels est effectuée en comparant la « signature » de chacun des jingles au flux de données. Ce système est simple par sa mise en œuvre mais rapide et très efficace : sur un corpus audiovisuel d'une dizaine d'heures (environ 200 jingles) aucune fausse alarme n'est présente. Il y a seulement deux omissions dans des conditions extrêmes. Les sons caractéristiques (applaudissements et rires) sont modélisés à l'aide de MMG dans le domaine spectral. Un corpus télévisuel permet de valider cette première étude par des résultats encourageants. La détection de mots clés est effectuée de manière classique : il ne s'agit pas ici d'améliorer les systèmes existants mais de se placer toujours dans un besoin de structuration. Ainsi, ces mots clés renseignent sur le type des émissions (journal, météo, documentaire...). Grâce à l'extraction de ces composantes primaires, les émissions audiovisuelles peuvent être annotées de manière automatique. Au travers de deux études, une réflexion est conduite quant à l'utilisation de ces composantes afin de trouver une structure temporelle aux documents. La première étude permet une détection d'un motif récurrent dans une collection d'émissions, dites de plateau, alors que la seconde réalise la structuration en thèmes d'un journal télévisé. Quelques pistes de réflexions sur l'apport de l'analyse vidéo sont développées et les besoins futurs sont explorés.
36

Sécurité d'une application de communication multimédia sous protocole IP dans un contexte médical

Bédard, Normand January 2010 (has links)
L'application MédiclP est un logiciel de télémédecine permettant à des spécialistes de la santé d'entrer en communication lors de situations d'urgence. Ce prototype, développé depuis 2005, permet des communications audio ainsi que le transfert d'électrocardiogrammes en temps réel. Le scénario typique visé par ce projet était de permettre à une équipe ambulancière qui récupère un blessé sur la route, ou quelqu'un victime d'un malaise cardiaque, d'entrer en contact avec les hôpitaux les plus près afin de déterminer lequel est le plus apte à recevoir adéquatement ce patient. Cette approche permettrait d'améliorer la préparation, la qualité et la rapidité des opérations médicales à l'hôpital lorsque le patient se présente. Le présent projet, SécureMédic, se veut un moyen d'aborder le problème de la sécurité entourant ce prototype, étant donné son utilisation dans un contexte médical. Une analyse de MédicIP a permis d'identifier quatre failles de sécurité critiques reliées aux authentifications usagers, aux établissements des conférences, aux transferts des données audio ainsi qu'aux transferts des électrocardiogrammes. La contribution majeure de ce projet a été la création d'une infrastructure dédiée au processus d'authentification des usagers. Le système développé permet deux types d'authentification, fournissant ainsi un excellent niveau de robustesse. De plus, le serveur principal développé dans cette infrastructure intègre des mesures de protection permettant de minimiser les impacts de certains types d'attaque. Le projet SécureMédic a permis de démontrer la faisabilité de la sécurisation d'une application de télémédecine en utilisant les techniques de protection et les standards actuels de l'industrie. Les résultats de tests comparatifs ont cependant permis de constater que des impacts reliés à la performance ont été engendrés par l'ajout des mesures de sécurité, dus principalement aux ressources requises pour le chiffrement et le déchiffrement des données dans un environnement multimédia temps réel. Bien qu'il soit encore trop tôt pour envisager le déploiement du système actuel dans le milieu de la santé, les projets MédicIP et SécureMédic sont un pas dans la bonne direction. Le prototype actuel répond aux exigences techniques voulues, répond à un besoin bien réel et est parmi les premières solutions concrètes à démontrer la faisabilité d'un tel système. D'ici quelques années, l'apparition de solutions similaires est assurée.
37

Classification multi-échelle d'images à très haute résolution spatiale basée sur une nouvelle approche texturale

Delahaye, Alexandre January 2016 (has links)
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations. / Abstract : Classifying remote sensing images is an increasingly difficult task due to the availability of very high spatial resolution (VHSR) data. The amount of details in such images is a major obstacle to the use of spectral classification methods as well as most textural classification algorithms, including statistical methods. However, structural methods offer an interesting alternative to this issue: these object-oriented approaches focus on analyzing the structure of an image in order to interpret its meaning. In the first part of this thesis, we propose a new algorithm belonging to this category: KPC (KeyPoint-based Classification). KPC is based on keypoint detection and analysis and offers an efficient answer to the issue of classifying VHSR images. Tests led on artificial and real remote sensing images have proven its discriminating power. Furthermore, many studies have proven that evidential fusion (based on Dempster-Shafer theory) is well-suited to remote sensing images because of its ability to handle abstract concepts such as ambiguity and uncertainty. However, few studies did focus on the application of this theory to complex textural data such as structural data. This issue is dealt with in the second part of this thesis; we focused on fusing multiscale KPC classifications with the help of Dempster-Shafer theory. Tests have shown that this multi-scale approach leads to an increase in classification efficiency when the original image has a low quality. Our study also points out a substantial potential for improvement gained from the estimation of intermediate classifications reliability and provides ideas to get these estimations.
38

Coloration d'arêtes ℓ-distance et clustering : études et algorithmes auto-stabilisants

Drira, Kaouther 14 December 2010 (has links) (PDF)
La coloration de graphes est un problème central de l'optimisation combinatoire. C'est un domaine très attractif par ses nombreuses applications. Différentes variantes et généralisations du problème de la coloration de graphes ont été proposées et étudiées. La coloration d'arêtes d'un graphe consiste à attribuer une couleur à chaque arête du graphe de sorte que deux arêtes ayant un sommet commun n'ont jamais la même couleur, le tout en utilisant le moins de couleurs possibles. Dans la première partie de cette thèse, nous étudions le problème de la coloration d'arêtes ℓ-distance, qui est une généralisation de la coloration d'arêtes classique. Nous menons une étude combinatoire et algorithmique du paramètre. L'étude porte sur les classes de graphes suivantes : les chaines, les grilles, les hypercubes, les arbres et des graphes puissances. Le paramètre de la coloration d'arêtes ℓ-distance permet de modéliser des problèmes dans des réseaux assez grands. Cependant, avec la multiplication du nombre de nœuds, les réseaux sont de plus en plus vulnérables aux défaillances (ou pannes). Dans la deuxième partie, nous nous intéressons aux algorithmes tolérants aux pannes et en particulier les algorithmes auto-stabilisants. Nous proposons un algorithme auto-stabilisant pour la coloration propre d'arêtes. Notre solution se base sur le résultat de vizing pour utiliser un minimum de couleurs possibles. Par la suite, nous proposons un algorithme auto-stabilisant de clustering destine a des applications dans le domaine de la sécurité dans les réseaux mobiles Ad hoc. La solution que nous proposons est un partitionnement en clusters base sur les relations de confiance qui existent entre nœuds. Nous proposons aussi un algorithme de gestion de clés de groupe dans les réseaux mobiles ad hoc qui s'appuie sur la topologie de clusters préalablement construite. La sécurité de notre protocole est renforcée par son critère de clustering qui surveille en permanence les relations de confiance et expulse les nœuds malveillants de la session de diffusion.
39

Les spatialités du corps : Des pratiques ordinaires aux expériences extrêmes

Barthe-Deloizy, Francine 30 November 2010 (has links) (PDF)
Le corps s'est installé en géographie dans la clandestinité, il n'a pas encore gagné le statut d'objet scientifique à part entière et reste non élucidé. Et pourtant le corps définit des espaces autour et à partir de lui qui sont fluides, labiles, éphémères. Nous proposons dans cet article de poser le corps comme une herméneutique qui servirait de grille interprétative à la géographie. Cela suppose de partir d'une échelle celle du corps et d'appréhender ensuite les systèmes de relations et les modalités de leur interaction à partir de cette échelle. Les natures et les dimensions du corps se lient directement à la matière spatiale et la transforment.
40

Cryptage de messages SMS

Zebiche, Tayeb January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0423 seconds