• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 7
  • 5
  • Tagged with
  • 32
  • 32
  • 11
  • 10
  • 9
  • 7
  • 7
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Expansion de requête dans la recherche d'information : comparaison des ressources et des méthodes

Jin, Fuman January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Class-Add, une procédure de sélection de variables basée sur une troncature k-additive de l'information mutuelle et sur une classification ascendante hiérarchique en pré-traitement

Daviet, Hélène 11 March 2009 (has links) (PDF)
Class-Add, une procédure de sélection de variables basée sur une troncature k-additive de l'information mutuelle et sur une classification ascendante hiérarchique en pré-traitement Lorem ipsum dolor sit amet, consectetuer adipiscing elit. Sed non risus. Suspendisse lectus tortor, dignissim sit amet, adipiscing nec, ultricies sed, dolor. Cras elementum ultrices diam. Maecenas ligula massa, varius a, semper congue, euismod non, mi. Proin porttitor, orci nec nonummy molestie, enim est eleifend mi, non fermentum diam nisl sit amet erat. Duis semper. Duis arcu massa, scelerisque vitae, consequat in, pretium a, enim. Pellentesque congue. Ut in risus volutpat libero pharetra tempor. Cras vestibulum bibendum augue. Praesent egestas leo in pede. Praesent blandit odio eu enim. Pellentesque sed dui ut augue blandit sodales
3

Mécanismes de fiabilité bi-directionnels “couches basses” pour les communications par satellite / Bidirectional reliability mechanisms for lower layers of satellite communications

Ali Ahmad, Rami 24 June 2016 (has links)
Dans le cadre des communications par satellite, les caractéristiques du lien rendent difficile la mis en œuvre des systèmes de télécommunications. Pour certaines applications, le problème principal est le délai de propagation. Un autre problème est la perte des données due aux caractéristiques du canal. Le but de cette thèse est de proposer un mécanisme qui assure la fiabilité de la communication tout en maximisant l’efficacité d’utilisation de la bande passante. Le protocole HARQ est reconnu pour sa capacité à atteindre le meilleur compromis fiabilité/débit. Cependant, ce mécanisme doit être optimisé pour pouvoir être utilisé sur un lien satellite. Dans un premier temps, nous proposons une méthode de fiabilisation basée sur l’HARQ statique, où le nombre de bits à envoyer à chaque transmission est fixé à l’avance. Cette méthode s’adresse aux services qui tolèrent un certain délai avant la réception du message. À partir de la distribution statistique du canal, elle définit la probabilité de décodage optimale à chaque transmission. Le nombre de bits à envoyer est calculé en fonction de ces probabilités et de la distribution d’information mutuelle du canal. Dans un deuxième temps, nous introduisons une version adaptative de la méthode précédente. Le récepteur calcule le nombre de bits à envoyer en fonction de l’état du canal pendant la transmission actuelle. Le nombre de bits calculé est renvoyé dans un acquittement vers l’émetteur. Finalement, nous présentons une structure de trame couche physique dans le cadre des mécanismes HARQ proposés et nous évaluons ses performances en faisant varier les paramètres du système. L’objectif est de trouver l’ordre de grandeur optimal des tailles de trames et des codes correcteurs d'erreurs à utiliser. / As part of a satellite communications system, the characteristics of the communication links make it difficult to set up telecommunications systems. For certain applications, the main problem is the propagation delay. Another problem is the loss of data due to the characteristics of the channel. The aim of this thesis is to propose a mechanism that ensures the reliability of communication and maximize the utilization efficiency of the available bandwidth. HARQ protocol is known for its ability to achieve the best compromise reliability/ throughput.However, this mechanism must be optimized to be used on a satellite link. First, we propose a reliability method based on static HARQ, where the number to be sent is fixed previously. This method is specifically for services that tolerate some delay before the reception of the message. It consists in defining the probability of decoding at each transmission, using an optimization algorithm that we propose. The number of bits to be sent is calculated based on these probabilities and the distribution of the mutual information, assuming knowledge of the statistical distribution of the channel attenuation. Secondly, we introduce an adaptive version of the proposed method. This new approach calculates the number of bits to be sent by taking into account variations of the channel state during the communication. The receiver calculates the number of bits to be sent depending on the channel state during the current transmission. This calculated number is sent in an acknowledgement to the transmitter. Finally, we propose a frame structure for a physical layer that implements the proposed mechanisms and evaluate their performance by varying the system parameters. The aim is to find the optimal order of frame sizes and codes to be used.
4

Recalage d'images médicales par inférence statistique

Roche, Alexis 02 February 2001 (has links) (PDF)
Le recalage est un problème classique en vision par ordinateur qui intervient notamment dans de nombreuses tâches d'analyse des images médicales. Le principe général d'un algorithme de recalage est d'optimiser un critère mesurant la correspondance entre deux images sur un espace prédéterminé de transformations spatiales. Le choix du critère, appelé mesure de similarité, conditionne de façon déterminante la précision et la robustesse de l'algorithme. Il existe aujourd'hui un dictionnaire de mesures de similarité dans lequel le concepteur d'un programme choisit, en se fiant le plus souvent à son intuition et à son expérience, celle qui est la mieux adaptée à son problème particulier. Afin de rendre plus objectif un tel choix, cette thèse propose une méthodologie pour construire des mesures de similarité en fonction de modèles probabilistes de formation d'images. En considérant d'abord un modèle simple de liaison fonctionnelle entre les intensités des images, nous définissons une nouvelle classe de mesures de similarité liée à la notion de rapport de corrélation. Nous montrons expérimentalement que cette classe est adaptée au recalage rigide multimodal d'images acquises par résonance magnétique (IRM), scanner et scintigraphie. La méthode du rapport de corrélation est ensuite étendue au cas du recalage multimodal non-rigide au prix de quelques adaptations pratiques. Enfin, nous formulons le recalage d'images comme un problème général d'estimation par maximum de vraisemblance, ce qui nous permet de prendre en compte des modèles de dépendance inter-images plus complexes que des modèles fonctionnels. Cette approche est appliquée au recalage rigide d'images ultrasonores 3D et IRM.
5

Techniques de multiplexage spatial avec voie de retour limitée pour les systèmes multi-antennes multi-utilisateurs

Layec, Patricia 07 May 2009 (has links) (PDF)
Ces travaux de recherche adressent le problème de la conception de systèmes de communication capables d'offrir fiabilité et hautes efficacités spectrales avec un lien de retour (partiel) du récepteur vers l'émetteur. De plus hauts débits peuvent être offerts grâce à une connaissance à l'émission du canal de transmission (CSIT) permettant d'exploiter au mieux ses propriétés ; cependant seule la fiabilité de cette information garantit réellement d'atteindre les débits théoriques promis. L'objectif de la thèse consiste à étudier les incertitudes sur le canal de retour, et plus particulièrement la quantification des informations à remonter à l'émetteur ou les erreurs subies lors de la transmission sur la voie de retour. Pour plusieurs degrés de CSIT imparfait, de nouvelles structures d'émission et de réception adaptés à ces imperfections ont été proposées ainsi qu'une caractérisation des limites d'une transmission fiable. La perte d'efficacité spectrale lors de la prise en compte des schémas de modulation et codage (MCS) conduit à s'intéresser à la réduction du bruit de quantification dû aux entrées discrètes. L'attribution des MCS étant établie sur l'information mutuelle, il convient de caractériser les limites théoriques de la communication suite à la prise en compte des erreurs du CSI induites par l'estimation de canal imparfaite et à la quantification du CSI. En cherchant enfin à modéliser les événements d'erreurs survenant sur le lien de retour, un nouveau modèle de voie de retour bruitée est proposé. De plus en raffinant l'information par niveaux successifs (feedback multi-niveaux), le CSI à l'émission peut être utilisé au fur et à mesure de sa réception.
6

Approximation de l'Information Mutuelle basée sur le développement d'Edgeworth : application au recalage d'images médicales.

Rubeaux, Mathieu 11 July 2011 (has links) (PDF)
Dans le cadre du recalage d'images basé sur l'information d'intensité, l'Information Mutuelle (IM) est couramment utilisée comme mesure de similarité. Cette mesure est en outre particulièrement adaptée au recalage d'images médicales multimodales tri-dimensionnelles. Cependant, les estimateurs de l'IM ont en général une variance élevée et induisent des temps de calcul importants. Au cours de cette thèse, nous nous sommes intéressés aux outils statistiques que sont les cumulants pour construire de nouvelles approximations de l'IM basée sur un développement d'Edgeworth tronqué, le développement d'Edgeworth permettant d'approximerune densité de probabilité à partir de ces cumulants. L'estimée de ces approximations comme mesure de similarité a été évaluée sur données synthétiques et réelles, dans le cadre du recalage rigide et non-rigide d'images médicales multimodales et a été comparée aux estimateurs de référence de l'IM.
7

Une approche probabiliste pour le classement d'objets incomplètement connus dans un arbre de décision

Hawarah, Lamis 22 October 2008 (has links) (PDF)
Nous présentons dans cette thèse une approche probabiliste pour déterminer les valeurs manquantes des objets incomplets pendant leur classement dans les arbres de décision. Cette approche est dérivée de la méthode d'apprentissage supervisé appelée Arbres d'Attributs Ordonnées (AAO) proposée par Lobo et Numao en 2000, qui construit un arbre de décision pour chacun des attributs, selon un ordre croissant en fonction de l'Information Mutuelle entre chaque attribut et la classe. Notre approche étend la méthode de Lobo et Numao, d'une part en prenant en compte les dépendances entre les attributs pour la construction des arbres d'attributs, et d'autre part en fournissant un résultat de classement d'un objet incomplet sous la forme d'une distribution de probabilités (au lieu de la classe la plus probable). <br />Nous expliquons notre méthode et nous la testons sur des bases de données réelles. Nous comparons nos résultats avec ceux donnés par la méthode C4.5 et AAO. <br /><br />Nous proposons également un algorithme basé sur la méthode des k plus proches voisins qui calcule pour chaque objet de la base de test sa fréquence dans la base d'apprentissage. Nous comparons ces fréquences avec les résultats de classement données par notre approche, C4.5 et AAO. Finalement, nous calculons la complexité de construction des arbres d'attributs ainsi que la complexité de classement d'un objet incomplet en utilisant notre approche, C4.5 et AAO.
8

Méthodes de sélection de variables appliquées en spectroscopie proche infrarouge pour l'analyse et la classification de textiles

Durand, Alexandra 26 November 2007 (has links) (PDF)
Les méthodes d'analyse multivariée permettent d'extraire l'information présente dans les données spectroscopiques expérimentales pour la prédiction d'une propriété d'intérêt. La dimensionnalité des données en spectroscopie proche infrarouge est telle qu'une sélection des variables spectroscopiques et d'échantillons est nécessaire afin d'améliorer les performances, la robustesse des modèles ou de tendre vers une instrumentation simplifiée. L'analyse rapide de la composition chimique des échantillons textiles est fondamentale dans certaines applications. Une première étude concerne la détermination de la teneur en coton dans des mélanges de fibres coton/polyester et coton/viscose par spectroscopie proche infrarouge. Afin d'améliorer les capacités prédictives obtenues sur les spectres complets, deux procédures de sélection de variables, l'information mutuelle et les algorithmes génétiques, ont été appliquées. L'erreur standard de prédiction obtenue pour le lot coton/polyester est de 2,53% sur les 8 variables sélectionnées par l'information mutuelle. Une seconde étude présente l'analyse qualitative pour la classification d'échantillons textiles dans trois classes par rapport à une propriété physico-chimique d'intérêt. La méthode des support vector machine présente des résultats performants avec un taux d'échantillons bien classés en prédiction de 88,8%. La réduction arbitraire du nombre de variables spectroscopiques a permis de montrer que les capacités prédictives obtenues sur les spectres complets ne sont pas dégradées. Ces résultats sont confirmés par l'utilisation d'une instrumentation simplifiée.
9

Efficacité, généricité et praticabilité de l'attaque par information mutuelle utilisant la méthode d'estimation de densité par noyau / Efficiency, genericity and practicability of Kerned-based mutual information analysis

Carbone, Mathieu 16 March 2015 (has links)
De nos jours, les attaques par canaux auxiliaires sont facilement réalisables et très puissantes face aux implémentations cryptographiques. Cela pose une sérieuse menace en ce qui concerne la sécurité des crypto-systèmes. En effet, l'exécution d'un algorithme cryptographique produit inévitablement des fuites d'information liées aux données internes manipulées par le cryptosystèmes à travers des canaux auxiliaires (temps, température, consommation de courant, émissions électro-magnétiques, etc.). Certaines d'entre elles étant sensibles, un attaquant peut donc les exploiter afin de retrouver la clé secrète. Une des étapes les plus importantes d'une attaque par canaux auxiliaires est de quantifier la dépendance entre une quantité physique mesurée et un modèle de fuite supposé. Pour se faire, un outil statistique, aussi appelé distingueur, est utilisé dans le but de trouver une estimation de la clé secrète. Dans la littérature, une pléthore de distingueurs a été proposée. Cette thèse porte sur l'attaque utilisant l'information mutuelle comme distingueur, appelé l'attaque par information mutuelle. Dans un premier temps, nous proposons de combler le fossé d'un des problèmes majeurs concernant l'estimation du coefficient d'information mutuelle, lui-même demandant l'estimation de densité. Nos investigations ont été menées en utilisant une méthode non paramétrique pour l'estimation de densité: l'estimation par noyau. Une approche de sélection de la largeur de fenêtre basée sur l'adaptativité est proposée sous forme d'un critère (spécifique au cas des attaques par canaux auxiliaires). Par conséquent, une analyse est menée pour donner une ligne directrice afin de rendre l'attaque par information mutuelle optimale et générique selon la largeur de fenêtre mais aussi d'établir quel contexte (relié au moment statistique de la fuite) est plus favorable pour l'attaque par information mutuelle. Dans un second temps, nous abordons un autre problème lié au temps de calcul élevé (étroitement lié à la largeur de la fenêtre) de l'attaque par information mutuelle utilisant la méthode du noyau. Nous évaluons un algorithme appelé Arbre Dual permettant des évaluations rapides de fonctions noyau. Nous avons aussi montré expérimentalement que l'attaque par information mutuelle dans le domaine fréquentiel, est efficace et rapide quand celle-ci est combinée avec l'utilisation d'un modèle fréquentiel de fuite. En outre, nous avons aussi suggéré une extension d'une méthode déjà existante pour détecter une fuite basée sur un moment statistique d'ordre supérieur. / Nowadays, Side-Channel Analysis (SCA) are easy-to-implement whilst powerful attacks against cryptographic implementations posing a serious threat to the security of cryptosystems for the designers. Indeed, the execution of cryptographic algorithms unvoidably leaks information about internally manipulated data of the cryptosystem through side-channels (time, temperature, power consumption, electromagnetic emanations, etc), for which some of them are sensible(depending on the secret key). One of the most important SCA steps for an adversary is to quantify the dependency between the measured side-channel leakage and an assumed leakage model using a statistical tool, also called distinguisher, in order to find an estimation of the secret key. In the SCA literature, a plethora of distinguishers have been proposed. This thesis focuses on Mutual Information (MI) based attacks, the so-called Mutual Information Analysis (MIA) and proposes to fill the gap of the major practical issue consisting in estimating MI index which itself requires the estimation of underlying distributions. Investigations are conducted using the popular statistical technique for estimating the underlying density distribution with minimal assumptions: Kernel Density Estimation (KDE). First, a bandwidth selection scheme based on an adaptivity criterion is proposed. This criterion is specific to SCA.As a result, an in-depth analysis is conducted in order to provide a guideline to make MIA efficient and generic with respect to this tuning hyperparameter but also to establish which attack context (connected to the statistical moment of leakage) is favorable of MIA. Then, we address another issue of the kernel-based MIA lying in the computational burden through a so-called Dual-Tree algorithm allowing fast evaluations of 'pair-wise` kernel functions. We also showed that MIA running into the frequency domain is really effective and fast when combined with the use of an accurate frequency leakage model. Additionally, we suggested an extension of an existing method to detect leakage embedded on higher-order statistical moments.
10

Vers une meilleure utilisabilité des mémoires de traduction, fondée sur un alignement sous-phrastique

Chenon, Christophe 28 October 2005 (has links) (PDF)
La traduction assistée par ordinateur a connu un grand essor dans les années 1990 avec l'arrivée des environnements à mémoires de traduction. Ces systèmes exploitent la redondance des textes techniques produits et traduits dans l'industrie, en proposant aux traducteurs de réutiliser des traductions archivées et d'accroître ainsi leur productivité. Ces mémoires utilisent, sans analyse, des segments de textes (le plus souvent des phrases entières) dont le découpage et l'alignement sont garantis par le traducteur.<br /><br />Pourtant ces mémoires recèlent des gisements d'information importants au niveau sous-phrastique dont les utilisateurs ne peuvent pas bénéficier. Le formalisme TransTree permet de représenter des correspondances sous-segmentales enchassées bilingues. Ces correspondances complexes (les amphigrammes) forment une structure arborescente exprimable en XML. Une transformation de surface conduit à une visualisation dynamique mettant en évidence les différents niveaux de correspondance entre sous-segments.<br /><br />TransTree s'accompagne d'une méthode générale de construction par voie statistique, fondée sur les arbres binaires de sécabilité. Cette méthode permet d'établir des amphigrammes à partir des correspondances entre mots typographiques. Il est possible d'abstraire des patrons de traduction (amphigrammes génériques) par classification des exemples rencontrés dans le corpus.<br /><br />Quelques expérimentations ont été effectuées pour valider le pouvoir d'expression du formalisme, explorer différentes options de construction et esquisser un algorithme de reconstitution d'un segment cible à partir d'un segment source inconnu avec la connaissance extraite des mémoires de traduction.

Page generated in 0.1096 seconds