Spelling suggestions: "subject:"filtrage"" "subject:"filtragem""
21 |
Contraintes d'anti-filtrage et programmation par réécritureKopetz, Radu 15 October 2008 (has links) (PDF)
L'objectif principal de cette thèse est l'étude et la formalisation de nouvelles constructions permettant d'augmenter l'expressivité du filtrage et des langages à base de règles en général. Ceci est motivé par le développement de Tom, un système qui enrichit les langages impératifs comme Java et C avec des constructions de haut niveau comme le filtrage et les stratégies. Une première extension que l'on propose est la notion d'anti-patterns, i.e. des motifs qui peuvent contenir des symboles de complément. La négation est intrinsèque au raisonnement habituel, et la plupart du temps quand on cherche quelque chose, on base nos motifs sur des conditions positives et négatives. Cela doit naturellement se retrouver dans les logiciels permettant les recherches à base de motifs. Par exemple, les anti-patterns permettent de spécifier qu'on cherche des voitures blanches qui ne sont pas des monospaces, ou qu'on cherche une liste d'objets qui ne contient pas deux éléments identiques. Nous définissons alors de manière formelle la sémantique des anti-patterns dans le cas syntaxique, i.e. quand les symboles n'ont aucune théorie associée, et aussi modulo une théorie équationnelle arbitraire. Puis nous étendons la notion classique de filtrage entre les motifs et les termes clos au filtrage entre les anti-patterns et les termes clos (anti-filtrage). S'inspirant de l'expressivité des règles de production, nous proposons plusieurs extensions aux constructions de filtrage fournies par Tom. Par conséquent, la condition pour l'application d'une règle n'est plus une simple contrainte de filtrage, mais une combinaison (conjonction ou disjonction) de contraintes de filtrage et d'anti-filtrage ainsi que d'autres types de conditions. Les techniques classiques de compilation du filtrage ne sont pas bien adaptées à ces conditions complexes. Ceci a motivé l'étude d'une nouvelle méthode de compilation basée sur des systèmes de réécriture. L'application de ces systèmes est contrôlée par des stratégies, permettant la mise en place d'extensions futures (comme la prise en compte de nouvelles théories de filtrage) de manière simple et naturelle, sans interférer avec le code existant. Nous avons complètement réécrit le compilateur de Tom en utilisant cette technique. Une fois tous ces éléments rassemblés, on obtient un environnement pour décrire et implémenter des transformations de manière élégante et concise. Pour promouvoir son utilisation dans des projets complexes du milieu industriel, nous développons une technique pour extraire de manière automatique des informations structurelles à partir d'une hiérarchie arbitraire de classes Java. Cela permet l'intégration du filtrage offert par Tom dans n'importe quelle application Java, nouvelle ou déjà existante.
|
22 |
Contribution au classement statistique mutualisé de messages électroniques (spam)Martins Da Cruz, José Márcio 13 October 2011 (has links) (PDF)
Depuis la fin des années 90, les différentes méthodes issues de l'apprentissage artificiel ont été étudiées et appliquées au problème de classement de messages électroniques (filtrage de spam), avec des résultats très bons, mais pas parfaits. Il a toujours été considéré que ces méthodes étaient adaptées aux solutions de filtrage orientées vers un seul destinataire et non pas au classement des messages d'une communauté entière. Dans cette thèse notre démarche a été, d'abord, de chercher à mieux comprendre les caractéristiques des données manipulées, à l'aide de corpus réels de messages, avant de proposer des nouveaux algorithmes. Puis, nous avons utilisé un classificateur à régression logistique avec de l'apprentissage actif en ligne - pour démontrer empiriquement qu'avec un algorithme simple et une configuration d'apprentissage mieux adaptée au contexte réel de classement, on peut obtenir des résultats aussi bons que ceux que l'on obtient avec des algorithmes plus complexes. Nous avons aussi démontré, avec des ensembles de messages d'un petit groupe d'utilisateurs, que la perte d'efficacité peut ne pas être significative dans un contexte de classement mutualisé.
|
23 |
Étude des artefacts de flou, ringing et aliasing en imagerie numérique : application à la restaurationBlanchet, Gwendoline 17 November 2006 (has links) (PDF)
Cette thèse aborde les problèmes liés à la formation des images numériques. L'étape d'échantillonnage nécessaire à la formation d'une image discrète à partir d'une image continue peut introduire différents types d'artefacts qui constituent des dégradations majeures de la qualité de l'image. La motivation principale de cette thèse a été l'étude de ces artefacts que sont le flou, le ringing et l'aliasing. Dans la première partie, nous rappelons tout d'abord le processus de formation des images numériques puis nous proposons des définitions de ces artefacts. Dans la deuxième partie, nous définissons une mesure conjointe du flou et du ringing dans le cadre d'un filtrage passe bas précédant l'échantillonnage. La troisième partie est dédiée à la détection automatique de ces artefacts dans les images. Enfin, en quatrième partie, la détection automatique est testée dans des applications concrètes de la restauration d'images: la déconvolution aveugle et le débruitage.
|
24 |
Architecture pour le filtrage dans les bases de données relationnelles.Scholl, Michel, January 1900 (has links)
Th.--Inform.--Grenoble--I.N.P., 1985.
|
25 |
Modélisation des chaînes d'acquisition pour améliorer l'identification des cristaux du LabPETLemieux, François January 2012 (has links)
La tomographie d'émission par positrons (TEP) dédiée aux petits animaux est une technique d'imagerie métabolique très utile pour la recherche biomédicale en raison de la grande similitude du génome de la souris transgénique à celui de l'humain. Cette imagerie, de type fonctionnelle, est généralement couplée à une imagerie anatomique comme la tomodensitométrie (TDM) pour améliorer les diagnostics. C'est dans cette sphère de recherche que des travaux sont menés à Sherbrooke pour intégrer les deux modalités d'imagerie en utilisant les mêmes détecteurs et la même chaîne électronique basée sur des photodiodes à avalanche (PDA). Le premier scanner de cette génération est appelé le LabPET. Le LabPET est disponible avec 1536, 3072 ou 4608 PDA selon la longueur axiale. Malgré un rapport signal/bruit plus faible que d'autres capteurs, les PDA, couplées individuellement aux paires de cristaux, permettent d'obtenir une excellente résolution spatiale et un faible temps mort. Par contre, comme deux cristaux dont les constantes de décroissante sont différentes sont couplés à la même PDA, une identification est requise pour localiser l'interaction du rayonnement gamma et obtenir la bonne ligne de réponse. Actuellement, un filtre adaptatif avec un modèle unique de référence de la chaîne électronique pour tout le scanner permet de retrouver la fonction de transfert du cristal avec un taux d'erreur pouvant atteindre moins de 1%. Le modèle de référence contient toutes les informations connues a priori de la chaîne d'acquisition. Le modèle unique pour tout le scanner est correct comme preuve de faisabilité, mais s'avère en pratique non représentatif à cause de la variabilité des détecteurs et des composants électroniques. Un modèle non approprié dégrade l'identification globale des cristaux, ce qui affecte la résolution d'image. Ce projet de maîtrise vise à pallier ce problème en calculant automatiquement un modèle personnalisé pour chaque canal. Quatre algorithmes basés sur différentes minimisations de la fonction de coût, soit le filtre de Wiener, la maximisation de la ressemblance, la minimisation du biais temporel et la minimisation du taux d'erreur, ont été développés et caractérisés comme modèle individuel du canal. Le premier est un algorithme standard pour modéliser un signal, le second ressemble beaucoup au filtre de Wiener, mais avec quelques approximations en moins. Le troisième utilise de l'information connue a priori sur les cristaux et le dernier maximise directement l'identification des cristaux. Un taux d'erreur d'identification de cristaux pour le modèle unique de la chaîne d'acquisition dans le scanner LabPET 4-cm de Sherbrooke est d'environ 3,53 % pour une fenêtre en énergie de 350-650 keV. Les nouveaux modèles personnalisés des chaînes ont obtenu respectivement des taux d'erreurs de plus de 10 %, 3,66 %, 2,96 % et 1,45 % en fonction des algorithmes présentés précédemment. Ainsi, il devient évident qu'un modèle individuel et optimal pour chaque canal permet d'améliorer le taux d'erreur moyen pour le scanner, et ce, sans changer l'architecture matérielle ou logicielle, mais au dépend d'un temps de calibration plus longue.
|
26 |
Collaborative filtering techniques for drug discoveryErhan, Dumitru January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
27 |
Corrigé de localisation dans un environment extérieur sans fil en utilisant estimation, filtrage, la prévision et des techniques de fusion : une application par wifi utilisant le terrain à base de connaissances / Error corrected location determination in an outdoor wireless environment by using estimation, filtering, prediction and fusion techniques : A wifi application by using terrain based knowledgeAlam, Muhammad Mansoor 04 November 2011 (has links)
L’estimation de la position des noeuds de communication sans fil est un domaine de recherche très populaire au cours des dernières années. La recherche de l'estimation de l'emplacement n'est pas limitée à la communication par satellite, mais elle concerne aussi les réseaux WLAN, MANET, WSN et la communication cellulaire. En raison de la croissance et de l’évolution des architectures de communication cellulaire, l’utilisation des appareils portables a augmenté rapidement, et les appels provenant d’utilisateurs mobiles ont également rapidement augmenté. On estime que plus de 50% des appels d'urgence sont émis par des téléphones mobiles. Les chercheurs ont utilisé différentes techniques d'estimation de la position, tels que les satellites, les techniques statistiques et la cartographie. Afin d'atteindre une meilleure précision, certains chercheurs ont combiné deux ou plusieurs techniques. Cependant, l'estimation de la position basée sur le terrain est un domaine qui n'a pas été considéré en profondeur par les chercheurs. Grâce aux ondes radio qui se comportent différemment dans des atmosphères différentes, les calculs à l’aide de quelques paramètres ne sont pas suffisants pour atteindre une précision avec différents terrains, surtout quand il sont totalement basés sur le format RSS, qui entraine des altérations.Cette recherche se concentre sur la localisation des noeuds de communication sans fil en utilisant des techniques géométriques et statistiques, et en prenant en compte l’altération et l'atténuation des terrains. Le modèle proposé est constitué de quatre étapes, qui sont l'estimation, le filtrage, la prédiction et la fusion. Un prototype a été construit en utilisant le WiFi IEEE 802.11x standard. Dans la première étape, en utilisant le rapport signal-bruit de la zone géographique, la péninsule Malaisienne est classée en 13 types de terrains différents.Dans la deuxième étape, les points de données point-à-point sont enregistrés en utilisant la force du signal disponible et en recevant la puissance du signal en considérant différents types de terrains. L’estimation de la localisation se fait au cours de troisième étape en utilisant la célèbre méthode de triangulation. Les résultats estimés sont encore filtrés dans la quatrième étape en utilisant la moyenne et la moyenne des moyennes. Pour la correction des erreurs, le filtrage de l'emplacement est également fait en utilisant la règle des plus proches voisins. La prédiction est affinée au cours de la cinquième étape en utilisant la variance combinée qui permet de prédire la région considérée. L’utilisation des régions d'intérêt contribue à éliminer les emplacements situés à l'extérieur de la zone sélectionnée. Au cours de la sixième étape, les résultats du filtrage sont fusionnés avec la prédiction afin d'obtenir une meilleure précision.Les résultats montrent que les recherches effectuées permettent de réduire les erreurs de 18 m à 6 m dans des terrains fortement atténués, et de 3,5 m à 0,5 m dans des terrains faiblement atténués. / Location estimation of wireless nodes has been a very popular research area for the past few years. The research in location estimation is not limited to satellite communication, but also in WLAN, MANET, WSN and Cellular communication. Because of the growth and advancement in cellular communication architecture, the usage of handheld devices has increased rapidly, therefore mobile users originating calls are also increasing. It is estimated that more than 50% emergency calls are originated by mobile phones. Researchers have used different location estimation techniques, such as satellite based, geometrical, statistical and mapping techniques. In order to achieve accuracy, researchers have combined two or more techniques. However the terrain based location estimation is an area which is not considered by researchers extensively.Due to the fact that radio waves behave differently in different atmospheres, the calculation of few parameters is not sufficient to achieve accuracy in different terrains, especially when it is totally based on RSS which is carrying impairments.This research is focusing on the localization of wireless nodes by using geometrical and statistical techniques with the consideration of impairment/attenuation of terrains. The proposed model is consisting of four steps, which are estimation, filtering, prediction and fusion. A prototype has been built using the WiFi IEEE 802.11x standard. In step one, by using signal to noise ratio, the peninsular Malaysia geographical area is categorized into 13 different terrains/clutters. In step two, point-to-point data points are recorded by using available signal strength and receive signal strength with the consideration of different terrains. Estimation of the location is done in step three by using the triangulation method. The results of estimated locations are further filtered in step four by using average and mean of means. For error correction, filtering of the location is also done by using k- nearest neighbor rule. Prediction is done in step five by using combined variance which predicts the region of interest. Region of interest helps to eliminate locations outside of the selected area. In step six filtering results are fused with prediction in order to achieve accuracy. Results show that the current research is capable of reducing errors from 18 m to 6 m in highly attenuated terrains and from 3.5 m to 0.5 m in low attenuated terrains.
|
28 |
Portfolio optimization in financial markets with partial information / Optimisation de portefeuille sur les marches financiers dans le cadre d'une information partielleRoland, Sébastien 07 January 2008 (has links)
Cette thèse traite - en trois essais - de problèmes de choix de portefeuille en situation d’information partielle, thématique que nous présentons dans une courte introduction. Les essais développés abordent chacun une particularité de cette problématique. Le premier (coécrit avec M. Jeanblanc et V. Lacoste) traite la question du choix de la stratégie optimale pour un problème de maximisation d’utilité terminale lorsque l’évolution des prix est modélisée par un processus de Itô-Lévy dont la tendance et l’intensité des sauts ne sont pas observées. L’approche consiste à réécrire le problème initial comme un problème réduit dans la filtration engendrée par les prix. Cela nécessite la dérivation des équations de filtrage non-linéaire, que nous développons pour un processus de Lévy. Le problème est ensuite résolu en utilisant la programmation dynamique par les équations de Bellman et de HJB. Le second essai aborde dans un cadre gaussien la question du coût de l’incertitude, que nous définissons comme la différence entre les stratégies optimales (ou les richesses maximales) d’un agent parfaitement informé et d’un agent partiellement informé. Les propriétés de ce coût de l’information sont étudiées dans le cadre des trois formes standard de fonctions d’utilités et des exemples numériques sont présentés. Enfin, le troisième essai traite la question du choix de portefeuille quand l’information sur les prix de marché n’est disponible qu’à des dates discrètes et aléatoires. Cela revient à supposer que la dynamique des prix suit un processus marqué. Dans ce cadre, nous développons les équations de filtrage et réécrivons le problème initial dans sa forme réduite dans la filtration discrète des prix. Les stratégies optimales sont ensuite calculées en utilisant le calcul de Malliavin pour des mesures aléatoires et une extension de la formule de Clark-Ocone-Haussman est à cette fin présentée. / This thesis deals - in three essays - with problems of choice of portfolio in situation of partial information, thematic that we present in a short introduction. The tests developed each address a particularity of this problem. The first (co-written with M. Jeanblanc and V. Lacoste) deals with the choice of the optimal strategy for a terminal utility maximization problem when the evolution of prices is modeled by an Itô- Lévy process whose trend and the intensity of the jumps are not observed. The approach is to rewrite the initial problem as a reduced problem in price-driven fi ltration. This requires the derivation of nonlinear filtering equations, which we develop for a Lévy process. The problem is then solved using dynamic programming by the Bellman and HJB equations. The second essay tackles the question of the cost of uncertainty in a Gaussian framework, which we de fi ne as the di ff erence between the optimal strategies (or the maximum wealth) of a fully informed agent and a partially informed agent. The properties of this information cost are studied in the context of the three standard forms of utility functions and numericalexamples are presented. Finally, the third essay addresses the issue of portfolio choice when market price information is only available on discrete and random dates. This amounts to assuming that price dynamics follow a marked process. In this framework, we develop fi ltering equations and rewrite the initialproblem in its reduced form in discrete price fi ltration. The optimal strategies are then calculated using Malliavin's computation for random measurements and an extension of the Clark-Ocone-Haussman formula is for this purpose presented.
|
29 |
Traitement STAP en environnement hétérogène. Application à la détection radar et implémentation sur GPU / STAP processing in heterogeneous environment. Application to radar detection and implementation on GPUDegurse, Jean-François 15 January 2014 (has links)
Les traitements spatio-temporels adaptatifs (STAP) sont des traitements qui exploitent conjointement les deux dimensions spatiale et temporelle des signaux reçus sur un réseau d'antennes, contrairement au traitement d'antenne classique qui n'exploite que la dimension spatiale, pour leur filtrage. Ces traitements sont particulièrement intéressants dans le cadre du filtrage des échos reçus par un radar aéroporté en provenance du sol pour lesquels il existe un lien direct entre direction d'arrivée et fréquence Doppler. Cependant, si les principes des traitements STAP sont maintenant bien acquis, leur mise en œuvre pratique face à un environnement réel se heurte à des points durs non encore résolus dans le contexte du radar opérationnel. Le premier verrou, adressé par la thèse dans une première phase, est d'ordre théorique, et consiste en la définition de procédures d'estimation de la matrice de covariance du fouillis sur la base d'une sélection des données d'apprentissage représentatives, dans un contexte à la fois de fouillis non homogène et de densité parfois importante des cibles d'intérêts. Le second verrou est d'ordre technologique, et réside dans l'implémentation physique des algorithmes, lié à la grande charge de calcul nécessaire. Ce point, crucial en aéroporté, est exploré par la thèse dans une deuxième phase, avec l'analyse de la faisabilité d'une implémentation sur GPU des étapes les plus lourdes d'un algorithme de traitement STAP. / Space-time adaptive processing (STAP) is a processing that makes use of both the spatial and the temporal dimensions of the received signals by an antenna array, whereas conventional antenna processing only exploits the spatial dimension to perform filtering. These processing are very powerful to remove ground echoes received by airborne radars, where there is a direct relation between the arrival angle and the Doppler frequency. However, if the principles of STAP processing are now well understood, their performances are limited when facing practical situations. The first part of this thesis, is theoretical, and consists of defining effective procedures to estimate the covariance matrix of the clutter using a representative selection of training data, in a context of both non-homogeneous clutter and sometimes high density of targets. The second point studied in this thesis is technological, and lies in the physical implementation of the selected algorithms, because of their high computational workload requirement. This is a key point in airborne operations, and is explored by the thesis in a second phase, with the analysis of the feasibility of implementation on GPU of the heaviest stages of a STAP processing.
|
30 |
Optimisation des chaînes de production dans l'industrie sidérurgique : une approche statistique de l'apprentissage par renforcement / Optimal control of production line in the iron and steel industry : a statistical approach of reinforcement learningGeist, Matthieu 09 November 2009 (has links)
L'apprentissage par renforcement est la réponse du domaine de l'apprentissage numérique au problème du contrôle optimal. Dans ce paradigme, un agent informatique apprend à contrôler un environnement en interagissant avec ce dernier. Il reçoit régulièrement une information locale de la qualité du contrôle effectué sous la forme d'une récompense numérique (ou signal de renforcement), et son objectif est de maximiser une fonction cumulante de ces récompenses sur le long terme, généralement modélisée par une fonction dite de valeur. Le choix des actions appliquées à l'environnement en fonction de sa configuration est appelé une politique, et la fonction de valeur quantifie donc la qualité de cette politique donc la qualité de cette politique. Ce parangon est très général, et permet de s'intéresser à un grand nombre d'applications, comme la gestion des flux de gaz dans un complexe sidérurgique, que nous abordons dans ce manuscrit. Cependant, sa mise en application pratique peut être difficile. Notamment, lorsque la description de l'environnement à contrôler est trop grande, une représentation exacte de la fonction de la valeur (ou de la politique) n'est pas possible. Dans ce cas se pose le problème de la généralisation (ou de l'approximation de fonction de valeur) : il faut d'une part concevoir des algorithmes dont la complexité algorithmique ne soit pas trop grande, et d'autre part être capable d'interférer le comportement à suivre pour une configuration de l'environnement inconnue lorsque des situations proches ont déjà été expérimentées. C'est le problème principal que nous traitons dans ce manuscrit, en proposant une approche inspirée du filtrage de Kalman / Reinforcement learning is the response of machine learning to the problem of optimal control. In this paradigm, an agent learns do control an environment by interacting with it. It receives evenly a numeric reward (or reinforcement signal), which is a local information about the quality of the control. The agent objective is to maximize a cumulative function of these rewards, generally modelled as a so-called value function. A policy specifies the action to be chosen in a particular configuration of the environment to be controlled, and thus the value function quantifies the quality of yhis policy. This paragon is very general, and it allows taking into account many applications. In this manuscript, we apply it to a gas flow management problem in the iron and steel industry. However, its application can be quite difficult. Notably, if the environment description is too large, an exact representation of the value function (or of the policy) is not possible. This problem is known as generalization (or value function approximation) : on the one hand, one has to design algorithms with low computational complexity, and on the other hand, one has to infer the behaviour the agent should have in an unknown configuration of the environment when close configurations have been experimented. This is the main problem we address in this manuscript, by introducing a family of algorithms inspired from Kalman filtering
|
Page generated in 0.0557 seconds