Spelling suggestions: "subject:"filtragem""
71 |
Vers une approche comportementale de recommandation : apport de l'analyse des usages dans un processus de personnalisationEsslimani, Ilham 11 December 2010 (has links) (PDF)
Internet met à la disposition des utilisateurs une large variété d'items dont le volume est sans cesse croissant. Devant cette surcharge d'items, l'utilisateur peine à repérer les items qui correspondent à ses besoins. C'est dans ce contexte que les systèmes de recommandation se sont développés, dans la mesure où ils permettent de faciliter l'accès aux items susceptibles d'intéresser l'utilisateur. Néanmoins, malgré le succès des systèmes de recommandation, certaines questions de recherche restent soulevées telles que : le manque de données, l'identification de voisins fiables, la précision des recommandations et la recommandation de la nouveauté. En vue de répondre à ces questions, nous avons proposé à travers cette thèse une nouvelle approche de recommandation inspirée du web usage mining et du filtrage collaboratif. Cette approche repose sur l'observation du comportement de l'utilisateur et sur l'analyse de ses usages en vue de générer des recommandations. En outre, nous nous sommes inspirés des techniques utilisées dans le domaine de l'analyse des réseaux sociaux afin de prédire les liens à travers un réseau d'utilisateurs construit sur la base des similarités de comportement. L'objectif est de pallier le manque de données et d'améliorer l'identification de voisins fiables. De plus, dans la perspective d'atténuer le problème de démarrage à froid (concernant les nouveaux items), nous avons proposé une approche de recommandation qui repose sur la détection de leaders pour la recommandation de la nouveauté.
|
72 |
Commande Prédictive Directe d'un Convertisseur Multicellulaire pour une Application de Filtrage ActifDefaÿ, François 04 December 2008 (has links) (PDF)
Les enjeux énergétiques liés à la qualité de la distribution de l'énergie électrique nécessitent le développement des dispositifs de filtrage actif des réseaux électriques. L'objectif de la thèse est d'utiliser un convertisseur multicellulaire afin d'obtenir une source de courant avec une très bonne bande passante (pour compenser les courants perturbateurs). Une commande directe et prédictive est appliquée à un onduleur multicellulaire à 4 niveaux. Ce type de commande permet d'utiliser au mieux les avantages fréquentiels de cette structure de conversion d'énergie. L'utilisation de cet onduleur pour une application de filtrage actif se révèle très efficace au niveau de la compensation des harmoniques de courant. Un prototype expérimental, développé dans le cadre de la thèse, nous permet de valider nos résultats obtenus tout d'abord en simulation.
|
73 |
Analyse a-priori de modèles LES sous-mailles appliqués à la turbulence de paroi avec gradients de pressionLi, Cuicui 18 November 2013 (has links) (PDF)
Après plus de 50 ans de recherche, l'intérêt de la simulation des grandes échelles pour la simulation des écoulements instationnaires a été largement démontré et cette méthode est aujourd'hui utilisée pour une grande variété d'applications industrielles. Plusieurs classes de modèles sous-maille ont été proposées dont celle très connue des modèles de viscosité sous-maille souvent préférée pour sa simplicité et sa robustesse. Leur formulation comporte un coefficient qui doit être ajusté pour chaque type d'écoulement et qui a été analysé pour des géométries simples. L'objectif de ce travail est de réaliser des analyses a-priori de ces modèles dans un canal plan et un canal convergent-divergent à relativement grand nombre de Reynolds. Les influences du type de filtre et de la largeur du filtre sont systématiquement abordées pour chacune des statistiques. Le transfert d'énergie sous-maille et la dissipation sous-maille sont tout d'abord étudiés. Ensuite, les coefficients des modèles Smagorinsky, Smagorinsky dynamique, WALE et du modèle Sigma nouvellement proposé sont estimés a-priori. Il est démontré que les coefficients des quatre modèles sont non-homogènes dans le domaine de simulation et sont largement affectés par le gradient de pression adverse, principalement dans la zone de recirculation. Enfin, les corrélations entre les quantités exactes et leurs équivalents modélisés sont examinées. Les résultats montrent un faible niveau de prédiction des modèles sous-maille et une grande variabilité des quantités modélisées dans les régions de fort gradient de pression adverse. Ceci peut expliquer les difficultés pour obtenir de bons résultats LES dans une telle configuration
|
74 |
Xiong, Jun 12 September 2013 (has links) (PDF)
La modélisation des systèmes dynamiques requiert la prise en compte d'incertitudes liées à l'existence inévitable de bruits (bruits de mesure, bruits sur la dynamique), à la méconnaissance de certains phénomènes perturbateurs mais également aux incertitudes sur la valeur des paramètres (spécification de tolérances, phénomène de vieillissement). Alors que certaines de ces incertitudes se prêtent bien à une modélisation de type statistique comme par exemple les bruits de mesure, d'autres se caractérisent mieux par des bornes, sans autre attribut. Dans ce travail de thèse, motivés par les observations ci-dessus, nous traitons le problème de l'intégration d'incertitudes statistiques et à erreurs bornées pour les systèmes linéaires à temps discret. Partant du filtre de Kalman Intervalle (noté IKF) développé dans [Chen 1997], nous proposons des améliorations significatives basées sur des techniques récentes de propagation de contraintes et d'inversion ensembliste qui, contrairement aux mécanismes mis en jeu par l'IKF, permettent d'obtenir un résultat garanti tout en contrôlant le pessimisme de l'analyse par intervalles. Cet algorithme est noté iIKF. Le filtre iIKF a la même structure récursive que le filtre de Kalman classique et délivre un encadrement de tous les estimés optimaux et des matrices de covariance possibles. L'algorithme IKF précédent évite quant à lui le problème de l'inversion des matrices intervalles, ce qui lui vaut de perdre des solutions possibles. Pour l'iIKF, nous proposons une méthode originale garantie pour l'inversion des matrices intervalle qui couple l'algorithme SIVIA (Set Inversion via Interval Analysis) et un ensemble de problèmes de propagation de contraintes. Par ailleurs, plusieurs mécanismes basés sur la propagation de contraintes sont également mis en oeuvre pour limiter l'effet de surestimation due à la propagation d'intervalles dans la structure récursive du filtre. Un algorithme de détection de défauts basé sur iIKF est proposé en mettant en oeuvre une stratégie de boucle semi-fermée qui permet de ne pas réalimenter le filtre avec des mesures corrompues par le défaut dès que celui-ci est détecté. A travers différents exemples, les avantages du filtre iIKF sont exposés et l'efficacité de l'algorithme de détection de défauts est démontré.
|
75 |
C.A.M.E.L.E.O. : a cultural adaptation methodology for E-learning environment optimizationRazaki, Ryad Adebola January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
76 |
HELP : localisation et recommandation d'experts pour le développement d'un système d'aide collaborativeSaleman, Anita January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
77 |
Extraction de paramètres bio-geo-physiques de surfaces 3D reconstruites par multi-stéréo-restitution d'images prises sans contraintes / Bio-geo-physics parameters extraction from 3D surface reconstructed from multi-stereoscopic of images acquired without constraintPetitpas, Benoit 15 December 2011 (has links)
Extraire des mesures sur des surfaces est un problème dans de nombreux domaines de recherche. L'archaïsme de certains systèmes ou la cherté d'appareils perfectionnés empêchent l'extraction rapide et robuste de ces paramètres. Pourtant, ils sont essentiels dans de nombreux domaines, comme les paramètres de rugosité qui interviennent dans de nombreux phénomènes physiques ou les valeurs dendrométriques pour l'étude de la bio-diversité. En parallèle, l'utilisation et la production de contenus 3D se développent considérablement ces dernières années dans des domaines très divers. Le but de cette thèse est donc d'utiliser toutes ces innovations dans le domaine de la reconstruction 3D et de les appliquer à la mesure de paramètres de surfaces. Pour cela, il est nécessaire de créer une chaîne complète de reconstruction 3D, n'utilisant que des images prises sans contrainte dans le but d'être accessible au plus grand nombre. Dans cette chaîne nous utilisons des algorithmes de stéréo-vision robustes produisant, pour chaque couple d'images, un nuage de points. Après le passage de ces nuages dans un référentiel commun, une étape de filtrage des points 3D et de suppression des redondances est nécessaire. Une étape de lissage permet d'obtenir le nuage final. Pour justifier des bons résultats obtenus, une étape de validation nous a permis de vérifier et d'étudier la robustesse de la chaîne de traitements développée. Enfin, les paramètres de rugosités et dendrométriques seront extraits. Nous étudierons dans ces deux cas, comment extraire ces informations et leurs utilisations / Extracting measures on surfaces is a problem in many areas of research. The archaism of some systems or the costliness of sophisticated devices prevent the fast and robust extraction of these parameters. Yet these measures are essential in many areas, such as roughness parameters involved in many physical phenomena or dendrometric values for the study of biodiversity. In parallel, the use and production of 3D content has grown dramatically this past year in very diverse domains. The purpose of this thesis is to use these innovations in the context of surfaces parameter measurements. It is necessary to create a complete chain of 3D reconstruction, using pictures taken without constraint, in order to be open to as many people. This chain uses robust stereo-vision algorithms in order to produce a point cloud for each pair of images. After the generation of these point cloud in the same geometric frame, a filtering step of 3D points and a deletion step of redundancies are necessary and a smoothing step allows us to obtain the final point cloud. To reveal the good results, a validation step has enabled us to verify and investigate the robustness of the developed chain. The roughness and dendrometric parameters are finally extracted. We will study in both cases, how to extract this information and their uses
|
78 |
Modèles de fusion et diffusion par équations aux dérivées partielles : application à la sismique azimutalePop, Sorin 11 November 2008 (has links)
Ce mémoire porte sur le développement de nouvelles méthodes de fusion d’images à partir d’un formalisme à base d’Equations aux Dérivées Partielles (EDP). Les deux premiers chapitres bibliographiques portent sur les 2 domaines au centre de notre problématique : la fusion et les EDP. Le Chapitre 3 est consacré à la présentation progressive de notre modèle EDP de fusion constitué par un terme de fusion (diffusion inverse isotrope) et un terme de régularisation. De plus, un des attraits de l’approche EDP est de pouvoir traiter avec le formalisme des données bruitées. L’association d’un terme de diffusion dépendant du type de données à traiter est donc abordée. Le chapitre 4 est consacré à l’application des modèles de fusion-diffusion aux données sismiques. Pour répondre aux besoins de filtrage de ces données sismiques, nous proposons deux méthodes originales de diffusion 3D. Nous présenterons dans ce mémoire l’approche de fusion 3D intégrant une de ces méthodes nommée SFPD (Seismic Fault Preserving Diffusion). / This thesis focuses on developing new methods for image fusion based on Partial Differential Equations (PDE). The starting point of the proposed fusion approach is the enhancement process contained in most classical diffusion models. The aim of enhancing contours is similar to one of the purpose of the fusion: the relevant information (equivalent to the contours) must be found in the output image. In general, the contour enhancement uses an inverse diffusion equation. In our model of fusion, the evolution of each input image is led by such equation. This single equation must necessarily be accompanied by a global information detector useful to select the signal to be injected. In addition, an inverse diffusion equation, like any Gaussian deconvolution, raises problems of stability and regularization of the solution. To resolve these problems, a regularization term is integrated into the model. The general model of fusion is finally similar to an evolving cooperative system, where the information contained in each image starts moving towards relevant information, leading to a convergent process. The essential interest of PDE approach is to deal with noisy data by combining in a natural way two processes: fusion and diffusion. The fusion-diffusion proposed model is easy to adapt to different types of data by tuning the PDE. In order to adapt the fusion-diffusion model to a specific application, I propose 2 diffusion models: “Seismic fault preserving diffusion” and “3D directional diffusion”. The aim is to denoise 3D seismic data. These models are integrated into the fusion-diffusion approach. One of them is successfully transferred to the industrial partner: french oil company Total. The efficiency of our models (fusion and fusion-diffusion) is proven through an experimental plan in both noisy and noisy-free data.
|
79 |
Utilisation d'une assimilation d'ensemble pour modéliser des covariances d'erreur d'ébauche dépendantes de la situation météorologique à échelle convective / Use of an ensemble data assimilation to model flow-dependent background error covariances a convective scaleMénétrier, Benjamin 03 July 2014 (has links)
L'assimilation de données vise à fournir aux modèles de prévision numérique du temps un état initial de l'atmosphère le plus précis possible. Pour cela, elle utilise deux sources d'information principales : des observations et une prévision récente appelée "ébauche", toutes deux entachées d'erreurs. La distribution de ces erreurs permet d'attribuer un poids relatif à chaque source d'information, selon la confiance que l'on peut lui accorder, d'où l'importance de pouvoir estimer précisément les covariances de l'erreur d'ébauche. Les méthodes de type Monte-Carlo, qui échantillonnent ces covariances à partir d'un ensemble de prévisions perturbées, sont considérées comme les plus efficaces à l'heure actuelle. Cependant, leur coût de calcul considérable limite de facto la taille de l'ensemble. Les covariances ainsi estimées sont donc contaminées par un bruit d'échantillonnage, qu'il est nécessaire de filtrer avant toute utilisation. Cette thèse propose des méthodes de filtrage du bruit d'échantillonnage dans les covariances d'erreur d'ébauche pour le modèle à échelle convective AROME de Météo-France. Le premier objectif a consisté à documenter la structure des covariances d'erreur d'ébauche pour le modèle AROME. Une assimilation d'ensemble de grande taille a permis de caractériser la nature fortement hétérogène et anisotrope de ces covariances, liée au relief, à la densité des observations assimilées, à l'influence du modèle coupleur, ainsi qu'à la dynamique atmosphérique. En comparant les covariances estimées par deux ensembles indépendants de tailles très différentes, le bruit d'échantillonnage a pu être décrit et quantifié. Pour réduire ce bruit d'échantillonnage, deux méthodes ont été développées historiquement, de façon distincte : le filtrage spatial des variances et la localisation des covariances. On montre dans cette thèse que ces méthodes peuvent être comprises comme deux applications directes du filtrage linéaire des covariances. L'existence de critères d'optimalité spécifiques au filtrage linéaire de covariances est démontrée dans une seconde partie du travail. Ces critères présentent l'avantage de n'impliquer que des grandeurs pouvant être estimées de façon robuste à partir de l'ensemble. Ils restent très généraux et l'hypothèse d'ergodicité nécessaire à leur estimation n'est requise qu'en dernière étape. Ils permettent de proposer des algorithmes objectifs de filtrage des variances et pour la localisation des covariances. Après un premier test concluant dans un cadre idéalisé, ces nouvelles méthodes ont ensuite été évaluées grâce à l'ensemble AROME. On a pu montrer que les critères d'optimalité pour le filtrage homogène des variances donnaient de très bons résultats, en particulier le critère prenant en compte la non-gaussianité de l'ensemble. La transposition de ces critères à un filtrage hétérogène a permis une légère amélioration des performances, à un coût de calcul plus élevé cependant. Une extension de la méthode a ensuite été proposée pour les composantes du tenseur de la hessienne des corrélations locales. Enfin, les fonctions de localisation horizontale et verticale ont pu être diagnostiquées, uniquement à partir de l'ensemble. Elles ont montré des variations cohérentes selon la variable et le niveau concernés, et selon la taille de l'ensemble. Dans une dernière partie, on a évalué l'influence de l'utilisation de variances hétérogènes dans le modèle de covariances d'erreur d'ébauche d'AROME, à la fois sur la structure des covariances modélisées et sur les scores des prévisions. Le manque de réalisme des covariances modélisées et l'absence d'impact positif pour les prévisions soulèvent des questions sur une telle approche. Les méthodes de filtrage développées au cours de cette thèse pourraient toutefois mener à d'autres applications fructueuses au sein d'approches hybrides de type EnVar, qui constituent une voie prometteuse dans un contexte d'augmentation de la puissance de calcul disponible. / Data assimilation aims at providing an initial state as accurate as possible for numerical weather prediction models, using two main sources of information : observations and a recent forecast called the “background”. Both are affected by systematic and random errors. The precise estimation of the distribution of these errors is crucial for the performance of data assimilation. In particular, background error covariances can be estimated by Monte-Carlo methods, which sample from an ensemble of perturbed forecasts. Because of computational costs, the ensemble size is much smaller than the dimension of the error covariances, and statistics estimated in this way are spoiled with sampling noise. Filtering is necessary before any further use. This thesis proposes methods to filter the sampling noise of forecast error covariances. The final goal is to improve the background error covariances of the convective scale model AROME of Météo-France. The first goal is to document the structure of background error covariances for AROME. A large ensemble data assimilation is set up for this purpose. It allows to finely characterize the highly heterogeneous and anisotropic nature of covariances. These covariances are strongly influenced by the topography, by the density of assimilated observations, by the influence of the coupling model, and also by the atmospheric dynamics. The comparison of the covariances estimated from two independent ensembles of very different sizes gives a description and quantification of the sampling noise. To damp this sampling noise, two methods have been historically developed in the community : spatial filtering of variances and localization of covariances. We show in this thesis that these methods can be understood as two direct applications of the theory of linear filtering of covariances. The existence of specific optimality criteria for the linear filtering of covariances is demonstrated in the second part of this work. These criteria have the advantage of involving quantities that can be robustly estimated from the ensemble only. They are fully general and the ergodicity assumption that is necessary to their estimation is required in the last step only. They allow the variance filtering and the covariance localization to be objectively determined. These new methods are first illustrated in an idealized framework. They are then evaluated with various metrics, thanks to the large ensemble of AROME forecasts. It is shown that optimality criteria for the homogeneous filtering of variances yields very good results, particularly with the criterion taking the non-gaussianity of the ensemble into account. The transposition of these criteria to a heterogeneous filtering slightly improves performances, yet at a higher computational cost. An extension of the method is proposed for the components of the local correlation hessian tensor. Finally, horizontal and vertical localization functions are diagnosed from the ensemble itself. They show consistent variations depending on the considered variable and level, and on the ensemble size. Lastly, the influence of using heterogeneous variances into the background error covariances model of AROME is evaluated. We focus first on the description of the modelled covariances using these variances and then on forecast scores. The lack of realism of the modelled covariances and the negative impact on scores raise questions about such an approach. However, the filtering methods developed in this thesis are general. They are likely to lead to other prolific applications within the framework of hybrid approaches, which are a promising way in a context of growing computational resources.
|
80 |
Filtrage, segmentation et suivi d'images échographiques : applications cliniques / Filtering, Segmentation and ultrasound images tracking. : clinical applications.Dahdouh, Sonia 23 September 2011 (has links)
La réalisation des néphrolithotomies percutanées est essentiellement conditionnée par la qualité dela ponction calicièle préalable. En effet, en cas d’échec de celle-ci, l’intervention ne peut avoir lieu.Réalisée le plus souvent sous échographie, sa qualité est fortement conditionnée par celle du retouréchographique, considéré comme essentiel par la deuxième consultation internationale sur la lithiase pour limiter les saignements consécutifs à l’intervention.L’imagerie échographique est largement plébiscitée en raison de son faible coût, de l’innocuité del’examen, liée à son caractère non invasif, de sa portabilité ainsi que de son excellente résolutiontemporelle ; elle possède toutefois une très faible résolution spatiale et souffre de nombreux artefacts tels que la mauvaise résolution des images, un fort bruit apparent et une forte dépendance àl’opérateur.L’objectif de cette thèse est de concevoir une méthode de filtrage des données échographiques ainsiqu’une méthode de segmentation et de suivi du rein sur des séquences ultrasonores, dans le butd’améliorer les conditions d’exécution d’interventions chirurgicales telles que les néphrolithotomiespercutanées.Le filtrage des données, soumis et publié dans SPIE 2010, est réalisé en exploitant le mode deformation des images : le signal radiofréquence est filtré directement, avant même la formation del’image 2D finale. Pour ce faire, nous utilisons une méthode basée sur les ondelettes, en seuillantdirectement les coefficients d’ondelettes aux différentes échelles à partir d’un algorithme de typesplit and merge appliqué avant reconstruction de l’image 2D.La méthode de suivi développée (une étude préliminaire a été publiée dans SPIE 2009), exploiteun premier contour fourni par le praticien pour déterminer, en utilisant des informations purementlocales, la position du contour sur l’image suivante de la séquence. L’image est transformée pourne plus être qu’un ensemble de vignettes caractérisées par leurs critères de texture et une premièresegmentation basée région est effectuée sur cette image des vignettes. Cette première étape effectuée, le contour de l’image précédente de la séquence est utilisé comme initialisation afin de recalculer le contour de l’image courante sur l’image des vignettes segmentée. L’utilisation d’informations locales nous a permis de développer une méthode facilement parallélisable, ce qui permettra de travailler dans une optique temps réel.La validation de la méthode de filtrage a été réalisée sur des signaux radiofréquence simulés. Laméthode a été comparée à différents algorithmes de l’état de l’art en terme de ratio signal sur bruitet de calcul de USDSAI. Les résultats ont montré la qualité de la méthode proposée comparativement aux autres. La méthode de segmentation, quant-à elle, a été validée sans filtrage préalable, sur des séquences 2D réelles pour un temps d’exécution sans optimisation, inférieur à la minute pour des images 512*512. / The achievement of percutaneous nephrolithotomies is mainly conditioned by the quality of the initial puncture. Indeed, if it is not well performed , the intervention cannot be fulfilled.In order to make it more accurate this puncture is often realized under ultrasound control. Thus the quality of the ultrasound feedback is very critical and when clear enough it greatly helps limiting bleeding.Thanks to its low cost, its non invasive nature and its excellent temporal resolution, ultrasound imaging is considered very appropriate for this purpose. However, this solution is not perfect it is characterized by a low spatial resolution and the results present artifacts due to a poor image resolution (compared to images provided by some other medical devices) and speckle noise.Finally this technic is greatly operator dependent.Aims of the work presented here are, first to design a filtering method for ultrasound data and then to develop a segmentation and tracking algorithm on kidney ultrasound sequences in order to improve the executing conditions of surgical interventions such as percutaneous nephrolithotomies.The results about data filtering was submitted and published in SPIE 2010. The method uses the way ultrasound images are formed to filter them: the radiofrequency signal is directly filtered, before the bi-dimensional reconstruction. In order to do so, a wavelet based method, thresholding directly wavelet coefficients at different scales has been developed. The method is based on a “split and merge” like algorithm.The proposed algorithm was validated on simulated signals and its results compared to the ones obtained with different state of the art algorithms. Experiments show that this new proposed approach is better.The segmentation and tracking method (of which a prospective study was published in SPIE 2009) uses a first contour given by a human expert and then determines, using only local informations, the position of the next contour on the following image of the sequence. The tracking technique was validated on real data with no previous filtering and successfully compared with state of the art methods.
|
Page generated in 0.0371 seconds