• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 164
  • 61
  • 15
  • 1
  • Tagged with
  • 240
  • 167
  • 118
  • 84
  • 78
  • 67
  • 59
  • 38
  • 35
  • 33
  • 33
  • 26
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Algorithmes d'étiquetage en composantes connexes efficaces pour architectures hautes performances / Efficient Connected Component Labeling Algorithms for High Performance Architectures

Cabaret, Laurent 28 September 2016 (has links)
Ces travaux de thèse, dans le domaine de l'adéquation algorithme architecture pour la vision par ordinateur, ont pour cadre l'étiquetage en composantes connexes (ECC) dans le contexte parallèle des architectures hautes performances. Alors que les architectures généralistes modernes sont multi-coeur, les algorithmes d'ECC sont majoritairement séquentiels, irréguliers et utilisent une structure de graphe pour représenter les relations d'équivalences entre étiquettes ce qui rend complexe leur parallélisation. L'ECC permet à partir d'une image binaire, de regrouper sous une même étiquette tous les pixels connexes, il fait ainsi le pont entre les traitements bas niveaux tels que le filtrage et ceux de haut niveau tels que la reconnaissance de forme ou la prise de décision. Il est donc impliqué dans un grand nombre de chaînes de traitements qui nécessitent l'analyse d'image segmentées. L'accélération de cette étape représente donc un enjeu pour tout un ensemble d'algorithmes.Les travaux de thèse se sont tout d'abord concentrés sur les performances comparées des algorithmes de l'état de l'art tant pour l'ECC que pour l'analyse des caractéristiques des composantes connexes (ACC) afin d'en dégager une hiérarchie et d’identifier les composantes déterminantes des algorithmes. Pour cela, une méthode d'évaluation des performances, reproductible et indépendante du domaine applicatif, a été proposée et appliquée à un ensemble représentatif des algorithmes de l'état de l'art. Les résultats montrent que l'algorithme séquentiel le plus rapide est l'algorithme LSL qui manipule des segments contrairement aux autres algorithmes qui manipulent des pixels.Dans un deuxième temps, une méthode de parallélisation des algorithmes directs utilisant OpenMP a été proposé avec pour objectif principal de réaliser l’ACC à la volée et de diminuer le coût de la communication entre les threads. Pour cela, l'image binaire est découpée en bandes traitées en parallèle sur chaque coeur du l'architecture, puis une étape de fusion pyramidale d'ensembles deux à deux disjoint d'étiquettes permet d'obtenir l'image complètement étiquetée sans avoir de concurrence d'accès aux données entre les différents threads. La procédure d'évaluation des performances appliquée a des machines de degré de parallélisme variés, a démontré que la méthode de parallélisation proposée était efficace et qu'elle s'appliquait à tous les algorithmes directs. L'algorithme LSL s'est encore avéré être le plus rapide et le seul adapté à l'augmentation du nombre de coeurs du fait de son approche «segments». Pour une architecture à 60 coeurs, l'algorithme LSL permet de traiter de 42,4 milliards de pixels par seconde pour des images de taille 8192x8192, tandis que le plus rapide des algorithmes pixels est limité par la bande passante et sature à 5,8 milliards de pixels par seconde.Après ces travaux, notre attention s'est portée sur les algorithmes d'ECC itératifs dans le but de développer des algorithmes pour les architectures manycore et GPU. Les algorithmes itératifs se basant sur un mécanisme de propagation des étiquettes de proche en proche, aucune autre structure que l'image n'est nécessaire ce qui permet d'en réaliser une implémentation massivement parallèle (MPAR). Ces travaux ont menés à la création de deux nouveaux algorithmes.- Une amélioration incrémentale de MPAR utilisant un ensemble de mécanismes tels qu'un balayage alternatif, l'utilisation d'instructions SIMD ainsi qu'un mécanisme de tuiles actives permettant de répartir la charge entre les différents coeurs tout en limitant le traitement des pixels aux zones actives de l'image et à leurs voisines.- Un algorithme mettant en œuvre la relation d’équivalence directement dans l’image pour réduire le nombre d'itérations nécessaires à l'étiquetage. Une implémentation pour GPU basée sur les instructions atomic avec un pré-étiquetage en mémoire locale a été réalisée et s'est révélée efficace dès les images de petite taille. / This PHD work take place in the field of algorithm-architecture matching for computer vision, specifically for the connected component labeling (CCL) for high performance parallel architectures.While modern architectures are overwhelmingly multi-core, CCL algorithms are mostly sequential, irregular and they use a graph structure to represent the equivalences between labels. This aspects make their parallelization challenging.CCL processes a binary image and gathers under the same label all the connected pixels, doing so CCL is a bridge between low level operations like filtering and high level ones like shape recognition and decision-making.It is involved in a large number of processing chains that require segmented image analysis. The acceleration of this step is therefore an issue for a variety of algorithms.At first, the PHD work focused on the comparative performance of the State-of-the-Art algorithms, as for CCL than for the features analysis of the connected components (CCA) in order to identify a hierarchy and the critical components of the algorithms. For this, a benchmarking method, reproducible and independent of the application domain was proposed and applied to a representative set of State-of-the-Art algorithms. The results show that the fastest sequential algorithm is the LSL algorithm which manipulates segments unlike other algorithms that manipulate pixels.Secondly, a parallelization framework of directs algorithms based on OpenMP was proposed with the main objective to compute the CCA on the fly and reduce the cost of communication between threads.For this, the binary image is divided into bands processed in parallel on each core of the architecture and a pyramidal fusion step that processes the generated disjoint sets of labels provides the fully labeled image without concurrent access to data between threads.The benchmarking procedure applied to several machines of various parallelism level, shows that the proposed parallelization framework applies to all the direct algorithms.The LSL algorithm is once again the fastest and the only one suitable when the number of cores increases due to its run-based conception. With an architecture of 60 cores, the LSL algorithm can process 42.4 billion pixels per second for images of 8192x8192 pixels, while the fastest pixel-based algorithm is limited by the bandwidth and saturates at 5.8 billion pixels per second.After these works, our attention focused on iterative CCL algorithms in order to develop new algorithms for many-core and GPU architectures. The Iterative algorithms are based on a local propagation mechanism without supplementary equivalence structure which allows to achieve a massively parallel implementation (MPAR). This work led to the creation of two new algorithms.- An incremental improvement of MPAR using a set of mechanisms such as an alternative scanning, the use of SIMD instructions and an active tile mechanism to distribute the load between the different cores while limiting the processing of the pixels to the active areas of the image and to their neighbors.- An algorithm that implements the equivalence relation directly into the image to reduce the number of iterations required for labeling. An implementation for GPU, based on atomic instructions with a pre-labeling in the local memory has been realized and it has proven effective from the small images.
32

Évaluation de la qualité de l’eau du bassin supérieur de la rivière du Litani, Liban : approche hydrogéochimique / Evaluation of the quality of the water of upper basin of the Litani River, Lebanon : Approaches hydrogeochemical

Moussa Haidar, Chaden 22 October 2014 (has links)
A la quantité limitée de l’eau disponible au Liban, vient s’ajouter un nouveau problème, la dégradation de la qualité des eaux superficielles menacées continuellement par la pollution et la salinisation. Les utilisations agricoles et industrielles et l’augmentation de la population génèrent des pollutions des cours d'eau qui posent des problèmes environnementaux et sanitaires. Afin de limiter et d'anticiper ces pollutions, il est nécessaire de disposer de méthodes d'évaluation des effets des systèmes de culture sur la pollution des eaux de rivière. Pour cela, nous avons sélectionné la rivière Litani qui est la plus longue rivière et la plus importante au Liban, sur laquelle deux dispositifs de suivis ont été mis en œuvre entre 2010 et 2013. En raison de l'absence de données sur la qualité de l'eau, nous proposons dans cette étude de vérifier les paramètres de pollution du bassin supérieur qui constitue la majorité de surface du bassin. L’objectif de ce projet est de réaliser une étude prospective sur la qualité de la ressource en eau du bassin supérieur du Litani en incluant le lac de Qarraoun, de comprendre la relation entre la recharge et la consommation d’eau et, si pertinent, de proposer des solutions pour une meilleure gestion des eaux polluées. L'étude porte sur l'interprétation des sources de pollution en mesurant de nombreux paramètres physicochimiques (pH, T °, TDS, Ec), chimiques (Na, Ca2, Mg2, Cl-, SO2-4, NH3, NO-3, PO2-4, K, DBO5 et DCO), les métaux lourds (Fe, Ni, Zn, Cu, Cr, Al, Ba, Pb, Mn) et des paramètres microbiologiques de l'eau et les sédiments de la partie supérieure du bassin Litani et dans le lac. Des échantillons ont été prélevés au cours des trois saisons d’hiver (Février), du printemps (mai) et d’été (Septembre) en 2010-2013. Les analyses microbiologiques et physico-chimiques sont effectuées en conformité avec les méthodes standards européennes et méthode standard (OMS). Des méthodes statistiques multi-variées (analyse hiérarchique de la concentration : HAC, et de l'analyse en composantes principales : PCA) et la corrélation de Pearson ont ensuite été appliquées pour déterminer l'influence des polluants dans le lac et la rivière / Lebanon has abundant water, but its river is polluted. The Litani River is the largest one, draining from north to south in the central core of the country (Bekaa Valley) before turning west to the sea. It crosses down a rather deep valley and passes by several urban agglomerations and industrial zones, which use its water as a discharge system of their waste. This study shows the impact of the anthropic activities on the water quality of this river. Physical (pH, T°, TDS, Ec), chemical (Na+, Ca2+, Mg2+, Cl?, SO2?4, NH3+, NO?3, PO2?4, K+, BOD5 and COD), heavy metals (Fe, Ni, Zn, Cu, Cr, Al, Ba, Pb, Mn) and microbiological parameters of water quality assessment and sediment for the Upper Litani River Basin was performed. They were investigated during three seasons of rainy, mid-rainy spring and wet season, during the years 2010-2013 to determine correlation between chosen chemical water parameters and bottom sediments parameters. Microbiological and physico-chemical analyses are performed in accordance International methods (e.g. European Standard Methods, WHO). In addition, Multivariate statistical methods (Hierarchical Clustering Analysis: HCA, and Principal Component Analysis: PCA) and Pearson’s correlation were applied to figure out the influence of pollutants disposal in the Lake and the River as well. Sediments were characterized by a set of chemical analyses, cations exchange capacity, mineralogical X-ray diffraction (XRD), Fourier transformed infrared spectroscopy (FTIR). To assess metal contamination in sediments, Consensus-Based Sediment Quality Guidelines of Wisconsin (CBSQG) were applied. The metals contamination in the sediments was also evaluated by contamination factor (Cf), and the results showed that the effect of seasonal variations was important in the Upper Litani River Basin and the degree of contamination was increased in dry season. All the sites are characterized by moderate to highly microbial polluted range and some site was highly polluted and contaminated
33

Déterminants de l'utilisation des services prénatals dans les pays en développement : cas du Burkina Faso

Dabiré, Ernest January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
34

Extraction of Fetal Cardiac Signals from an Array of Maternal Abdominal Recordings

Sameni, Reza 07 July 2008 (has links) (PDF)
Les malformations cardiaques congénitales sont parmi les malformations les plus communes à la naissance et la première cause de décès des nouveau-nés. La plupart des anomalies cardiaques sont visibles dans la morphologie des signaux électriques cardiaques, qui sont enregistrés par l'électrocardiographie qui semble contenir plus d'informations par rapport aux méthodes conventionnelles sonographiques. Par conséquent, l'étude non invasive des signaux cardiaques du foetus peut fournir un moyen efficace pour contrôler le bon fonctionnement du coeur du foetus et peut être utilisé pour la détection précoce des anomalies cardiaques.<br /><br />Dans les précédentes études, diverses méthodes ont été mises au point pour le traitement et l'extraction d'électrocardiogramme (ECG) du foetus, à partir des signaux enregistrés de la surface du corps de la mère. Toutefois, en raison du faible rapport signal/bruit de ces signaux, l'application d'électrocardiographie fétale a été limitée à l'analyse des battements cardiaques et à des enregistrements ECG invasifs pendant l'accouchement.<br /><br />Dans cette recherche, l'objectif est d'améliorer les méthodes de traitement du signal utilisées en cardiographie du foetus et d'apporter de nouvelles solutions à ce problème, en développant de nouvelles techniques de modélisation et de filtrage des signaux d'ECG du foetus enregistrés par un réseau d'électrodes placées sur le ventre maternel. L'idée de base derrière les méthodes développées, consiste à utiliser les informations a priori des signaux cardiaques, tels que leur pseudo-périodicité, afin d'améliorer les performances des méthodes existantes et de concevoir de nouvelles techniques de filtrage qui sont spécifiques aux signaux cardiaques. En raison du recouvrement des signaux du foetus avec les interférences/bruits dans différents domaines, les méthodes qui utilisent l'information dans un seul de ces domaines, ne réussissent pas à extraire les ECG foetaux. Par conséquent, nous proposons des méthodes de traitement qui utilisent les informations provenant de différents domaines, afin d'améliorer la qualité des signaux extraits.<br /><br />Théoriquement, les méthodes proposées sont des combinaisons de modèles morphologiques de l'ECG, de techniques de filtrage bayésienne ad hoc basées sur la théorie de l'estimation et de classes spéciales de filtres spatiaux issus du contexte de la séparation aveugle et semi-aveugle de sources. Il est montré que, en raison de la généralité des méthodes proposées, les mêmes procédures sont également applicables aux signaux ECG multicapteurs chez l'adulte, et peuvent être utilisées en temps réel dans les systèmes de surveillance cardiaque.<br /><br />En outre, les méthodes développées sont fondées sur la morphologie du signal cardiaque, sans prendre en compte les particularités de la théorie du volume conducteur et la propagation électromagnétique dans les milieux physiologiques. Par conséquent, les mêmes méthodes sont applicables à d'autres modalités de surveillance cardiaque, comme le magnétocardiogramme (MCG), qui sont morphologiquement similaire à l'ECG. En particulier, nous présentons une étude de cas sur l'extraction des signaux MCG de jumeaux.<br /><br />Nous présentons également une technique originale de déflation, qui vise à séparer les sous-espaces formés par les signaux d'intérêt dans des mélanges sous-déterminés. Cette idée s'avère très performante et débouche sur des applications diverses dans d'autres contextes.
35

Méthodes de séparation aveugle de sources et application à la télédétection spatiale

Karoui, Moussa Sofiane 17 December 2012 (has links) (PDF)
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.
36

CARACTERISATION ET ETALONNAGE DES DYNAMOMETRES A SIX COMPOSANTES POUR TORSEUR ASSOCIE A UN SYSTEME DE FORCES

Couétard, Yves 30 June 2000 (has links) (PDF)
La mécanique du solide exploite largement le modèle "torseur" pour traiter les systèmes de forces, la cinématique, la cinétique et les petits déplacements. Cette modélisation n'est pas très utilisée en dehors du milieu de la formation initiale, résolument abstraite. Nous nous efforçons de la rendre consistante par une quantification au travers de la mesure, et plus encore au travers de l'élaboration d'un appareil de mesure : un dynamomètre a 6 composantes pour quantifier les composantes du torseur associe au système d'actions mécaniques appliqué sur une liaison. L'étalonnage spatial accompagne l'étude pour permettre de qualifier les appareils de mesure.
37

Enquête exploratoire sur la perception de la qualité de vie des résidents de Popayán, Colombie

Perafan Ledezma, Astrid Lorena January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
38

Identification and classification of geometrical parameeters related to foot pathologies

Anbarian, Mehrdad January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
39

Statistical methods for insurance fraud detection

Poissant, Mathieu January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
40

Relation between structure and properties of TiO2 coatings on metallic substrates / Relation entre la structure et les propriétés fonctionnelles des revêtements de TiO2 sur les substrats métalliques

Varghese, Aneesha Mary 19 April 2012 (has links)
L'objectif de cette étude était de réaliser des revêtements de TiO2 présentant une large variété de morphologies et d'établir des corrélations entre la structure de ces couches et leurs propriétés fonctionnelles, notamment la photocatalyse. Deux voies de synthèse employant le même précurseur, le tétra-isopropropoxide (TTIP) de titane, ont été utilisées, le procédé sol-gel et le dépôt chimique en phase vapeur (MOCVD). L'emploi de ces deux techniques permet de produire TiO2 sous une large gamme de morphologies mais avec des variétés polymorphiques similaires. Les revêtements synthétisés ont été caractérises afin de déterminer leur composition polymorphique, la taille des cristallites, la surface spécifique, la rugosité et l'épaisseur. Puis leur activité photocalytique pour la dégradation du bleu de méthylène a été déterminée. Par voie sol-gel, des dispersions de nano-cristallites de TiO2 dans l'eau, stables sur une longue durée (plus d'un an) en termes de composition polymorphique, taille d'agglomérats et de cristallites ont été synthétisées. Les revêtements ont été réalisés par tape-casting et dip-coating. Pour la synthèse en MOCVD, un plan d'expérience (PeX) a été utilisé, à notre connaissance pour la première fois. Il a permis de déterminer, d'une manière efficace et économique (avec un nombre minimum de tests expérimentaux), les paramètres les plus importants du procédé contrôlant les diverses propriétés quantifiables du revêtement. Il a aussi permis de mettre en évidence les interactions entre les paramètres de synthèse et leur effet sur la structure du revêtement. Les conclusions tirées du PeX sont en accord avec les résultats obtenus lors des études précédentes. L'analyse en composantes principales (ACP) a été réalisée pour avoir une vue globale de la façon dont les diverses propriétés des revêtements sont reliées entre elles / The overall objectives of this study was to find an environmental-friendly and simple procedure to synthesize titanium-dioxide, as well as, to determine the relation between the structural and functional properties of titanium dioxide coatings. Both of these objective have been attained in this study. By the sol-gel technique, titanium dioxide sols were synthesized by the hydrolysis of titanium(IV)isopropoxide. Nanocrystalline dispersions of TiO2 in water were prepared that were suitable for coatings and having long-term stability (more than 1 year) in terms of polymorphic composition, crystallite and agglomerate size. A design of experiments (DoE) was utilised, to our knowledge, for the first time in MOCVD for the synthesis of TiO2 coatings. It was employed to determine, in a timely and economical manner, the most significant process parameters for any quantifiable property of the coating and to highlight the interaction between these operating parameters, as well as, the correlation between the structure of the coating and the process. The conclusions drawn from the DoE were compared to results obtained by previous studies and were found to concur. Therefore, the DoE was successful in screening the most important process parameters, with a minimum number of experimental trials. For most of the properties that were under investigation, the DoE showed that, the deposition temperature and reactor pressure were, often-times, the most significant. Therefore, to change the microstructure and composition of MOCVD coatings, changing these process parameters will ensure the highest impact. It has to be stressed that the conclusions drawn from the DoE are restricted to the experimental range that was under investigation. Principal Component Analysis (PCA) was conducted to have an overall view of how the different properties of the coatings related with one another. The interpretations made from this analysis were that the photocatalytic (PC) activity of the coatings produced did not relate strongly to the polymorphic composition, which is contrary to literature review and is explained to be a result of the different morphologies that lead to different porosities and specific surface area. The PC activity did not depend on the mass over a critical mass. With this analysis it appeared to be clear that the porosity and specific surface area played a larger role than polymorphic composition. This hypothesis has to be verified because we did not succeed in determining the specific surface area of our coatings during this study. However, some preliminary tests have been conducted showing that cyclic voltametry could be used to evaluate the surface area of our films

Page generated in 0.0374 seconds