• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 798
  • 252
  • 86
  • 13
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1164
  • 252
  • 200
  • 162
  • 123
  • 93
  • 87
  • 85
  • 76
  • 70
  • 66
  • 65
  • 64
  • 62
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Utilisation de matériaux bois intelligents pour la gestion durable des infrastructures / Use of smart wood materials for the sustainable management of infrastructures

Li, Hang 29 November 2017 (has links)
Depuis quinze ans, on recommence à construire en bois, et notamment en bois lamellé-collé (LC), pour répondre aux nouveaux challenges imposés par les problématiques de développement durable. Néanmoins, des problèmes de dégradations liés à l'humidité ou aux cycles d'humidification/séchage limitent le développement des ouvrages en bois. De ce fait, le suivi de l'humidité des ouvrages d'art en bois devient un enjeu crucial. Aujourd'hui, certaines solutions existent mais ne permettent pas un suivi local au niveau des lamelles du bois LC. Une telle solution permettrait d'améliorer la prédiction de la durée de vie des ouvrages. Suite à ce constat, nous avons proposé de transformer le bois LC en " structure intelligente " par intégration d'un système du suivi de l'humidité au niveau des lamelles, et ce, en tenant compte des principales contraintes de fabrication de ce matériau (faible épaisseur du joint collé, pression de collage importante, etc.). Pour ce faire, nous avons effectué une recherche bibliographique afin de sélectionner les méthodes de suivi pouvant répondre à ces contraintes. A l'issue de cette recherche, deux technologies se sont révélées intéressantes : les mesures électriques et les mesures ultrasonores. Plusieurs configurations de mesures ont été proposées et testées pendant ce travail de thèse. Par la suite, nous avons effectué des essais préliminaires pour s'assurer du bon fonctionnement de ces configurations de mesures, et ainsi vérifier le comportement des capteurs lors de la fabrication du bois LC. Puis, nous avons humidifié les échantillons en utilisant deux protocoles d'humidification différents afin de vérifier la faisabilité du suivi de l'humidité avec les capteurs intégrés. Les résultats montrent que l'ensemble des configurations de mesures sont opérationnelles pour suivre la variation de l'humidité dans les échantillons LC. De plus, pour les mesures électriques, nos résultats montrent que l'on peut adopter quasiment les mêmes modèles d'étalonnage pour le suivi de l'humidité par mesures résistives, quel que soit le type de capteurs utilisé. Qui plus est, il est possible de récupérer des informations complémentaires par la réalisation simultanée des mesures résistives et des mesures capacitives en utilisant les électrodes surfaciques. Concernant les mesures ultrasonores, nous avons obtenu les courbes de sensibilité en fréquence pour plusieurs familles de capteurs à film piézoélectrique. L'influence de la pression de collage et de la distance entre les capteurs sur les mesures électriques/ultrasonores a aussi été investiguée dans ces travaux. De futures études consisteront à utiliser ces configurations de mesures pour le suivi in situ dans les ouvrages, ainsi qu'à établir un lien entre la durabilité des structures LC et les cycles d'humidification/séchage afin de prédire la durée de vie résiduelle des ouvrages d'art en bois. / For fifteen years, we restart to construct with wood, and particularly with glulam to respond to the new challenges imposed by the issues of sustainable development. However, degradation issues related to moisture content (MC) or wetting/drying cycles limit the development of timber structures. As a result, the MC monitoring in timber structures becomes a critical issue. Today, several solutions exist but they do not allow a local monitoring in the lamellas of glulam. Such a solution would improve the prediction of the service life of timber structures. In the light of this observation, we proposed to transform glulam into "smart material" by embedding a MC monitoring system in the lamellas, and this, considering the major constraints of fabrication of this material (small glue line thickness, important bonding pressure, etc.). To achieve this, we have conducted a bibliographic research, in order to select the monitoring methods which can satisfy these constraints. According to this research, two technologies turn out to be interesting: the electrical measurements and the ultrasonic measurements. Several measurement configurations were proposed and tested in this PhD work. Thereafter, we conducted preliminary tests to make sure of the good functionality of these measurement configurations, and also to verify the behavior of sensors throughout the glulam fabrication process. Afterwards, we moistened the specimens with two different moistening protocols in order to verify the feasibility of MC monitoring with embedded sensors. Results showed that all the measurement configurations are operational for the MC monitoring in glulam specimens. Moreover, for electrical measurements, our results show that we can adopt almost the same calibration models for the MC monitoring by resistive measurements, no matter the type of sensors used. Furthermore, it is possible to obtain complementary information by the realization of the resistive and capacitive measurements at the same time, using surface electrodes. Regarding the ultrasonic measurements, we have obtained the sensibility curves in frequency of several families of piezoelectric film sensors. On the other hand, the influence of bonding pressure and of sensor distance on the electrical/ultrasonic measurements was also investigated in this study. Future studies will consist in using these measurement configurations to perform in situ monitoring in timber structures, and also to establish a link between the durability of glulam structures and the wetting/drying cycles in order to predict the service life of timber structures.
142

Fabrication et caractérisations électriques de films minces pour les cellules solaires organiques / Fabrication and electrical characterizations of thin films for organic solar cells / Fabricação e caracterização elétrica de células solares a partir de filmes finos orgânicos

Braunger, Maria Luisa 19 June 2015 (has links)
Dans le domaine du photovoltaïque organique, il y a un effort continu pour améliorer l'efficacité des dispositifs. Afin d'atteindre cet objectif, il est nécessaire d'évaluer les caractéristiques qui influencent leur performance. Bien que les films minces de polymères conjugués (dérivés de polythiophène et polymères à faible bande interdite) aient été largementétudiés pour des applications dans des cellules photovoltaïques, peu d'études concernent l'influence de la nanostructuration des films dans de tels dispositifs. Dans ce contexte, l'objectif général de ce travail était d'analyser l'influence de la technique de dépôt de couches minces de dérivés de polythiophène dans des dispositifs photovoltaïques organiques. Le technique de dépôt de Langmuir-Schaefer (LS) a été comparée à celle de spin-coating, plus fréquente. Les films de polythiophène ont été caractérisés par des mesures de transport électrique (courant-tension, photoconductivité, voltampérométrie cyclique et spectroscopied'impédance), spectroscopies optique (UV-visible et fluorescence) et des techniquesmorphologiques (à force atomique et techniques de microscopie à angle de Brewster, etprofilométrie). A partir des mesures électriques à courant continu, il peut être observé que lesfilms LS sont plus conducteurs que ceux obtenus par spin-coating. D’un point de vuemorphologique, il s’avère que la technique de dépôt influence la performance du dispositifphotovoltaïque, en raison de l'organisation et de la nanostructuration fournies par la techniquede la LS. Une étude préliminaire a également été réalisée sur des films de polymères à faiblebande interdite à base de cyclopentadithiophène, réalisés par la technique de Langmuir-Blodgett. / In the area of organic photovoltaics, there is a continuous effort to improve the efficiency of the devices. In order to reach this goal, it is necessary to evaluate the characteristics that influence their performance. Although thin films of conjugated polymers (polythiophene derivatives and low bandgap polymers) have been widely investigated for applications in photovoltaic devices, few studies relate the influence of the nanostructuring of the films in such devices. In this context, the general objective of this work was to analyze the influence of deposition technique of thin films of polythiophene derivatives in organic photovoltaic devices. The Langmuir-Schaefer (LS) technique was compared to the more common spin-coating. The polythiophene films were characterized by electrical transport measurements (current vs. voltage, photoconductivity, cyclic voltammetry and impedance spectroscopy), optical spectroscopy (UV-visible and fluorescence) and morphologicaltechniques (atomic force and Brewster angle microscopies, and perfilometry). From the direct current electrical measurements, it could be observed that the LS films are more conducting than the spin-coating ones. From the morphologic point of view, the deposition technique revealed itself to influence on the photovoltaic device’s performance, due to the organization and nanostructuring provided by the LS technique. Preliminary studies were also undertaken on thin films made of low bandgap polymers based on cyclopentadithiophene by using the Langmuir-Blodgett technique. / Na área de fotovoltaicos orgânicos há um esforço contínuo no aumento da eficiência dos dispositivos. Para alcançar esse objetivo, é necessária a avaliação das características que influenciam seu desempenho. Embora filmes finos de polímeros conjugados (derivados do politiofeno e polímeros de baixo bandgap) tenham sido amplamente estudados para aplicação em dispositivos fotovoltaicos, são encontrados poucos estudos investigando a influência da nanoestruturação dos filmes nestes dispositivos. Dentro deste contexto, o objetivo geral deste trabalho foi analisar a influencia da técnica de deposição de filmes finos de derivados do politiofeno em um dispositivo fotovoltaico orgânico. Para isto utilizamos a técnica de Langmuir-Schaefer (LS) em comparação à técnica spin-coating comumente utilizada. Os filmes de politiofeno foram caracterizados por medidas de transporte elétrico (corrente vs. tensão, fotocondutividade, voltametria cíclica e espectroscopia de impedância), espectroscopia óptica (UV-visível e fluorescência) e técnicas morfológicas (microscopias de força atômica e de ângulo de Brewster, e perfilometria). Através das medidas elétricas em corrente contínua observou-se que os filmes LS apresentam maior condutividade elétrica quando comparados com filmes spin-coating. Do ponto de vista morfológico, a técnica de deposição utilizada mostrou ter influencia no desempenho do dispositivo fotovoltaico, devido à organização e nanoestruturação provida pela técnica LS. Estudos preliminares foram também realizados em filmes finos de polímeros de baixo bandgap baseados em ciclopentaditiofeno usando a técnica de Langmuir-Blodgett.
143

Kernel methods for flight data monitoring / Méthodes à noyau pour l'analyse de données de vols appliquées aux opérations aériennes

Chrysanthos, Nicolas 24 October 2014 (has links)
L'analyse de données de vols appliquée aux opérations aériennes ou "Flight Data Monitoring" (FDM), est le processus par lequel une compagnie aérienne recueille, analyse et traite de façon régulière les données enregistrées dans les avions, dans le but d'améliorer de façon globale la sécurité.L'objectif de cette thèse est d'élaborer dans le cadre des méthodes à noyau, des techniques pour la détection des vols atypiques qui présentent potentiellement des problèmes qui ne peuvent être trouvés en utilisant les méthodes classiques. Dans la première partie, nous proposons une nouvelle méthode pour la détection d'anomalies.Nous utilisons une nouvelle technique de réduction de dimension appelée analyse en entropie principale par noyau afin de concevoir une méthode qui est à la fois non supervisée et robuste.Dans la deuxième partie, nous résolvons le problème de la structure des données dans le domaine FDM.Tout d'abord, nous étendons la méthode pour prendre en compte les paramètres de différents types tels que continus, discrets ou angulaires.Ensuite, nous explorons des techniques permettant de prendre en compte l'aspect temporel des vols et proposons un nouveau noyau dans la famille des techniques de déformation de temps dynamique, et démontrons qu'il est plus rapide à calculer que les techniques concurrentes et est de plus défini positif.Nous illustrons notre approche avec des résultats prometteurs sur des données réelles des compagnies aériennes TAP et Transavia comprenant plusieurs centaines de vols / Flight Data Monitoring (FDM), is the process by which an airline routinely collects, processes, and analyses the data recorded in aircrafts with the goal of improving the overall safety or operational efficiency.The goal of this thesis is to investigate machine learning methods, and in particular kernel methods, for the detection of atypical flights that may present problems that cannot be found using traditional methods.Atypical flights may present safety of operational issues and thus need to be studied by an FDM expert.In the first part we propose a novel method for anomaly detection that is suited to the constraints of the field of FDM.We rely on a novel dimensionality reduction technique called kernel entropy component analysis to design a method which is both unsupervised and robust.In the second part we solve the most salient issue regarding the field of FDM, which is how the data is structured.Firstly, we extend the method to take into account parameters of diverse types such as continuous, discrete or angular.Secondly, we explore techniques to take into account the temporal aspect of flights and propose a new kernel in the family of dynamic time warping techniques, and demonstrate that it is faster to compute than competing techniques and is positive definite.We illustrate our approach with promising results on real world datasets from airlines TAP and Transavia comprising hundreds of flights
144

Identification à partir de mesures de champs : application de l'erreur en relation de comportement modifiée / Identification from full-field measurements : applying the modified constitutive relation error strategy

Ben Azzouna, Mouldi 12 July 2013 (has links)
La caractérisation des propriétés matérielles basée sur le dialogue essai-calcul requiert des précautions quant à la prise en compte des grandeurs physiques mises en jeu, aussi bien mesurées que calculées. Les mesures de champs cinématiques délivrent des informations qui permettent de rendre compte du comportement local du matériau et constituent une entrée riche pour ce type de dialogue axé sur la confrontation modèle - mesure. L’objet de ce travail est de discuter l’identification de propriétés élastiques homogènes ou hétérogènes, basée sur l’exploitation de mesures de champs, qui soulève la problématique de la prise en compte de mesures perturbées et d’hypothèses fortes de modélisation. Le but de cette étude est de discuter deux manières différentes pour aborder le problème. La première consiste à traiter les mesures en amont de l’étape d’identification, afin de filtrer les perturbations de mesures, et est basée sur l’outil d’approximation diffuse. La seconde consiste à développer une méthode d’identification inverse à partir d’essais quasi-statiques cherchant à tenir compte du caractère incertain des mesures, dès sa formulation, en utilisant l’ensemble des informations théoriques et expérimentales disponibles, en particulier en l’absence d’informations sur les conditions aux limites. Cette méthode est basée sur les principes de l’erreur en relation de comportement modifiée, amenant à résoudre des problèmes éléments finis non standards, et a conduit à mettre en œuvre des méthodes de résolution adaptées. L’étude a permis de souligner la robustesse de la méthode face aux incertitudes de mesure, notamment en comparaison avec le recalage par éléments finis. / The identification of material properties based on the confrontation between the experimental data and their numerical counterpart needs to pay special attention to their reliability and then to take some precautions. Especially, when dealing with full-field measurements which provide rich kinematic information enabling new possibilities for the characterization of material constitutive parameters. The aim of this work is to discuss the identification of the elastic parameters, for either homogeneous or heterogeneous materials, leading to the more general problem of the taking into account of noisy experimental data and strong model hypotheses. Two different approaches are addressed in this study. The first one consists in the processing of the experimental data upstream of the identification stage, by filtering them through a diffuse approximation algorithm. The second approach focuses on the development of an inverse identification strategy from static tests. This method takes into account the uncertainty of the measurements from the beginning of the formulation and is based on the modified constitutive relation error principles. It involves the resolution of non standard finite element problems using specific resolution methods. The study pointed out the robustness of the proposed method towards measurement errors, in particular when compared to the finite element model updating method.
145

Mesure d’impédance acoustique pour la caractérisation des cycles limites de moteurs thermoacoustiques / Acoustic impedance measurement to caracterize thermoacoustic engines limit cycles

Zorgnotti, Valentin 18 January 2019 (has links)
Ce manuscrit de doctorat propose une méthode expérimentale pour la caractérisation du cycle limite acoustique atteint par les auto-oscillations générées dans un moteur thermoacoustique.Pour cela, un capteur d'impédance fort niveau est développé dans le but de mesurer l'impédance d'entrée d'un noyau thermoacoustique en fonction de la puissance de chauffage fournie, de la fréquence et de l'amplitude du forçage acoustique.L'utilisation de ces mesures permet de prédire avec succès la génération spontanée d'auto-oscillations ainsi que leur saturation jusqu'à un régime établi, pour différentes charges attachées au noyau.Les mesures ainsi obtenues sont comparées à un modèle établi sur la base de la théorie linéaire de la thermoacoustique, couplé un modèle thermique simplifié, menant à une meilleure compréhension des processus physiques responsables de la saturation des oscillations acoustiques.La procédure expérimentale décrite dans ce manuscrit permet aussi de proposer une méthode d'optimisation du couplage entre la charge et le noyau de manière à maximiser l'efficacité potentielle de la conversion d'énergie thermoacoustique.Finalement, une méthode expérimentale est décrite et permet l'étude de la stabilité des cycles limites, ou plus généralement de l'évolution lente de l'amplitude des auto-oscillations acoustiques, dans le cas où le moteur thermoacoustique est configuré de manière à donner lieu à un régime de déclenchements et arrêts périodiques. / This manuscript deals with the experimental characterization of the acoustic limit cycle reached by self-sustained oscillations generated in thermoacoustic engines.A specially designed, high amplitude, acoustic impedance sensor was developed to perform measurements of the input impedance of a thermoacoustic core, as a function of the heating power supplied to the device, of the frequency, and of the amplitude of acoustic forcing.Those measurements can then be used to predict the spontaneous generation of acoustic oscillations and their saturation up to a certain steady-state.Those predictions were successful for various acoustic loads connected to the thermoacoustic core.Moreover, the measurements of acoustic impedance as a function of the amplitude of acoustic oscillations are compared to a model based on the linear thermoacoustic theory, and this comparaison provides insights into the processes controlling the saturation of acoustic oscillations.The experimental procedure described in this manuscript also leads to a pratical way of optimizing the coupling between the thermoacoustic core and the load, in the way that the potential efficiency of thermoacoustic energy conversion is maximized.Finally, an experimental method is described and allows to study the stability of limit cycles, i.e. the temporal evolution of the self-oscillation amplitude, in the case of a system that is able to give rise to a spontaneous periodic \textit{trigg and stop} behavior.
146

Development of a balanced scorecard as a strategic measurement system for the human resources function

Hansell, Louise 06 December 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / New economic realities are putting pressure on HR to widen its focus from the administrative role it has traditionally played, to a broader strategic role as a business partner. This transition has been difficult for many HR functions because in order to play a more strategic role, they have to measure their effectiveness. To date very few have met this challenge. There are many schools of thought on measuring the effectiveness of the HR function. Sorne authors propose a quantitative or a qualitative approach, while others propose a global approach. However, they all have limitations. An alternative approach is the Balanced Scorecard concept, which enables organizations to translate their strategy into a balanced set of metrics, combining qualitative and quantitative, and financial and non­financial metrics, helping the organization assess current and predict future performance. Therefore, the objective of this research has been to design a balanced scorecard for the Human Resources function as a potential approach to evaluating its effectiveness. Based on the literature, the research methodology focused on the design of a scorecard for a large international organization. First, the HR strategy for this organization was clarified and articulated into a series of cause and effect relationships, presented as tangible goals. To assess the performance of these strategic goals, measures were then selected and defined for each one, resulting in a feasible scorecard composed of 3 8 metrics. The scorecard is ready to implement as a strategic measurement system, enabling the Function' s effectiveness to be assessed over time. Due to the exploratory nature of this research, this application study will hopefully provide insight on the use of the balanced scorecard as an approach to evaluating the effectiveness of the HR function. In the current context facing HR functions, it is key that they find a way to evaluate their effectiveness that will support their evolution as business partners. / Les réalités économiques étant ce qu'elles sont, une forte pression est exercée sur la fonction ressources humaines (RH) afin d'élargir son horizon du rôle administratif traditionnel, à un rôle stratégique accru en tant que partenaire d'affaires. Cette transition a été difficile pour les fonctions RH car, afin d'assumer un rôle plus stratégique, elles se doivent de mesurer leur efficacité. À ce jour, très peu d'entre elles ont relevé ce défi. Il y a plusieurs écoles de pensées sur le sujet de la mesure de l'efficacité du rôle des RH. Certaines proposent une approche quantitative ou qualitative, alors que d'autres suggèrent une approche globale. Cependant, toutes ces approches accusent certaines limites. Le concept du Tableau de Bord Équilibré est une approche qui permet aux organisations de mettre sur pied leurs stratégies sous forme de mesures équilibrées, combinant mesures qualitatives et quantitatives, financières et non-financières, permettant ainsi à ces organisations d'évaluer les performances actuelles et d'anticiper les performances futures. En résumé, l'objectif de ce travail a été de concevoir un tableau de bord équilibré comme une approche susceptible de mesurer l'efficacité de la Fonction des Ressources Humaines. Basée sur la documentation existante, la méthodologie de recherche se concentre sur la création type d'un tableau de bord pour une organisation de taille internationale. D'abord, la stratégie des RH pour cette organisation a été exprimée et conçue en séries de relations de cause à effet, présentées sous forme d'objectifs tangibles. Pour évaluer la performance de ces objectifs stratégiques, des mesures précises furent sélectionnées et définies donnant comme résultat un tableau de bord réalisable composé de 38 mesures. Le tableau de bord est donc prêt à être mis en œuvre en tant que système de mesure stratégique, permettant ainsi d'évaluer l'efficacité de la Fonction au fil du temps. Ce travail étant de nature exploratoire, il est à prévoir que cette étude d'application fournira un modèle quand à l'utilisation du tableau de bord en tant que méthode d'évaluation de l'efficacité de la fonction RH. Face au contexte actuel, il est essentiel que les fonctions RH trouvent un moyen d'évaluer leur efficacité afin de supporter leur évolution en tant que partenaire d'affaires.
147

Utilisation de la blockchain pour les données médicales et le contrôle d'accès en e-Santé

Rezaei, Soroor 13 December 2023 (has links)
Les dossiers de santé électronique (DSE) sont critiques. Les données privées hautement sensibles dans les soins de santé doivent être fréquemment partagées entre les parties prenantes. La blockchain fournit un historique partagé, transparent et immuable de toutes les transactions pour établir des relations avec confiance, transparence et responsabilité. Il peut offrir une possibilité unique de développer un système de gestion et de partage des données de DSE fiables et sécurisé. La technologie de blockchain et les contrats intelligents pourraient aider dans des scénarios typiques liés à la gestion des données, à l'accès aux données et à l'interopérabilité des données. Une analyse complète et exploratoire du contrôle d'accès basé sur la blockchain a montré que la plupart des systèmes de contrôle actuels ne prennent pas en charge le contrôle d'accès à grain fin, ou se concentrent simplement sur d'autres facteurs, tels que la préservation de la vie privée et la sémantique des relations. Dans cet article, j'ai discuté de la nécessité d'un modèle de contrôle d'accès à granularité fine en ce qui concerne la confidentialité en utilisant des stratégies de contrôle d'accès basé sur les attributs, pour les dossiers de santé électroniques. La principale contribution est le cadrage des problèmes d'évolutivité, d'accessibilité et de confidentialité des données dans les soins de santé par une architecture intégrée basée sur la blockchain pour partager des données sécurisées entre les entités. / Health medical records (EHRs) are critical. Highly sensitive private data in healthcare require to be frequently shared among stakeholders. Blockchain provides a shared, transparent, and immutable history of all the transactions to build relationships with trust, transparency, and accountability. It can provide a unique possibility to develop a trustable and secure EHR data management and sharing system. Blockchain technology, and smart contracts, could help in typical scenarios correlated to data management, data access, and data interoperability. Comprehensive and exploratory analysis of blockchain-based access control has shown that most current control systems do not support fine-grained access control or just focus on other factors such as privacy preservation and relationship semantics. In this article, I discussed the need for a fine-grained access control model with respect to privacy by using Attribute-Based Access Control Policies for electronic health records. The main contribution is the framing of scalability, accessibility, and data privacy issues in healthcare by an integrated blockchain-based architecture to share secure data between entities.
148

Diagnostique optimal d'erreurs pour architecture de qubits à mesure faible et continue

Denhez, Gabrielle January 2011 (has links)
L'un des principaux obstacles pour construire un ordinateur quantique est la décohérence, laquelle limite grandement le temps alloué pour un calcul ainsi que la taille du système. Pour combattre la décohérence dans un système quantique, des protocoles de correction d'erreurs ont été proposés et semblent apporter une bonne solution à ce problème. Ces protocoles consistent à confiner l'information que contiennent les qubits dans un sous-espace nommé espace code. Après un certain temps d'évolution, on pose un diagnostic sur l'erreur qui s'est produite sur le système en effectuant des mesures indiquant s'il est toujours dans l'espace code où s'il a évolué vers un autre sous-espace. Pour que de tels protocoles soient efficaces, les mesures effectuées doivent en principe être rapides et projectives. Cependant, pour plusieurs architectures de qubits existantes, les mesures sont faibles et se font de façon continue. De plus, elles peuvent introduire elles-mêmes des erreurs dans le système. Ces caractéristiques de mesure rendent difficile le diagnostic de l'erreur tel qu'il est effectué traditionnellement. Aussi comme les mesures peuvent introduire des erreurs, il n'est pas certain que les protocoles de diagnostic d'erreur traditionnels soient utiles. Dans ce travail, on étudie l'utilité d'une mesure faible et continue dans un processus de correction d'erreurs. Cette étude s'est réalisée en deux volets. D'abord, on présente un protocole de correction d'erreur adapté aux architectures de qubits dont la mesure est faible et se fait de façon continue. On montre que ce protocole permet d'évaluer sous quelles conditions une mesure présentant ces caractéristiques peut aider à corriger des erreurs. Ensuite, on teste ce protocole de correction dans le cas particulier des qubits supraconducteurs. On établit sous quelles conditions la mesure sur ces qubits peut aider à diagnostiquer les erreurs et on étudie l'effet de différents paramètres expérimentaux dans ce contexte.
149

Modèles d'interpolation spatiale et spectrale, anti-crénelage et mesures de qualité

Horé, Alain January 2011 (has links)
Cette thèse à publications décrit plusieurs travaux en imagerie, aussi bien au niveau de l'acquisition des images que du post-traitement des images. Le premier concerne un algorithme de redimensionnement d'images dans lequel le pixel n'est pas considéré comme un point, mais comme une unité surfacique exprimée par une fonction mathématique. L'intensité d'un pixel est déterminée par interpolation à l'aide des outils du calcul intégral. Le deuxième travail concerne un autre algorithme de redimensionnement d'images dans lequel les dérivées de l'image sont mises à contribution pour augmenter le contraste et rehausser les hautes fréquences lors du processus de redimensionnement. Pour combiner l'image et ses dérivées, nous utilisons le théorème d'échantillonnage généralisé de Papoulis. Dans ce deuxième travail et dans la suite de la thèse, le pixel est considéré comme un point. Dans le troisième travail, nous proposons une équation de diffusion aux dérivées partielles afin de réduire le crénelage qui apparaît régulièrement dans de nombreux algorithmes de redimensionnement d'images. L'équation que nous proposons résulte d'un raffinement de l'équation de diffusion de la chaleur utilisée par Perona et Malik. Pour cela, nous introduisons la diffusivité inverse afin de réduire considérablement le crénelage sur les contours nets. Le rehaussement du contraste pendant le processus de diffusion se fait par l'intégration d'un filtre passe-haut, en l'occurrence le Laplacien, dans notre équation de diffusion. Un modèle de réduction efficace du crénelage sur les lignés, basé sur les valeurs propres de la matrice hessienne, est également proposé. Le quatrième travail est un algorithme de dématriçage (ou demosaïçage) permettant de reconstruire une image couleur à partir d'une image acquise par une matrice de filtres couleurs (color filter array, CFA). Sachant que dans un CFA une seule couleur primaire rouge, vert ou bleu est disponible à chaque position de pixel, nous proposons un modèle d'interpolation permettant d'estimer les couleurs manquantes à chaque position de pixel. Notre algorithme peut être utilisé pour divers modèles de CFA. Il s'inspire de l'algorithme de dématriçage universel de Lukac et al. et y apporte diverses améliorations. La première amélioration est la mise en oeuvre d'une détection de contours ou de zones uniformes dans une image acquise d'un CFA. La deuxième amélioration concerne l'utilisation complète du modèle de différence des couleurs, qui est un modèle bien connu dans les algorithmes de dématriçage. La troisième amélioration est l'utilisation d'un modèle d'interpolation spectrale permettant d'interpoler la couleur d'un pixel à l'aide de la couleur et de la position de ses voisins. Dans le cinquième et dernier travail, nous abordons une problématique liée à la qualité des images, notion importante en imagerie pour la validation des algorithmes et des modèles. Dans notre travail, nous faisons une étude analytique et expérimentale pour comparer le PSNR (Peak Signal-to-Noise Ratio) et le SSIM (Structural Similarity Index Measure), qui sont deux mesures de qualité largement utilisés en traitement d'images. L'étude analytique fait ressortir l'existence d'une relation de type logarithmique entre ces deux mesures. Les nombreux tests expérimentaux réalisés avec différentes images donnent davantage de précisions sur l'efficacité de ces deux mesures à évaluer la qualité des images ayant subi certaines dégradations ou traitements tels que la compression Jpeg, la compression Jpeg 2000, le flou gaussien ou le bruit additif gaussien.
150

Investigation des corrélations existant entre la perception de qualité audio et les réactions physiologiques d'un auditeur

Baudot, Matthias January 2010 (has links)
Les tests d'écoute subjectifs permettent d'évaluer la fiabilité de reproduction des systèmes de codage audio (codecs). Le projet présenté ici vise à évaluer la possibilité d'utiliser les réactions physiologiques (activité électrodermale, cardiaque, musculaire et cérébrale) à la place d'une note donnée par l'auditeur, afin de caractériser la performance d'un codec. Ceci permettrait d'avoir une méthode d'évaluation plus proche de la perception réelle de qualité audio du sujet. Des tests d'écoute mettant en oeuvre des dégradations audio bien connues en concours avec la mesure des réactions physiologiques ont été réalisés pour 4 auditeurs. L'analyse des résultats montre que certaines caractéristiques physiologiques permettent d'avoir une information fiable sur la qualité audio perçue, et ce de manière répétable pour près de 70% des signaux audio testés chez un sujet, et près de 60% des séquences audio testées chez tous les sujets. Ceci permet de postuler sur la faisabilité d'une telle méthode d'évaluation subjective des codecs audio.

Page generated in 0.0595 seconds