• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 384
  • 223
  • 80
  • 31
  • 17
  • 13
  • 10
  • 9
  • 8
  • 7
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 800
  • 199
  • 122
  • 90
  • 90
  • 89
  • 82
  • 79
  • 71
  • 68
  • 61
  • 57
  • 56
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
611

Study of long-term sustained operation of gaseous detectors for the high rate environment in CMS / Etude du fonctionnement à long terme de détecteur gazeux pour l'environnement à haut flux de CMS

Merlin, Jérémie 25 April 2016 (has links)
Le spectromètre à muons de CMS doit permettre l'identification rapide et efficace des muons produits lors des collisions proton-proton au LHC. Cependant, à cause d'un environnement de détection extrême, seules les chambres à pistes cathodiques équipent actuellement les bouchons de CMS. Cette faiblesse dans le système de détection pourrait devenir problématique après l'amélioration du LHC. L'augmentation du taux de particules dans les bouchons va dégrader les performances du système de déclenchement L1 ainsi que l'efficacité de sélection des phénomènes physiques intéressants. Le but du programme d'amélioration de CMS est de maintenir le taux de déclenchement L1 tout en gardant une efficacité de sélection maximale. La collaboration CMS GEM propose d'équiper les régions vacantes des bouchons avec des détecteurs basés sur la technologie d'amplification des électrons dans un gaz (GEM), appelés GE1/1. Le sujet de thèse proposé par la collaboration CMS GEM a pour but de justifier le choix de la technologie GEM pour l'amélioration de CMS. Trois projets ont été suivis pendant la thèse. La première partie du projet de thèse consistait à mesurer précisément les caractéristiques fondamentales et les performances de détection des détecteurs triple-GEM produit par la technique simple-masque. Ces éléments sont essentiels pour s'assurer que les détecteurs GE1/1 pourront fonctionner en toute sécurité dans l'environnement des bouchons de CMS. Le deuxième projet consistait à prouver que les excellentes performances des détecteurs GE1/1 ne vont pas se dégrader pendant leur utilisation dans CMS. Cette étape comprend l'étude du fonctionnement à long terme des détecteurs GE1/1, en particulier le phénomène de vieillissement, qui inclue tous les processus physiques et chimiques qui provoquent la dégradation graduelle et permanente des performances de détection. Plusieurs tests de vieillissement ont été menés dans des zones d'irradiations spécifiques au CERN pour reproduire un minimum de 10 ans de fonctionnement réel dans l'environnement de CMS après la montée en puissance du LHC. Enfin, les excellentes propriétés mesurées lors de la phase de R&D ont permis de valider la technologie triple-GEM, qui fut ensuite approuvée par la collaboration CMS et le comité du LHC. La production de 144 grands détecteurs GE1/1 sera partagée entre différents sites de production à travers le monde. Le troisième projet de thèse fut donc le développement des principales étapes du contrôle qualité nécessaire pour assurer une production uniforme et une même qualité pour tous les détecteurs GE1/1. / The muon system of CMS aims to provide an efficient and fast identification of the muons produced in the proton-proton collisions. However, the forward region of the end-caps is only instrumented with Cathode Strip Chambers. This lack of redundancy will be problematic after the high-luminosity upgrade of the LHC (HL-LHC), for which the increase of the background rate would degrade the Level-1 trigger performance and thus the selection of interesting physics channels. The goal of the CMS muon upgrade is to maintain the L1 trigger rate with maximum selection efficiency in order to fully exploit the HL-LHC. The CMS GEM Collaboration has proposed to instrument the vacant highetaregion of the muon end-caps with Gas Electron Multiplier (GEM) detectors, called GE1/1chambers.The Ph.D. subject proposed by the CMS GEM Collaboration aims to demonstrate that the GE1/1technology is the most suitable choice for the upgrade of the muon end-caps. Three main researchprojects were conducted in this context. The first project included the precise measurement of the fundamental characteristics and the detection performance of the triple-GEM detectors produced with the single-mask technique. Those characteristics are essential to ensure that the detectors can operate in the forward region of CMS. The second project was focused on the long-term operation of GE1/1 detectors, in particular the study of the aging phenomenon, which includes all the processes that lead to a significant and permanent degradation of the performance of the detectors. Several aging tests were performed at the CERN irradiation facilities to prove that the GE1/1 chambers can operate during at least 10 yearsat HL-LHC without suffering from performance losses. The excellent properties measured during the R&D phase led to the approval of the GE1/1 project by the CMS Collaboration. The third project, conducted in the framework of the mass production,consisted of developing of the main steps of the Quality Control of the GE1/1 chambers.
612

Stratégie Lean and Green : roadmap d'analyse et de déploiement d'une politique de management alliant amélioration continue et développement durable en entreprise industrielle / Lean and Green strategy : analysis and deployment roadmap for a management policy associating continuous improvement and sustainable development in manufacturing industries

Verrier, Brunilde 22 June 2015 (has links)
Ces travaux de thèse s’intéressent à l’association des performances industrielles et environnementales avec une démarche d’amélioration continue orientée vers le développement durable et ciblent l’élimination conjointe des « gaspillages » Lean et Green dans les processus de fabrication. La problématique majeure réside dans la mise en place des outils L&G au sein d’entreprises manufacturières possédant des processus et caractéristiques culturelles variés. Basés sur une analyse suivie de l’état de l’art et d’enquêtes de bonnes pratiques, les travaux de recherche incluent plusieurs évaluations et observations sur sites industriels. La mise au point d’une roadmap de déploiement adaptable, mettant en valeur les aspects sociaux par le biais de l’implication et de la valorisation des employés, est ainsi complétée par un modèle de sélection d’indicateurs environnementaux, une « Maison du L&G » et un modèle de maturité particularisé pour le niveau d’implémentation de la stratégie. / This thesis addresses the association of industrial and environmental performances with a continuous improvement approach oriented toward sustainable development, and particularly seeks for the identification and elimination of Lean and Green “wastes” in manufacturing processes. The major issue lies in the deployment of L&G tools within manufacturing firms with various processes and cultural characteristics. Based upon a thorough state of the art and industrial surveys on best practices, the research includes several assessments and observations on manufacturing sites. The development of an adaptable roadmap of deployment highlighting social concerns through the involvement of employees in improvements is therefore completed with a selection model of environmental indicators, a “L&G House” and a maturity model for the strategy’s implementation.
613

Les interprètes face à la Sonate en si mineur de Liszt / The pianists in front of Liszt's Sonata in B minor

Tsekova-Zapponi, Daniela 10 September 2015 (has links)
Notre recherche porte sur une analyse comparative des interprétations de la Sonate en si mineur de Liszt. Nous avons analysé vingt-cinq enregistrements de pianistes regroupés en cinq écoles :hongroise, française, russe, américaine et allemande. Nous avons comparé les déviations des interprètes par rapport à la partition et les divergences entre les différentes interprétations, en sélectionnant sept paramètres qui nous ont permis de caractériser chaque interprétation. Une double analyse a été effectuée : « à l'oreille » et à l'aide d'un logiciel informatique. Notre recherche a démontré l'importance de plusieurs facteurs d'influence complémentaires : l'enseignement reçu, l'époque où l'on vit et l'on crée, le tempérament et l'individualité artistique. Au terme de notre recherche, nous avons démontré l'existence de spécificités qui se manifestent au sein de chacune des écoles pianistiques nationales, et également de particularités caractérisant le mode de jeu des différentes générations. / Our research focuses a comparative analysis of the performances of Liszt's Sonata in b minor. We analysed twenty-five recordings by pianists grouped into five piano schools : Hungarian, French, Russian, American and German. We compared the deviations of the performers from the score and the differences between the individual performances, based on a selection of seven parameters that allowed us to characterise each of them. A double analysis was made: "by ear" and with the aid of acomputer. Our research has shown the importance of several complementary factors of influence : education, the period during which the pianists lived and created, the artists' temperaments and their artistic individualities. At the end of our research, we demonstrated the existence of specific features within each of the national piano schools, and also of some features that characterise the performing style of each generation.
614

Ethanol et épigénétique : conséquences neuroplastiques et fonctionnelles chez la souris / Ethanol and epigenetic : neuroplastic and functional consequences in mice

Stragier, Emilien 11 July 2014 (has links)
La consommation chronique et excessive d’éthanol provoque des modifications neurobiologiques adaptatives. Les mécanismes qui les contrôlent sont multiples et certains ont été reliés à des régulations épigénétiques conduisant à des modifications structurelles et fonctionnelles. L’éthanol induit également une neurodégénérescence de l’hippocampe responsable de déficits cognitifs. Parmi l’ensemble des modèles animaux qui sont utilisés pour étudier les effets d’une consommation chronique d’alcool, figurent les souris de la lignée C57BL/6J. Ces souris possèdent une appétence naturelle pour l’éthanol faisant d’elles un modèle de choix pour étudier les conséquences de la consommation chronique d’éthanol. Le but de ce travail de thèse a été d’étudier les relations entre les mécanismes épigénétiques et la modulation de la neuroplasticité de l’hippocampe à la suite d’une consommation chronique d’éthanol chez les souris C57BL/6J, et d’en évaluer les conséquences comportementales. Nous avons montré que la consommation chronique d’éthanol induit, au niveau de l’hippocampe, des modulations épigénétiques globales corrélées à un remodelage chromatinien au sein du gène du BDNF, impliquant à la fois les modifications post-traductionnelles des histones et la méthylation de l’ADN. Ces modifications épigénétiques sont certainement responsables de l’augmentation d’expression protéique du BDNF observée dans l’hippocampe, et plus particulièrement dans le gyrus denté, après 3 semaines de consommation chronique d’éthanol en libre choix. L’accroissement de l’expression du BDNF induit une stimulation des voies de la signalisation intracellulaire dépendantes de l’activation du récepteur TrkB du BDNF, et une augmentation de la neurogenèse du gyrus denté. Les effets de l’antagoniste spécifique du récepteur TrkB, ANA 12, démontrent que l’augmentation de la neurogenèse observée chez les souris C57BL/6J après la prise chronique d’éthanol, est sous le contrôle unique du complexe BDNF/TrkB. L’analyse comportementale des souris C57BL/6J ayant consommé de l’éthanol, montre une détérioration des capacités d’apprentissage et de mémoire sans modification de la plasticité synaptique dans l’hippocampe, suggérant ainsi que d’autres mécanismes sont impliqués dans ces déficits cognitifs. L’ensemble de ces données apporte de nouveaux éléments de compréhension concernant la stimulation de la neurogenèse hippocampique chez les souris C57BL/6J lors d’une consommation chronique en libre choix d’éthanol. Il est probable que cette apparente augmentation de plasticité soit un mécanisme adaptatif et compensatoire à la détérioration des fonctions cognitives induite par une consommation chronique d’alcool. / Chronic and excessive ethanol consumption triggers neurobiological adaptations within the central nervous system, which are responsible for the development of an addiction. Ethanol induces adaptive mechanisms linked to epigenetic regulations leading to functional and structural changes, and also provokes a neurodegeneration responsible for the cognitive deficits observed in alcohol abusers. Among the different animal models available for studying the effects of chronic ethanol consumption, C57BL/6J mice are among the most relevant. These mice display high ethanol preference, making them a good model for studying the consequences of chronic and free-choice ethanol consumption. The purpose of this work was to study the links between epigenetic mechanisms and hippocampal neuroplasticity and to evaluate the behavioural consequences induced by chronic ethanol consumption in C57BL/6J mice. We showed that, in the hippocampus, chronic ethanol consumption induced global epigenetic modulations that were correlated with chromatin remodelling at the BDNF gene level. These effects involved post-translational histone modifications and DNA methylation. Epigenetic changes at the BDNF gene level probably allowed the increase in BDNF protein expression observed within the hippocampal dentate gyrus in mice having consumed ethanol for 3 weeks. Upregulation of BDNF expression was linked to both the stimulation of intracellular cascades downstream BDNF/TrkB receptor activation, and the increase in neurogenesis within the dentate gyrus. Using a specific TrkB receptor antagonist, ANA-12, we demonstrated that the hippocampal neurogenesis induced by chronic ethanol intake was under the control of BDNF. Behavioural analysis evidenced learning and memory impairments after ethanol consumption without synaptic plasticity alteration within the hippocampus, suggesting the involvement of other mechanisms in the cognitive deficits. Altogether, these data bring new elements for understanding the hippocampal neurogenesis stimulation observed under chronic and voluntary ethanol consumption in C57BL/6J mice. Moreover, this apparent increase in plasticity might probably be considered as an adaptive and compensatory mechanism in response to the cognitive deficits induced by ethanol consumption.
615

Influence du revêtement sur le comportement en fatigue des dalles orthotropes : étude d'une solution en BFUP / Influence of topping layer on fatigue behaviour of orthotropic steel bridge deck : study of an UHPFRC solution

Gomes, Fernanda 09 November 2012 (has links)
Les tabliers métalliques à dalle orthotrope sont sensibles au phénomène de fatigue produit par les charges des poids lourds du trafic. Ce comportement n'est pas précisément prédit avec les méthodes de l'Eurocode 3, compte tenu de la complexité des effets locaux et de la connaissance insuffisante du rôle mécanique du revêtement (diffusion des charges et participation à la flexion locale). De plus l'augmentation du trafic des camions et éventuellement celle des charges admissibles par essieu en Europe tend à rendre ce problème bien plus critique. Le renforcement de ces tabliers est donc souhaitable de façon à prolonger la durée de vie des ponts existants, et aussi augmenter la durabilité des nouveaux ponts. Le béton fibré à ultra hautes performances (BFUP) a été envisagé comme nouvelle solution de revêtement, étant donné ses propriétés mécaniques, ses possibilités de mise en œuvre et sa durabilité. L'objectif de cette thèse, réalisée dans le cadre du projet ANR Orthoplus, est de quantifier expérimentalement l'apport des revêtements couramment utilisés dans les structures à dalle orthotrope et de valider la solution innovante en BFUP. Des essais statiques et dynamiques sur corps d'épreuve à grande échelle (2,40x4,00) m2 ont été réalisés sur la plate-forme d'essai des structures de l'IFSTTAR. Quatre corps d'épreuve ont été testés : tôle de platelage de 14 mm non revêtue et revêtue de 80 mm de béton bitumineux, tôle de 10 mm revêtue de 35 mm de BFUP et tôle de 12 mm revêtue de 35 mm de BFUP. L'influence des différents types de chargement positionnés au centre des corps d'épreuve a été analysée : plaques métalliques type Eurocode 1 et vraies roues de camion. L'étude a porté sur le détail de fatigue: liaison auget-tôle de platelage entre pièces de pont. La contrainte géométrique de fatigue (extrapolation au point chaud) a été évaluée expérimentalement en utilisant deux schémas d'extrapolation linéaire des déformations à proximité du cordon de soudure du détail étudié, le schéma du rapport CECA et celui proposé par l'Institut International de Soudure, à partir des mesures réalisées au-dessous de la tôle de platelage (σT) et sur l'âme de l'auget (σA).La cohérence entre estimation quasi-statique des déformations et comportement sous cycles de fatigue a été vérifiée, ainsi que la rigidification importante apportée par le BFUP, bien que ce dernier ne participe pas avec une connexion totale. Les résultats expérimentaux ont été confrontés à des modèles de différents niveaux de complexité qu'il reste nécessaire de calibrer empiriquement pour prévoir les contraintes géométriques. A partir des contraintes de fatigue obtenues expérimentalement, nous avons calculé la durée de vie des dalles orthotropes testés à l'aide de la règle du cumul linéaire de l'endommagement. Enfin nous avons mené une étude par analyse de cycle de vie d'un pont à dalle orthotrope pour vérifier la pertinence environnementale des différentes solutions de revêtement. Les nombreuses données expérimentales acquises dans ce travail sont de nature à permettre une amélioration significative du dimensionnement rationnel des tabliers à dalle orthotrope et de leur revêtement pour une meilleure prise en compte de leur gestion durable / Orthotropic steel bridge decks are sensitive to fatigue damage induced by live heavy traffic loads. This behaviour is not precisely predicted by Eurocode 3, because of the complexity of local effects. The pavement overlay is not taken into account for calculating the fatigue resistance because of the lack of knowledge concerning its mechanical behaviour (loads diffusion and participation in the local deflection) and the behaviour of the composite structure. Moreover, the increase in heavy traffic and potential regulations evolution in Europe – towards an increase of acceptable loads of truck axles - tend to render the orthotropic decks fatigue behaviour an even more critical issue. The reinforcement of these steel decks is therefore crucial to extend the service life of existing bridges, and also increase the durability of new bridges. Ultra-high performance fibre-reinforced concrete (UHPFRC) has been chosen as a possible alternative topping layer considering its remarkable durability, flowability and mechanical properties. The purpose of this thesis, carried out within the framework of a joint R&D project called Orthoplus, is to quantify experimentally the mechanical contribution of topping layers currently used in orthotropic steel bridge decks and validate an alternative concept using UHPFRC coating. Static and dynamic tests of large scale panels (2,40x4,00) m2 were carried out at the IFSTTAR Structures Laboratory. Four prototypes have been tested: a 14 mm thick deck plate without surfacing, the same deck plate associated with 80 mm of bituminous concrete surfacing, a 10 mm thick deck plate topped with 35 mm of UHPFRC and a panel with the same UHPFRC topping layer and a 12 mm thick deck plate. The influence of different centered load types and configurations has been analyzed: rectangular steel plates according to Eurocode 1 and real truck wheels. The experimental programme has been focused on the rib-to-deck welded joints at mid-span between two transverse crossbeams. The fatigue geometrical stresses in the deck and the trough, respectively denoted as σD and σT, have been derived from two linear extrapolations of measured strains next to the toe of the welded joint: the extrapolation schemes from the ECSC report and from the IIW document. Consistency between quasi static strains and deflections estimate and behaviour under fatigue cycles has been verified, as well as the significant additional stiffness provided by the UHPFRC overlay, although its contribution does not correspond to a perfectly connected composite section. The experimental results have been compared to simple and more complex models which still need empirical calibration for predicting the geometrical stresses. Using the experimentally obtained fatigue geometrical stresses the service life of the tested prototypes were calculated using Miner's rule. Finally a life cycle assessment study of an orthotropic steel bridge deck was carried out to verify the environmental relevance of the alternative topping layer solutions. The numerous experimental data obtained from this work shall make it possible to significantly improve the rational design method of orthotropic slabs and their associated deck overlay, in view of a better accounting of their long term and sustainable structural management
616

Shear strength of structural elements in high performance fibre reinforced concrete (HPFRC) / Comportement au cisaillement d'éléments de structures en béton fibré à hautes performances (BFHP)

Moreillon, Lionel 19 March 2013 (has links)
Pour les poutres et les dalles ne comportant pas d'armatures de cisaillement, la résistance à l'effort tranchant ou au poinçonnement est souvent un critère important de dimensionnement. Ce type de rupture est caractérisé par un comportement fragile pouvant conduire à l'effondrement partiel voir total de la structure. Malgré de nombreuse recherche dans ce domaine, la résistance à l'effort tranchant et au poinçonnement des structure en béton armé ou précontraint demeure un phénomène complexe et dont l'approche normative est souvent empirique est simplifiée. La capacité des bétons renforcés de fibres métalliques à réduire voir à remplacer totalement les armatures de cisaillement des structures en béton armé et précontraint a été mis en évidence par plusieurs études expérimentales. Cependant, et malgré ses nombreux atouts, l'application à l'échelle industrielle des bétons de fibres est restée marginal, principalement due au manques d'un cadre normatif cohérent et reconnu. Les processus fixes d'une usine de préfabrication d'éléments en béton offre des possibilités optimales pour utiliser des matériaux cimentaires à hautes performances tel que les bétons autoplaçant, les bétons à hautes résistances, etc. Du point de vue de l'auteur, l'utilisation de bétons à hautes performances renforcés de fibres métalliques est le pas de développement et d'optimisation pour cette industrie. Les Bétons Fibrés à Hautes Performances (BFHP) reprennent une matrice similaire aux Bétons à Hautes Performances (BHP) auxquels est ajouté une certaine quantité de fibres métalliques conférant au matériau un comportement au niveau de la structure exploitable dans le dimensionnement. Les BFHP présentent un ratio résistances/coûts intéressant ainsi qu'une alternative au Béton Fibré Ultra-Performants (BFUP). L'objectif principal de ce travail est d'analyser le comportement au cisaillement et au poinçonnement d'éléments de structures en BFHP et en BFUP sans armatures de cisaillement et proposé des recommandations et des règles de dimensionnement adaptées aux ingénieurs de la pratique (…) / For members and flat slabs without shear reinforcement, the shear and punching shear strength are often the determining design criteria. These failure modes are characterized by a fragile behaviour implying possible partial or total collapse of the structure. Despite extensive research in this field, shear and punching shear in reinforced and prestressed concrete structures, remain complex phenomena so much that the current approach is often empirical or simplified. The ability of Steel Fibre Reinforced Concrete (SFRC) to reduce shear reinforcement in reinforced and prestressed concrete members and slabs,or even eliminate it, is supported by several experimental studies. However its practical application remains marginal mainly due to the lack of standard, procedures and rules adapted to its performance. The stationary processes in precast industry offer optimal possibilities for using high performance cementitious materials such as Self Compacting Concrete (SCC) and High Strength Concrete (HSC). For the author, the combination of High Performance Concrete and steel fibres is the following step in the development and the optimization of this industry. The High Performance Fibre Reinforced Concrete (HPFRC) stands between conventional SFRC and Ultra-High Performance Fibre Reinforced Concrete (UHPFRC). The HPFRC exhibiting a good strength/cost ratio is, thus, an alternative of UHPFRC for precast elements. The principal aim of this work was to analyse the shear and punching shear behaviour of HPFRC and UHPFRC structures without transversal reinforcement and to propose recommendations and design models adapted for practitioners. Several experimental studies on structural elements, i.e. beams and slabs, were undertaken for this purpose. Firstly, an original experimental campaign was performed on pre-tensioned members in HPFRC. A total number of six shear-critical beams of a 3.6 m span each, and two full scale beams of a 12 m span each, were tested in order to evaluate the shear and flexural strength. The principal parameter between the specimens was the fibres (…)
617

Anatomy of the SIFT method / L'Anatomie de la méthode SIFT

Rey Otero, Ives 26 September 2015 (has links)
Cette thèse est une analyse approfondie de la méthode SIFT, la méthode de comparaison d'images la plus populaire. En proposant un échantillonnage du scale-space Gaussien, elle est aussi la première méthode à mettre en pratique la théorie scale-space et faire usage de ses propriétés d'invariance aux changements d'échelles.SIFT associe à une image un ensemble de descripteurs invariants aux changements d'échelle, invariants à la rotation et à la translation. Les descripteurs de différentes images peuvent être comparés afin de mettre en correspondance les images. Compte tenu de ses nombreuses applications et ses innombrables variantes, étudier un algorithme publié il y a une décennie pourrait surprendre. Il apparaît néanmoins que peu a été fait pour réellement comprendre cet algorithme majeur et établir de façon rigoureuse dans quelle mesure il peut être amélioré pour des applications de haute précision. Cette étude se découpe en quatre parties. Le calcul exact du scale-space Gaussien, qui est au cœur de la méthode SIFT et de la plupart de ses compétiteurs, est l'objet de la première partie.La deuxième partie est une dissection méticuleuse de la longue chaîne de transformations qui constitue la méthode SIFT. Chaque paramètre y est documenté et son influence analysée. Cette dissection est aussi associé à une publication en ligne de l'algorithme. La description détaillée s'accompagne d'un code en C ainsi que d'une plateforme de démonstration permettant l'analyse par le lecteur de l'influence de chaque paramètre. Dans la troisième partie, nous définissons un cadre d'analyse expérimental exact dans le but de vérifier que la méthode SIFT détecte de façon fiable et stable les extrema du scale-space continue à partir de la grille discrète. En découlent des conclusions pratiques sur le bon échantillonnage du scale-space Gaussien ainsi que sur les stratégies de filtrage de points instables. Ce même cadre expérimental est utilisé dans l'analyse de l'influence de perturbations dans l'image (aliasing, bruit, flou). Cette analyse démontre que la marge d'amélioration est réduite pour la méthode SIFT ainsi que pour toutes ses variantes s'appuyant sur le scale-space pour extraire des points d'intérêt. L'analyse démontre qu'un suréchantillonnage du scale-space permet d'améliorer l'extraction d'extrema et que se restreindre aux échelles élevées améliore la robustesse aux perturbations de l'image.La dernière partie porte sur l'évaluation des performances de détecteurs de points. La métrique de performance la plus généralement utilisée est la répétabilité. Nous démontrons que cette métrique souffre pourtant d'un biais et qu'elle favorise les méthodes générant des détections redondantes. Afin d'éliminer ce biais, nous proposons une variante qui prend en considération la répartition spatiale des détections. A l'aide de cette correction nous réévaluons l'état de l'art et montrons que, une fois la redondance des détections prise en compte, la méthode SIFT est meilleure que nombre de ses variantes les plus modernes. / This dissertation contributes to an in-depth analysis of the SIFT method. SIFT is the most popular and the first efficient image comparison model. SIFT is also the first method to propose a practical scale-space sampling and to put in practice the theoretical scale invariance in scale space. It associates with each image a list of scale invariant (also rotation and translation invariant) features which can be used for comparison with other images. Because after SIFT feature detectors have been used in countless image processing applications, and because of an intimidating number of variants, studying an algorithm that was published more than a decade ago may be surprising. It seems however that not much has been done to really understand this central algorithm and to find out exactly what improvements we can hope for on the matter of reliable image matching methods. Our analysis of the SIFT algorithm is organized as follows. We focus first on the exact computation of the Gaussian scale-space which is at the heart of SIFT as well as most of its competitors. We provide a meticulous dissection of the complex chain of transformations that form the SIFT method and a presentation of every design parameter from the extraction of invariant keypoints to the computation of feature vectors. Using this documented implementation permitting to vary all of its own parameters, we define a rigorous simulation framework to find out if the scale-space features are indeed correctly detected by SIFT, and which sampling parameters influence the stability of extracted keypoints. This analysis is extended to see the influence of other crucial perturbations, such as errors on the amount of blur, aliasing and noise. This analysis demonstrates that, despite the fact that numerous methods claim to outperform the SIFT method, there is in fact limited room for improvement in methods that extract keypoints from a scale-space. The comparison of many detectors proposed in SIFT competitors is the subject of the last part of this thesis. The performance analysis of local feature detectors has been mainly based on the repeatability criterion. We show that this popular criterion is biased toward methods producing redundant (overlapping) descriptors. We therefore propose an amended evaluation metric and use it to revisit a classic benchmark. For the amended repeatability criterion, SIFT is shown to outperform most of its more recent competitors. This last fact corroborates the unabating interest in SIFT and the necessity of a thorough scrutiny of this method.
618

Optimisation fiabiliste des performances énergétiques des bâtiments / Reliability based optimization of energetic performances of buildings

Aïssani, Amina 14 March 2016 (has links)
Dans un contexte de forte compétitivité économique et de respect de l’environnement, de nombreuses actions sont entreprises chaque année dans le but d’améliorer la performance énergétique des bâtiments. En phase de conception, le recours à la simulation permet d’évaluer les différentes alternatives au regard de la performance énergétique et du confort des occupants et constitue ainsi un outil d’aide à la décision incontournable. Toutefois, il est courant d’observer des écarts entre les performances énergétiques réelles et celles prévues lors de la conception. Cette thèse porte sur l’amélioration du processus de conception de l’isolation dans le but de limiter les déviations des consommations réelles par rapport à celles prévues lors des simulations. Dans un premier temps, nous situons le contexte énergétique actuel puis nous présentons les différentes sources d’incertitudes qui affectent les résultats des simulations. Dans ce travail, nous nous intéressons particulièrement à la variabilité des propriétés thermophysiques des isolants, au caractère variable de la mise en œuvre et à l’impact du changement climatique. Des études expérimentales ont permis de quantifier l’incertitude associée à la performance des matériaux sains d’une part, et celle associée à des isolants défectueux d’autre part. Un couplage entre des techniques de thermographie infrarouge et des modèles éléments finis ont permis de proposer des modèles paramétriques permettant d’évaluer la performance effective d’un isolant défectueux, en fonction du type et de la taille du défaut dans l’isolant. Pour une bonne estimation à long terme de la performance de l’isolation, il est nécessaire d’intégrer les prévisions météorologiques. Ces dernières sont généralement estimées sur la base des données historiques de la région. Toutefois, il est encore difficile de prévoir avec exactitude l’évolution climatique car elle dépend de nombreux facteurs socio-économiques, démographiques et environnementaux. Dans ce travail, nous proposons de considérer les différents scénarios climatiques proposés par les climatologues et de prendre en compte leur variabilité de manière à vérifier la fiabilité de l’isolation. Enfin, nous proposons d’utiliser des approches probabilistes pour intégrer ces différents types d’incertitudes dans le processus de simulation. Pour optimiser le dimensionnement de l’isolation, nous proposons une méthodologie de conception basée sur la fiabilité. Un nouveau modèle de coût est également proposé dans le but d’améliorer l’aide à la décision, en considérant les pertes indirectes, jusqu’à présent négligées dans la conception. / In the context of growing world energy demand and environmental degradation, many actions are undertaken each year to improve the energy performance of buildings. During the design stage, the use of building energy simulations remains a valuable tool as it evaluates the possible options in terms of energy performance and comfort. However, as precision requirements increase, it becomes essential to assess the uncertainties associated with input data in simulation. This thesis focuses on the insulation design process under uncertainty, in order to limit gaps between real and predicted performance for better control of energy consumptions. This work firstly presents the current alarming energy context. We consider the main uncertainties that affect the insulation, mainly the variability of the thermophysical properties, the uncertainty on climate and the uncertainties due to workmanship defects. Experimental studies were carried out to evaluate the uncertainty associated to the intrinsic performance of healthy insulation materials on one hand, and those associated to defects in insulations on the other hand. A coupling between thermography techniques and finite element models was used to provide analytical models that assess the effective thermal performance of a defective insulation, according to the type and size of the defect. As the performance of insulation also depends on climate, it is necessary to integrate future weather data to evaluate the energy consumption. These weather data are generally estimated based on the historical climatic data of the region. However, it is still difficult to predict climate change as it depends on many uncontrollable factors. In this work, we consider the different climate scenarios proposed by climate expert groups, and the uncertainty associated to each scenario to evaluate the reliability of the insulation and to improve the decision making process. Finally, we propose a probabilistic approach to integrate uncertainties in simulation and an optimization methodology based on reliability. A new cost formulation is also proposed to improve the decision-making, through indirect losses related to comfort, pollution and living space losses.
619

Comparaisons entre groupes, anonymat, et performances cognitives : expérimentations dans les environnements numériques et en coprésence / intergroup comparison, anonymity, and cognitive performance : experiments in a web-based learning environment and in the presence of others

Le Hénaff, Benjamin 20 June 2016 (has links)
L’objectif de cette thèse est d’étudier comment l’identification à un groupe peut conduire à de meilleures performances cognitives en s’appuyant sur la théorie de l’identité sociale (Tajfel & Turner, 1986). Cette théorie avance que l’identité sociale d’un individu repose en partie sur la comparaison entre son groupe d’appartenance et un autre groupe. La quête d’une identité sociale positive pousserait l’individu à agir pour le bien de son groupe afin de se placer dans une position avantageuse par rapport à un autre groupe. Le modèle SIDE (Social Identity model of Deindividuation Effects, Reicher, Spears & Postmes, 1995) a étendu cette théorie en considérant que l’anonymat facilite le passage de l’identité personnelle à l’identité sociale et la renforce. Notre recherche a été déclinée en trois axes. Les deux premiers ont examiné l’effet de l’anonymat et de la comparaison entre groupes sur les performances à des exercices d’informatique et de statistiques réalisés en environnements numériques. Le dernier axe a étudié les effets de l’anonymat et de la comparaison entre groupes à une tâche de production d’idées créatives en situation de coprésence. Conformément aux prédictions du modèle SIDE, les résultats ont montré que la comparaison intergroupe en situation d’anonymat active l’identité sociale des membres d’un groupe et les conduits à avoir de meilleures performances à des tâches cognitives. De plus, nous avons mis en évidence que des différences individuelles, comme le niveau de connaissances antérieures, viennent modérer les effets du modèle SIDE. Les implications pratiques et théoriques de ces résultats sont discutées, et des pistes de recherches futures sont proposées. / The aim of this thesis is to study how group identification may lead to better cognitive performance, based on social identity theory (Tajfel & Turner, 1986). This theory states that the social identity of individuals is partly based on comparison of their group with another group. The search for a positive social identity should drive individuals to act on behalf of their own group, putting them in an advantageous position compared to another group. The SIDE Model (Social Identity model of Deindividuation Effects, Reicher, Spears & Postmes, 1995) extends this theory by postulating that anonymity could facilitate the transition from personal to social identity, which is reinforced in the process. Our study was organized along three lines of research. The first two examined how anonymity and intergroup comparison affects performance on computer quizzes and statistics exercises in a web-based learning environment. The third studied the effects of anonymity and intergroup comparison on the generation of creative ideas in the presence of others. Consistent with the SIDE Model, we found that intergroup comparison under anonymity conditions activated group members’ social identity, leading to better performance on cognitive tasks. We also found that individual differences, such as prior knowledge, may moderate the effects of the SIDE model. The practical and theoretical implications of these results are discussed, and future research directions are suggested.
620

Performing Historical Narrative at the Canadian War Museum: Space, Objects and Bodies as Performers

Beattie, Ashlee E. January 2011 (has links)
This thesis explores the symmetry between theatres and museums, and investigates how a museum experience is similar to a theatrical event. Particularly, this project examines how the Canadian War Museum performs historical narrative through its use of three performative elements of a theatre production: space, objects and actor’s body. Firstly, this thesis analyses how creating a historical narrative is similar to fiction writing and play writing. It follows the argument of Hayden White and Michel de Certeau who recognize a historical narrative as a performative act. Accordingly, this thesis examines the First World War exhibit at the Canadian War Museum as a space of performance. I apply Lubomír Doležel’s literary theory on possible worlds, illustrating how a museum space can create unique characteristics of a possible world of fiction and of history. Secondly, this thesis employs Marie-Laure Ryan’s theory of narrativity to discuss how museum objects construct and perform their stories. I argue that the objects in museums are presented to the public in a state of museality similar to the condition of theatricality in a theatre performance. Lastly, this thesis investigates the performance of people by applying various theories of performance, such as Michael Kirby’s non-acting/acting continuum, Jiří Veltruský’s concept of the stage figure, and Freddie Rokem’s theories of actors as “hyper-historians.” In this way, this thesis explores concrete case studies of employee/visitor interactions and expands on how these communications transform the people within the walls of the museum into performers of historical narrative. Moreover, according to Antoine Prost, the museum as an institution is an educational and cultural authority. As a result, in all of these performative situations, the Canadian War Museum presents a historical narrative to its visitors with which it can help shape a sense of national identity, the events Canadians choose to commemorate and their personal and/or collective memories. In its interdisciplinary scope, this thesis calls upon theories from a variety of academic fields, such as performance studies, history and cultural studies, museology, and literary studies. Most importantly, however, this project offers a new perspective on the performative potentials of a national history museum.

Page generated in 0.0685 seconds