• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1250
  • 436
  • 125
  • 10
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1823
  • 854
  • 456
  • 310
  • 282
  • 216
  • 203
  • 193
  • 182
  • 166
  • 164
  • 144
  • 142
  • 141
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Virtualisation en contexte HPC / Virtualisation in HPC context

Capra, Antoine 17 December 2015 (has links)
Afin de répondre aux besoins croissants de la simulation numérique et de rester à la pointe de la technologie, les supercalculateurs doivent d’être constamment améliorés. Ces améliorations peuvent être d’ordre matériel ou logiciel. Cela force les applications à s’adapter à un nouvel environnement de programmation au fil de son développement. Il devient alors nécessaire de se poser la question de la pérennité des applications et de leur portabilité d’une machine à une autre. L’utilisation de machines virtuelles peut être une première réponse à ce besoin de pérennisation en stabilisant les environnements de programmation. Grâce à la virtualisation, une application peut être développée au sein d’un environnement figé, sans être directement impactée par l’environnement présent sur une machine physique. Pour autant, l’abstraction supplémentaire induite par les machines virtuelles entraine en pratique une perte de performance. Nous proposons dans cette thèse un ensemble d’outils et de techniques afin de permettre l’utilisation de machines virtuelles en contexte HPC. Tout d’abord nous montrons qu’il est possible d’optimiser le fonctionnement d’un hyperviseur afin de répondre le plus fidèlement aux contraintes du HPC que sont : le placement des fils d’exécution et la localité mémoire des données. Puis en s’appuyant sur ce résultat, nous avons proposé un service de partitionnement des ressources d’un noeud de calcul par le biais des machines virtuelles. Enfin, pour étendre nos travaux à une utilisation pour des applications MPI, nous avons étudié les solutions et performances réseau d’une machine virtuelle. / To meet the growing needs of the digital simulation and remain at the forefront of technology, supercomputers must be constantly improved. These improvements can be hardware or software order. This forces the application to adapt to a new programming environment throughout its development. It then becomes necessary to raise the question of the sustainability of applications and portability from one machine to another. The use of virtual machines may be a first response to this need for sustaining stabilizing programming environments. With virtualization, applications can be developed in a fixed environment, without being directly impacted by the current environment on a physical machine. However, the additional abstraction induced by virtual machines in practice leads to a loss of performance. We propose in this thesis a set of tools and techniques to enable the use of virtual machines in HPC context. First we show that it is possible to optimize the operation of a hypervisor to respond accurately to the constraints of HPC that are : the placement of implementing son and memory data locality. Then, based on this, we have proposed a resource partitioning service from a compute node through virtual machines. Finally, to expand our work to use for MPI applications, we studied the network solutions and performance of a virtual machine.
382

Spectroscopie de molécules d’intérêt atmosphérique et astrophysique / Spectroscopy of atmospheric and astrophysical interest molecules

Ndao, Moustapha 29 September 2016 (has links)
Les spectres haute résolution de la molécule d’intérêt astrophysique de méthanol doublement deutéré (CD2HOH) et de la molécule d’intérêt atmosphérique de phosgène (35Cl2CO et 35Cl37ClCO) ont été étudiés théoriquement et expérimentalement. Les spectres microonde, térahertz et infrarouge lointain de CD2HOH ont été analysés en modélisant le mouvement de grande amplitude de torsion du groupe méthyle partiellement deutéré CD2H par rapport au groupe hydroxyle OH. Le spectre torsionnel a été analysé, 108 sous bandes torsionnelles ont été identifiées et la fonction énergie potentielle gênant la rotation interne a été obtenue. La structure rotationnelle des sous bandes torsionnelles a été analysée. 3271 transitions ont pu être attribuées pour des niveaux torsionnels avec et 1997 pour des sous bandes avec. Le spectre infrarouge lointain du phosgène a été enregistré dans l’infrarouge lointain grâce à un interféromètre à transformée de Fourier en utilisant comme source le rayonnement synchrotron de la ligne AILES du synchrotron SOLEIL. Les bandes vibrationnelles et ont été enregistrées dans la région 200–600 cm−1 en utilisant une cellule cryogénique donnant un parcours optique de 93 m. La bande a été analysée pour la première fois. Plus de 10 000 transitions ont été attribuées pour les deux isotopomères ce qui a conduit à la détermination des constantes spectroscopiques de l’état vibrationnellement excité . L’écart quadratique moyen de la différence EObs – Ecalc était de 0,21 et 0,38 ×10−3 cm−1 pour 35Cl2CO et 35Cl37ClCO, respectivement. / The high-resolution spectra of the astrophysically relevant doubly deuterated species of methanol (CD2HOH) and of the atmospherically relevant phosgene (35Cl2CO and 35Cl37ClCO) molecules were studied both experimentally and theoretically. The microwave, terahertz, and far infrared spectra of CD2HOH were analyzed modeling the large amplitude torsional motion of the CD2H methyl group with respect to the hydroxyl OH group. The torsional spectrum was analyzed, 108 torsional subbands were identified, and the potential energyfunction hindering the internal rotation was retrieved. The rotational structure of the torsional subbands was analyzed. 3271 transitions involving torsional levels with were assigned and 1997 involving torsional subbands with. The far infrared spectrum of phosgene was recorded in the far infrared domain with a Fourier transform spectrometer using synchrotron radiation from the AILES beam line of the SOLEIL synchrotron. The and bands were recorded using a cryogenic White-type cell with a 93 m path length. The band was analyzed for the first time. More than 10 000 transitions were assigned for both isotopomers yielding spectroscopic constants for the state. The RMS deviation of the EObs − ECalc difference was 0.21 and 0.38 ×10−3 cm−1 for 35Cl2CO and 35Cl37ClCO, respectively.
383

Évaluation du raisonnement clinique d'étudiantes et d'infirmières dans le domaine de la pédiatrie, à l'aide d'un test de concordance de script

Latreille, Marie-Eve January 2012 (has links)
Le but de cette étude exploratoire est de déterminer si le test de concordance de script est un instrument capable de mesurer le raisonnement clinique d’étudiantes en formation et s’il peut déceler des différences entre le raisonnement clinique des novices et des expertes de la profession. Un TCS adapté au domaine des sciences infirmières et portant sur des champs particuliers de la pédiatrie a été administré à des candidates revendiquant différents niveaux d’expérience : des expertes du domaine (n=15), des infirmières (n=40) et des étudiantes de troisième année de formation (n=30). D’une durée de 20 minutes, le test a été pratiqué en ligne; il comptait 15 scénarios et 45 items au total. Les scores des étudiantes étaient significativement inférieurs aux scores des infirmières et des expertes. Le TCS est un instrument fiable et utile lorsqu’il s’agit de déterminer, en termes de raisonnement clinique, une différence de niveau entre la novice et l’experte.
384

soCloud : une plateforme multi-nuages distribuée pour la conception, le déploiement et l'exécution d'applications distribuées à large échelle / soCloud : distributed multi-cloud platform for designing, deploying and executing world wide distributed applications

Paraiso, Fawaz 18 June 2014 (has links)
L’informatique multi-nuages s’est imposée comme un paradigme de choix pour créer des applications distribuées à large échelle s’exécutant à des emplacements géographiques répartis. L’informatique multi-nuages consiste en l’utilisation de multiples environnements de nuages indépendants qui ne nécessitent pas d’accord a priori entre les fournisseurs de nuage ou un tiers. Toutefois, ces applications conçues pour un environnement multi-nuages doivent faire face à de véritables défis en terme d’architecture, de modèle et de technologies. L’utilisation de l’informatique multi-nuages se heurte à l’hétérogénéité et à la complexité des offres de nuage. Ainsi, l’informatique multi-nuages doit faire face aux défis de la portabilité, de l’approvisionnement, de l’élasticité et de la haute disponibilité que nous identifions dans cette thèse.Dans ce travail de thèse, nous proposons un modèle d’applications nommé soCloud qui adresse ces quatre défis. C’est un modèle basé sur le standard SCA du consortium OASIS pour concevoir de manière simple et cohérente des applications distribuées à large échelle pour un environnement multi-nuages. Un nouveau langage dédié d’élasticité a été proposé pour exprimer efficacement l’élasticité d’applications multi-nuages par l’abstraction. Nous proposons aussi une plateforme multi-nuages soCloud conçue pour déployer, exécuter et gérer des applications réparties à travers plusieurs nuages. Le modèle d’applications soCloud a été utilisé pour la mise en œuvre de trois applications distribuées déployées dans un environnement multi-nuages. Quant à la plateforme soCloud, elle a été implantée, déployée et expérimentée sur dix nuages. / Multi-cloud computing has established itself as a paradigm of choice for creating very large scale world wide distributed applications. Multi-cloud computing is the usage of multiple, independent cloud environments, which assumed no priori agreement between cloud providers or third party. However, these applications, designed for multi-cloud envi-ronments, have to face real challenges in term of design, architecture, and technology. The possibility of using multi-cloud faces the heterogeneity and complexity of cloud solutions.Thus, multi-cloud computing has to face several challenges such as portability, provisioning, elasticity, and high availability we have identified in this thesis. In this thesis, we propose soCloud both amodel and a platformthat tackle these four chal-lenges. This model is based on the OASIS Service Component Architecture (SCA) standard to design distributed large scale applications for multi-cloud environments. Anew language is proposed to effectively express the elasticity of multi-cloud applications through abstrac-tion. The multi-cloud platform is designed to deploy and manage distributed applications across multi-clouds. The soCloud model is illustrated on three distributed applications deployed in multi-cloud environments. The soCloud platform has been implemented, deployed and experi-mented on top of ten existing cloud providers.These experiments are used to validate the novelty of the contributed solutions. With our contributions, we aim to provide a simple and effective way to design, deploy, run, and manage distributed applications for a multi-cloud environment by proposing a model and platform.
385

Application de l'analyse métabolomique à la détection ciblée et globale de contaminants organiques dans des matrices agroalimentaires et environnementales par spectrométrie de masse à ultra-haute résolution / Application of metabolomics analysis to targeted and comprehensive detection of organic contaminants in food and environmental matrices using ultra-high resolution mass spectrometry

Cotton, Jérôme 08 January 2015 (has links)
La pollution des produits agroalimentaires et des eaux environnementales par les substances phytosanitaires et les médicaments est une réelle préoccupation de santé publique. Il existe aujourd’hui de nombreuses méthodes d’analyses quantitatives développées sur des appareils de type triple quadripôle pour leur détection mais elles ne se préoccupent peu ou pas des résidus médicamenteux et des produits de dégradation abiotique ou biologique des polluants et sont limitées à un nombre restreint et figé de molécules.Dans ce contexte, nous avons développé une méthode d’analyse basée sur la métabolomique par chromatographie liquide haute performance couplée à la spectrométrie de masse à ultra-haute résolution (LC-HRMS). Deux matrices (miel et eau souterraine) ont ainsi été étudiées comme preuve de concept. Nous avons montré que la LC-HRMS associée à des outils de fouille de données permet (i) une recherche ciblée de polluants prioritaires, (ii) la détection sans a priori de contaminants inattendus ou inconnus et (iii) la recherche de métabolites nécessaire à la classification des échantillons en fonction de leur métadonnée (adultération, origine géographique, etc.). Ensuite, une approche semi-quantitative ciblée large spectre a été développée et validée pour la détection de pesticides, médicaments et métabolites dans l’eau par couplage de la SPE en ligne avec l’UHPLC-ESI-HRMS. Cette méthode permet la détection de 539 contaminants organiques en 36 minutes dans 5 millilitres d’eau au seuil minimum réglementaire de 0,1 µg/L. L’étude de 26 eaux du robinet de la région parisienne a permis de mettre en évidence la présence à l’état de trace de 37 polluants dont 6 médicaments. / Pollution of agrifood and environmental water by pesticides and drugs is a real public health concern. There are many quantitative methods developed on triple quadrupole mass spectrometer for their detection, but drug residues and abiotic or biological degradation of pollutants are generally not considered and are limited to a predetermined and restricted list of molecules.In this context, we have developed an analytical method based on metabolomic analyses by high performance liquid chromatography coupled with ultra-high resolution mass spectrometry (LC-HRMS). Two matrices (honey and groundwater) were investigated as proof of concept studies. We showed that LC-HRMS associated to data mining tools enables (i) targeted analyses of pollutants, (ii) detection of untargeted and unknown xenobiotics, and (iii) detection of metabolites useful for the characterization of matrices. Then, a large targeted and semi-quantitative approach has been developed and validated for the detection of pesticides, drugs and metabolites in water samples by using on line SPE and UHPLC-ESI-HRMS. This method allowed the detection of 539 organic contaminants at the MLR of 0.1 µg/L in 36 minutes with only 5 milliliter of water. A study of 26 tap water samples from the Paris region showed the presence of 37 pollutants including 6 drugs.
386

Fabrication et caractérisation des transistors à effet de champ de la filière III-V pour applications basse consommation / Fabrication and characterization of III-V based field effect transistors for low power supply applications

Olivier, Aurélien 24 September 2010 (has links)
Un système autonome est composé d’une interface capteur, d’un contrôleur numérique, d’une interface de communication et d’une source d’énergie et sa consommation doit être inférieure à environ 100 microW. Pour réduire la consommation de puissance, des nouveaux composants, les Green Transistor ont fait leur apparition sous différentes topologies, modes de fonctionnement et matériaux alternatifs au silicium. L’interface de communication est composée d’un transistor possédant de grandes performances électriques sous faible alimentation. Les topologies retenues sont le transistor à haute mobilité électronique (HEMT) et le transistor à effet de champ métal/oxyde/semi-conducteur (MOSFET) et seuls les matériaux de la filière III-V à faible énergie de bande interdite, faible masse effective et grande mobilité électronique devraient permettre d’atteindre ces objectifs. Des technologies de HEMTs antimoniés AlSb/InAs ainsi que des MOSFETs InGaAs ont été développées. Les mesures de transistors HEMTs AlSb/InAs ont montré des performances au dessus de 100GHz à 10mW/mm à température ambiante et cryogénique et nous pouvons espérer des transistors où 1mW/mm à 10GHz. Or, les courants de grille importants et la conservation d’un rapport d’aspect élevé dans une structure HEMT limitent la réduction du facteur de mérite puissance-fréquence. Ainsi, la technologie de transistors de type MOS InGaAs a été caractérisée durant ces travaux et les résultats dynamiques sont prometteurs (fT =120GHz, Lg=200nm) même si le processus de fabrication n’est pas complètement optimisé. Une perspective de ce travail est l’utilisation de matériaux antimoines pour la réalisation de MOSFET ultra faible consommation. / An autonomous system is composed of a sensor, a digital controller, a communication interface and an energy source. Its consumption should be less than about 100 microW. To reduce power consumption, new components called the Green transistors have appeared in various topologies, operating modes and alternative materials to silicon. The communication interface consists of a transistor with high performances at low power supply. The topologies used are the high electron mobility transistor (HEMT) and the metal-oxide-semiconductor field-effect transistor (MOSFET) and only III-V-based channels with low bandgap energy, low effective mass and high electron mobility should achieve these goals. Antimonide based HEMTs (AlSb/InAs) and InGaAs MOSFETs technologies have been developed. Measurements of transistors AlSb /InAs HEMTs showed performance above 100GHz at 10mW/mm at room and cryogenic temperatures and transistors which 1mW/mm equals to 10GHz can be expected. However, significant gate currents and a high aspect ratio in a HEMT structure limit the reduction the factor of merit between the power and the cut-off frequency. Thus, the technology of InGaAs MOSFET has been characterized during this work and the RF results are promising (fT = 120GHz, Lg = 200nm) even if the process fabrication is not fully optimized. A perspective of this work is the use of antimonide materials for the realization of ultra low power MOSFET.
387

Stratégie multiparamétrique pour la simulation d’assemblages de structures stratifiées / Multiparametric strategy for the simulation of assemblies with composite components

Roulet, Vincent 01 December 2011 (has links)
Les travaux de thèse s'inscrivent dans le cadre du projet de recherche européen MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing) et portent sur la simulation numérique de problèmes d'assemblages de composants en matériaux composites stratifiés. Ces assemblages sont sources de deux types de non-linéarités. D'une part, l'interface entre les pièce conduit au traitement de non-linéarités fortes (contact, frottement). D'autre part, dans les composants de l'assemblage, le comportement du matériau stratifié est complexe, du fait des nombreux phénomènes de dégradations interagissant entre eux. Ces deux aspects ont une influence forte sur la réponse globale de l'assemblage, ce qui implique la résolution de systèmes de très grandes tailles, nécessitant généralement l'utilisation de moyens de calcul parallèles.Le couplage entre ces deux problématiques nécessite donc l'utilisation d'algorithmes de calcul parallèle dédiés et robustes, à même de traiter de nombreuses non-linéarités très fortes. Pour cela, la méthode LATIN (pour LArge Time INcrement) présente de nombreux avantages, déjà mis en évidence dans le cas de calcul d'assemblages de pièces élastiques lors de travaux précédents. Le but de ces travaux est donc d'élargir le cadre de la méthode au cas des pièces au comportement endommageable et anélastique.Un dernier aspect, qui sera abordé au sein de ces travaux, traite des fortes variabilités des coefficients intervenant dans les lois non-linéaires. Par conséquent, il est nécessaire de pouvoir traiter un très grand nombre de problèmes affectés de valeurs de coefficients différents. Pour cela, la stratégie multiparamétrique, intimement liée à la méthode LATIN, doit être étendue au cas de comportements matériau non-linéaires. Elle sera alors appliquée au travers de plusieurs paramètres variables : coefficients de frottement, précharges des éléments de fixation, seuil d'endommagement des matériaux... / The presented work, within the framework of the European research project MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing), is dedicated to the numerical simulation of assemblies with components made of laminated composites. These assemblies involve two types of high non-linearities. First ones are linked to the interfaces between parts (unilateral contact and friction). Second ones are linked to the constitutive material behaviour, from its initial properties to the complex evolution of degradations. These two non-linearities have a strong influence on the response of the assembly, which involves solving systems with a high number of degrees of freedom and generally requires the use of parallel computing resources.The coupling between the two sources of non-linearities requires dedicated and robust algorithms, able to run on parallel architectures and to deal with many very strong non-linearities. The efficiency of the LATIN method (LArge Time INcrement) has already been highlighted in the case of assemblies with elastic components. A first aim of this work is thus to extend the method to the case of damageable and anelastic components' behaviour.A second aim is to deal with the variability of the coefficients involved in the non-linear laws. Each set of parameters (friction coefficients, preload of fasteners, damage threshold of material laws...) requiring a given calculation, the multiparametric strategy of the LATIN method must be extended to the case of non-linear materials in order to efficiently reduce the computation time.
388

Caractérisation mécanique des phénomènes dépendants du temps par nanoindentation instrumentée en température / Mechanical characterization of time dependent phenomena using instrumented nanoindentation in temperature

Baral, Paul 29 November 2018 (has links)
Ce mémoire présente une étude sur la caractérisation des propriétés mécaniques dépendantes du temps par nanoindentation instrumentée à différentes températures.Ce sujet de recherche porte sur l’adaptation des méthodes d’indentation classiques aux problématiques de la caractérisation à hautes températures. Les méthodes développées dans ces travaux ont pour premier objectif d’apporter une meilleure compréhension des phénomènes dépendants du temps et de la température par une approche locale. Le second objectif est d’apporter des éléments de comparaison entre le comportement à l’échelle microscopique et macroscopique.Les méthodes proposées sont principalement fondées sur l’essai de relaxation en indentation. Ses développements et applications aux matériaux polymères et métalliques sont étudiés de manière analytique puis expérimentale. L’étude analytique nous montre que ce type d’essais en indentation peut être directement comparé à un essai uniaxial. Elle montre également que la cinétique de chargement a une grande influence sur la qualité des résultats obtenus en relaxation.L’étude expérimentale proposée, en température, permet d’extraire la sensibilité à la vitesse de déformation ainsi que l’énergie d’activation des phénomènes visqueux. Cependant, la dérive thermique limite la durée des essais – la durée maximum du segment de relaxation reste inférieure à quelques minutes. Une autre étude réalisée à température ambiante ouvre la voie à des durées de caractérisation plus longues. Celle-ci se fonde sur l’équivalence entre aire et raideur de contact pour un matériau homogène. Un maintien de l’aire de contact constante pendant 10 heures est effectué sans signes de dérive.Finalement, l’application de la nanoindentation à hautes températures à la caractérisation in situ des changements microstructuraux pour un alliage d’aluminium est étudiée. Les résultats de l’étude montrent qu’il est possible d’obtenir la cinétique de recristallisation avec un seul échantillon et en un temps limité. / This manuscript presents a study on the mechanical properties’ characterization of time dependent phenomena using instrumented nanoindentation at different temperatures.This research subject treats the development of methods dealing with the adaptation of classical indentation methodologies to high temperature characterizations. Bringing a better understanding of time and temperature dependent phenomena at a local scale is the first aim of the methods developed. The second objective is to compare materials behaviors measured at micro and macro-scale.The proposed methods are based on indentation relaxation tests. Their development and applications to polymers and metals characterization are studied analytically and experimentally. The analytical study shows that the indentation relaxation test is equivalent to the uniaxial one. This study also highlights the great influence of loading kinetics on the measured relaxation behavior.The proposed experimental study in temperature permits the extraction of the strain rate sensitivity and the activation energy of the viscous phenomena. However, thermal drift limits the characterization duration – i.e. the maximum experimental time remains limited to a couple of minutes. Another experimental study configuration, at room temperature, opens the way to longer test durations. It is based on the equivalence of contact area and stiffness for a homogeneous material. With this configuration, we successfully hold the contact area constant for 10 hours without any evidences of drift.Eventually, the high temperature nanoindentation application to in situ microstructural changes characterization of an aluminum alloy is studied. Measurements and limitations are carefully discussed for a better understanding of the studied phenomenon. The results show that the recrystallization kinetics can be successfully described with reduced test duration and samples’ set.
389

Formalisation des mécanismes de tribo-oxydation d'un alliage de cobalt soumis à des sollicitations de fretting-usure : effet de la température / Formalisation of the tribo-oxidation mechanisms of a cobalt-based alloy subjected to fretting wear : influence of the temperature

Dreano, Alixe 14 November 2019 (has links)
Ce mémoire de thèse présente une analyse multi-physique des endommagements par usure provoqués sur un alliage base cobalt soumis à des sollicitations de fretting pour des températures allant de 25˚C à 600˚C. On montre alors que l’usure est sévère à basse température puis douce à haute température. À basse température, l’usure est contrôlée par une synergie entre l’oxydation de l’interface et l’abrasion de la couche d’oxyde nouvellement formée. Une formulation analytique est développée, prenant en compte ces deux aspects. Cependant, cette loi n’est valable que lorsque le produit de l’endommagement, à savoir les débris d’usure oxydés, sont immédiatement évacués de l’interface. Or, si la température dépasse une température seuil T1, les débris commencent à stagner dans l’interface, ils s’agglomèrent et modifient complètement la réponse tribologique. À haute température, une tribocouche protectrice est formée par compaction et frittage des débris, limitant drastiquement l’usure. La loi d’usure par oxydo-abrasion, décrivant le comportement tribologique à basse température, est alors modifiée pour prendre en compte l’apparition de cette tribocouche. La tribocouche, également appelée glaze layer, possède une structure multi-couches, où les propriétés d’oxydation et de diffusion des éléments d’alliage jouent un rôle prépondérant dans les modalités de sa formation. À la lumière de ces résultats, sont finalement discutés les mécanismes mis en jeu dans l’absence totale d’usure lorsque la glaze layer est efficace à l’interface. / This manuscript presents a multi-physical analysis of the fretting wear damages observed on a cobalt-based alloy. It has been showed that the wear process is severe at low temperature whereas a mild wear process takes place at high temperature. At low temperature, the wear process is driven by a synergetic action of the oxidation of the surface and the abrasion of the newly formed oxide layer. An analytical formulation is then proposed by taking into account these two phenomena. However, the proposed wear law is only valid when the wear debris is immediately ejected out of the interface. Yet, when the temperature is high enough, the debris starts to agglomerate into the interface changing completely the tribological response. At high temperature, a protective tribolayer is formed by a compaction and sintering processes of the wear debris which drastically limits wear. The oxido-abrasive wear law, describing the wear behaviour at low temperature, is then modified in order to take into account the tribolayer formation. The tribolayer, also called "glaze layer", has a multi-layerered structure whose formation is strongly linked to the oxidation and diffusive properties of the alloying elements. In the light of these results, the tribological mecanisms providing complete protection of the interface from further wear are discussed.
390

Algorithmes d'étiquetage en composantes connexes efficaces pour architectures hautes performances / Efficient Connected Component Labeling Algorithms for High Performance Architectures

Cabaret, Laurent 28 September 2016 (has links)
Ces travaux de thèse, dans le domaine de l'adéquation algorithme architecture pour la vision par ordinateur, ont pour cadre l'étiquetage en composantes connexes (ECC) dans le contexte parallèle des architectures hautes performances. Alors que les architectures généralistes modernes sont multi-coeur, les algorithmes d'ECC sont majoritairement séquentiels, irréguliers et utilisent une structure de graphe pour représenter les relations d'équivalences entre étiquettes ce qui rend complexe leur parallélisation. L'ECC permet à partir d'une image binaire, de regrouper sous une même étiquette tous les pixels connexes, il fait ainsi le pont entre les traitements bas niveaux tels que le filtrage et ceux de haut niveau tels que la reconnaissance de forme ou la prise de décision. Il est donc impliqué dans un grand nombre de chaînes de traitements qui nécessitent l'analyse d'image segmentées. L'accélération de cette étape représente donc un enjeu pour tout un ensemble d'algorithmes.Les travaux de thèse se sont tout d'abord concentrés sur les performances comparées des algorithmes de l'état de l'art tant pour l'ECC que pour l'analyse des caractéristiques des composantes connexes (ACC) afin d'en dégager une hiérarchie et d’identifier les composantes déterminantes des algorithmes. Pour cela, une méthode d'évaluation des performances, reproductible et indépendante du domaine applicatif, a été proposée et appliquée à un ensemble représentatif des algorithmes de l'état de l'art. Les résultats montrent que l'algorithme séquentiel le plus rapide est l'algorithme LSL qui manipule des segments contrairement aux autres algorithmes qui manipulent des pixels.Dans un deuxième temps, une méthode de parallélisation des algorithmes directs utilisant OpenMP a été proposé avec pour objectif principal de réaliser l’ACC à la volée et de diminuer le coût de la communication entre les threads. Pour cela, l'image binaire est découpée en bandes traitées en parallèle sur chaque coeur du l'architecture, puis une étape de fusion pyramidale d'ensembles deux à deux disjoint d'étiquettes permet d'obtenir l'image complètement étiquetée sans avoir de concurrence d'accès aux données entre les différents threads. La procédure d'évaluation des performances appliquée a des machines de degré de parallélisme variés, a démontré que la méthode de parallélisation proposée était efficace et qu'elle s'appliquait à tous les algorithmes directs. L'algorithme LSL s'est encore avéré être le plus rapide et le seul adapté à l'augmentation du nombre de coeurs du fait de son approche «segments». Pour une architecture à 60 coeurs, l'algorithme LSL permet de traiter de 42,4 milliards de pixels par seconde pour des images de taille 8192x8192, tandis que le plus rapide des algorithmes pixels est limité par la bande passante et sature à 5,8 milliards de pixels par seconde.Après ces travaux, notre attention s'est portée sur les algorithmes d'ECC itératifs dans le but de développer des algorithmes pour les architectures manycore et GPU. Les algorithmes itératifs se basant sur un mécanisme de propagation des étiquettes de proche en proche, aucune autre structure que l'image n'est nécessaire ce qui permet d'en réaliser une implémentation massivement parallèle (MPAR). Ces travaux ont menés à la création de deux nouveaux algorithmes.- Une amélioration incrémentale de MPAR utilisant un ensemble de mécanismes tels qu'un balayage alternatif, l'utilisation d'instructions SIMD ainsi qu'un mécanisme de tuiles actives permettant de répartir la charge entre les différents coeurs tout en limitant le traitement des pixels aux zones actives de l'image et à leurs voisines.- Un algorithme mettant en œuvre la relation d’équivalence directement dans l’image pour réduire le nombre d'itérations nécessaires à l'étiquetage. Une implémentation pour GPU basée sur les instructions atomic avec un pré-étiquetage en mémoire locale a été réalisée et s'est révélée efficace dès les images de petite taille. / This PHD work take place in the field of algorithm-architecture matching for computer vision, specifically for the connected component labeling (CCL) for high performance parallel architectures.While modern architectures are overwhelmingly multi-core, CCL algorithms are mostly sequential, irregular and they use a graph structure to represent the equivalences between labels. This aspects make their parallelization challenging.CCL processes a binary image and gathers under the same label all the connected pixels, doing so CCL is a bridge between low level operations like filtering and high level ones like shape recognition and decision-making.It is involved in a large number of processing chains that require segmented image analysis. The acceleration of this step is therefore an issue for a variety of algorithms.At first, the PHD work focused on the comparative performance of the State-of-the-Art algorithms, as for CCL than for the features analysis of the connected components (CCA) in order to identify a hierarchy and the critical components of the algorithms. For this, a benchmarking method, reproducible and independent of the application domain was proposed and applied to a representative set of State-of-the-Art algorithms. The results show that the fastest sequential algorithm is the LSL algorithm which manipulates segments unlike other algorithms that manipulate pixels.Secondly, a parallelization framework of directs algorithms based on OpenMP was proposed with the main objective to compute the CCA on the fly and reduce the cost of communication between threads.For this, the binary image is divided into bands processed in parallel on each core of the architecture and a pyramidal fusion step that processes the generated disjoint sets of labels provides the fully labeled image without concurrent access to data between threads.The benchmarking procedure applied to several machines of various parallelism level, shows that the proposed parallelization framework applies to all the direct algorithms.The LSL algorithm is once again the fastest and the only one suitable when the number of cores increases due to its run-based conception. With an architecture of 60 cores, the LSL algorithm can process 42.4 billion pixels per second for images of 8192x8192 pixels, while the fastest pixel-based algorithm is limited by the bandwidth and saturates at 5.8 billion pixels per second.After these works, our attention focused on iterative CCL algorithms in order to develop new algorithms for many-core and GPU architectures. The Iterative algorithms are based on a local propagation mechanism without supplementary equivalence structure which allows to achieve a massively parallel implementation (MPAR). This work led to the creation of two new algorithms.- An incremental improvement of MPAR using a set of mechanisms such as an alternative scanning, the use of SIMD instructions and an active tile mechanism to distribute the load between the different cores while limiting the processing of the pixels to the active areas of the image and to their neighbors.- An algorithm that implements the equivalence relation directly into the image to reduce the number of iterations required for labeling. An implementation for GPU, based on atomic instructions with a pre-labeling in the local memory has been realized and it has proven effective from the small images.

Page generated in 0.0427 seconds