• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 321
  • 97
  • 40
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 497
  • 188
  • 118
  • 60
  • 54
  • 36
  • 35
  • 27
  • 26
  • 25
  • 24
  • 22
  • 21
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Approche dirigée par les contrats de niveaux de service pour la gestion de l'élasticité du "nuage" / SLA-driven cloud elasticity anagement approach

Kouki, Yousri 09 December 2013 (has links)
L’informatique en nuage révolutionne complètement la façon de gérer les ressources. Grâce à l’élasticité, les ressources peuvent être provisionnées en quelques minutes pour satisfaire un niveau de qualité de service (QdS) formalisé par un accord de niveau de service (SLA) entre les différents acteurs du nuage. Le principal défi des fournisseurs de services est de maintenir la satisfaction de leurs consommateurs tout en minimisant le coût de ces services. Du point de vue SaaS, ce défi peut être résolu d’une manière ad-hoc par l’allocation/-libération des ressources selon un ensemble de règles prédéfinies avec Amazon Auto Scaling par exemple. Cependant, implémenter finement ces règles d’élasticité n’est pas une tâche triviale. D’une part, la difficulté de profiler la performance d’un service compromet la précision de la planification des ressources. D’autre part, plusieurs paramètres doivent être pris en compte, tels que la multiplication des types de ressources, le temps non-négligeable d’initialisation de ressource et le modèle de facturation IaaS. Cette thèse propose une solution complète pour la gestion des contrats de service du nuage. Nous introduisons CSLA (Cloud ServiceLevel Agreement), un langage dédié à la définition de contrat de service en nuage. Il adresse finement les violations SLA via la dégradation fonctionnelle/QdS et des modèles de pénalité avancés. Nous proposons, ensuite, HybridScale un framework de dimensionnement automatique dirigé par les SLA. Il implémente l’élasticité de façon hybride : gestion réactive-proactive, dimensionnement vertical horizontal et multi-couches (application-infrastructure). Notre solution est validée expérimentalement sur Amazon EC2. / Cloud computing promises to completely revolutionize the way to manage resources. Thanks to elasticity, resources can be provisioning within minutes to satisfy a required level of Quality of Service(QoS) formalized by Service Level Agreements (SLAs) between different Cloud actors. The main challenge of service providers is to maintain its consumer’s satisfaction while minimizing the service costs due to resources fees. For example, from the SaaS point of view, this challenge can be achieved in ad-hoc manner by allocating/releasing resources based on a set of predefined rules as Amazon Auto Scaling implements it. However, doing it right –in a way that maintains end-users satisfaction while optimizing service cost– is not a trivial task. First, because of the difficulty to profile service performance,the accuracy of capacity planning may be compromised. Second, several parameters should be taken into account such as multiple resource types, non-ignorable resource initiation time and IaaS billing model. For that purpose, we propose a complete solution for Cloud Service Level Management. We first introduce CSLA (Cloud Service LevelAgreement), a specific language to describe SLA for Cloud services. It finely expresses SLA violations via functionality/QoS degradationand an advanced penalty model. Then, we propose HybridScale, an auto-scaling framework driven by SLA. It implements the Cloud elasticity in a triple hybrid way : reactive-proactive management, vertical horizontal scaling at cross-layer (application-infrastructure). Our solution is experimentally validated on Amazon EC2.
42

Modelling congestion in passenger transit networks / Modélisation des contraintes de capacité en transports collectifs de voyageurs

Chandakas, Ektoras 01 April 2014 (has links)
Un modèle structurel est fourni afin d'appréhender les phénomènes de capacité dans un modèle d'affectation de flux de voyageurs sur un réseau de transport collectifs. Cela a été fondé sur une représentation du réseau de transports collectifs en deux couches : sur la couche inférieure, le modèle traite séparément chaque sous système du réseau (ligne, station et rabattement) en fonction des effets de capacité spécifiques ; sur la couche supérieure, le choix d'itinéraire d'un voyageur individuel est adressée par une représentation du réseau en leg (ou segment de ligne) en utilisant le coût et les caractéristiques opérationnelles des sous-systèmes respectifs. On établit une cadre novateur pour modéliser les effets de capacité et on développe le modèle CapTA (pour Capacitated Transit Assignment). Il s'agit d'un modèle d'affectation de flux systémique et modulaire. Il adresse les phénomènes de capacité ci dessous : La qualité du service en véhicule est liée au confort de voyageurs à bord. L'occupation d'états de confort hétérogènes (places assises, strapontins et debout à de densités de voyageurs variables) influence la pénibilité perçu du voyage ; La capacité du véhicule à la montée impacte le temps d'attente de voyageurs et leur distribution aux missions disponibles ; La capacité de l'infrastructure de la ligne établit une relation entre le temps de stationnement des véhicules (and par extension les flux de voyageurs en montée et en descente) et la performance des missions et leur fréquence de service. Ces phénomènes sont traités par ligne d'exploitation sur la base d'un ensemble des modèles locaux qui rendent de flux et de coût spécifiques. Par conséquent, ils modifient les conditions locales d'un trajet en transports collectifs pour chaque voyageur individuel. Cependant, ils doivent être adressés dans le cadre d'un réseau de transports collectifs afin de recueillir leur effet sur les choix d'itinéraire sur le réseau ; essentiellement sur les arbitrages économiques qui impactent le choix entre itinéraires alternatifs. Leur traitement sur la couche réseau garantir la cohérence du choix d'itinéraire. Le modèle de station traite de contraintes de capacité spécifiques et évalue les conditions locales de marche, qui est sensible aux interactions des voyageurs à l'intérieur de la station : le goulot instantané à l'entrée d'un élément de circulation retard l'évacuation de la plateforme ; la densité de voyageurs et l'hétérogénéité des leur flux ralenti les voyageurs qui circulent dans une station ; la présence de l'information en temps réel influence le processus de décision des voyageurs. Ces effets n'ont pas seulement un impact sur le choix d'itinéraire à l'intérieure de la station, mais notamment ils modifient les choix de service sur le niveau du réseau. La Région Ile-de-France fournit un champ d'application idéal pour un modèle d'affectation de flux de voyageurs en transport collectifs sous contraintes de congestion. Plus précisément, il est utilisé dans le cadre du modèle CapTA pour illustrer les capacités de simulation et la finesse de l'approche de modélisation adoptée. Le réseau de transports collectifs contient 1 500 missions de cars et autocars, tout comme 260 missions ferroviaires et inclut 14 lignes de métro et 4 lignes de tramway. L'affectation de trafic à l'heure de pointe du matin est caractérisée d'une charge importante en voyageurs sur les sections centrales de lignes ferroviaires qui traversent la ville. Un temps de stationnement élevé, en raison de flux de montée et descente, et la réduction de la fréquence de service impactent la capacité des missions et des lignes. Le temps généralisé d'un trajet est impacté notamment de sa composante de confort à bord. De résultats détaillés sont présentés sur le RER A, la ligne la plus chargée du réseau ferroviaire régional / A structural model is provided to capture capacity phenomena in passenger traffic assignment to a transit network. That has been founded on a bi-layer representation of the transit network : on the lower layer the model addresses each network sub-system (line, station and access-egress) separately, on the basis of specific capacity effects ; on the upper layer a leg-based representation is used with respect to the sub-systems' costs and operating characteristics to address the trip maker's path choices. We establish a novel framework for modelling capacity effects and develop the CapTA network model (for Capacitated Transit Assignment). It is systemic and modular and addresses in particular the following capacity phenomena, the in-vehicle quality of service is linked to the comfort of the passengers on-board. The occupation of heterogeneous comfort states (seats, folding seats and standing at different passenger densities) influences the perceived arduousness of the travel ; the vehicle capacity at boarding influences the waiting time of the passengers and their distribution to the transit services ; the track infrastructure capacity relates the dwelling time of the vehicles (and by extent the alighting and boarding flows) with the performance of the transit services and their service frequency. These phenomena are dealt with by line of operations on the basis of a set of local models yielding specific flows and costs. Accordingly, they modify the local conditions of a transit trip for each individual passenger. However, these should be addressed within the transit network in order to capture their effect on the network path choices; essentially the economic trade-offs that influence the choice between different network itineraries. Their treatment in a network level assures the coherence of the path choice. Equivalently, a station sub-model addresses specific capacity constraints and yields the local walking conditions, sensible to the interaction of the passengers in the interior of a station : the instant bottleneck created at the entry of the circulation elements delays the evacuation of the station platforms; the passenger density and presence of heterogeneous passenger flows slows down the passengers who circulate in the station; and the presence of real-time information influences the decision making process of the transit users exposed to. These effects do not only impact locally the in-station path choice, but most notably they modify the choices of transit routes and itineraries on a network level. The Paris Metropolitan Region provides an ideal application field of the capacity constrained transit assignment model. It is mainly used as a showcase of the simulation capabilities and of the finesse of the modelling approach. The transit network involves 1 500 bus routes together with 260 trains routes that include 14 metro lines and 4 light rail lines. Traffic assignment at the morning peak hour is characterized by heavy passenger loads along the central parts of the railway lines. Increased train dwelling, due to boarding and alighting flows, and reduction in the service frequency impact the route and the line capacity. The generalized time of a transit trip is impacted mainly though its in-vehicle comfort component. Detailed results have been provided for the RER A, the busiest commuter rail line in the transit network
43

Approche dirigée par les contrats de niveaux de service pour la gestion de l'élasticité du "nuage"

Kouki, Yousri 09 December 2013 (has links) (PDF)
L'informatique en nuage révolutionne complètement la façon de gérer les ressources. Grâce à l'élasticité, les ressources peuvent être provisionnées en quelques minutes pour satisfaire un niveau de qualité de service (QdS) formalisé par un accord de niveau de service (SLA) entre les différents acteurs du nuage. Le principal défi des fournisseurs de services est de maintenir la satisfaction de leurs consommateurs tout en minimisant le coût de ces services. Du point de vue SaaS, ce défi peut être résolu d'une manière ad-hoc par l'allocation/-libération des ressources selon un ensemble de règles prédéfinies avec Amazon Auto Scaling par exemple. Cependant, implémenter finement ces règles d'élasticité n'est pas une tâche triviale. D'une part, la difficulté de profiler la performance d'un service compromet la précision de la planification des ressources. D'autre part, plusieurs paramètres doivent être pris en compte, tels que la multiplication des types de ressources, le temps non-négligeable d'initialisation de ressource et le modèle de facturation IaaS. Cette thèse propose une solution complète pour la gestion des contrats de service du nuage. Nous introduisons CSLA (Cloud ServiceLevel Agreement), un langage dédié à la définition de contrat de service en nuage. Il adresse finement les violations SLA via la dégradation fonctionnelle/QdS et des modèles de pénalité avancés. Nous proposons, ensuite, HybridScale un framework de dimensionnement automatique dirigé par les SLA. Il implémente l'élasticité de façon hybride : gestion réactive-proactive, dimensionnement vertical horizontalet multi-couches (application-infrastructure). Notre solution est validée expérimentalement sur Amazon EC2.
44

Codage avec information adjacente. Application à la transmission sécurisée de signaux multimédia dans un environnement cellulaire.

Zaidi, Abdellatif 13 December 2005 (has links) (PDF)
Le problème de codage avec information adjacente (CCSI) est une technique récente d'annulation d'interférences en transmission et en compression de données. Ceci concerne les situations où l'émetteur est informé (par une voie retour par exemple) d'une partie de l'interférence canal. L'objectif est alors d' utiliser cette connaissance afin de concevoir un codage efficace. Une application étroitement liée à la transmission et à la compression de données est le "marquage de l'information" (information embedding). Potentiellement prometteur, le marquage d'information pose de nombreux défis dans différents domaines de recherche, allant de l'étude des limites théoriques de performance d'un point de vue théorie de l'information aux aspects liés à leurs implémentation d'un point de vue traitement de signal, en passant par la conception de code d'un point de vue communication numérique et codage. Dans cette thèse nous considérons la problématique de marquage de l'information sous ses trois aspects: de théorie de l'information, de codage et communication et de traitement de signal. Le travail effectué dans le cadre de cette thèse peut être structurée en quatre parties. Dans la première partie, nous formalisons le problème de construction de dictionnaire comme un problème de conception de constellation. En particulier, nous montrons que le problème de codage avec information adjacente disponible à l'encodeur est fondamentalement un problème de codage conjoint source-canal. Ensuite, nous nous basons sur les réseaux de points imbriquées (nested lattices) pour la construction de bons codes algebriques à complexité réduite. Dans la deuxième partie, nous considérons le problème de marquage multiple comme un problème de communication multi-utilisateurs et nous construisons des stratégies de codage qui permettent d'approcher au mieux les limites théoriques de performances. La troisième partie traite le problème de sensibilité à l'information adjacente. Nous y évaluons la dégradation des performances due à une petite perturbation additive de l'information adjacente et nous y montrons que, dans certaines conditions, l'encodeur doit s'adapter à la perturbation en, éventuellement, changer sa stratégie de codage. La quatrième partie traite les performances du CCSI sur un canal AWGN avec jitter (AWGN\&J) d'un point de vue théorie de jeux.
45

Le rôle des Knowledge Intensive Business Services dans la capacité d'absorption : le cas des contrats d'innovation / The role of Knowledge Intensive Business Services in the clients' absorptive capacity

Imbert, Guillaume 04 December 2014 (has links)
La connaissance étant au coeur de la création et du développement d’un avantage concurrentiel à travers l’innovation, la capacité des organisations à absorber les connaissances en provenance de l’extérieur est aujourd’hui devenue critique. Cette recherche soutient que le déclenchement et le développement d’un processus d’absorption ne peuvent résulter des seuls efforts organisationnels internes. Elle vise à comprendre la façon dont les services marchands à forte intensité de connaissances (Knowledge-Intensive Business, KIBS) peuvent améliorer le processus d’absorption de leurs clients.En se basant sur l’approche par les capacités dynamiques, cette recherche met en évidence la nécessité de prendre en compte : (1) les conditions d’émergence et du développement de la capacité d’absorption ; (2) le rôle des organisations externes dans le processus d’absorption. Cette thèse sur travaux repose sur un article théorique et trois articles empiriques qui s’appuient sur une méthodologie qualitative d’études de cas multiples dans le secteur du conseil en conception innovante.Cette thèse donne lieu à trois contributions majeures en faisant émerger : (1) la notion de « capacité d’insémination » du KIBS qui adopte, sélectionne,contextualise et préserve les connaissances afin de faciliter le déclenchement et le développement d’un processus d’absorption de la part de son client ; (2) les correspondances entre la capacité d’insémination des KIBS et la capacité d’absorption de leurs clients ; (3) l’accompagnement par le KIBS des activités de co-production du client, critiques en conception innovante. Au final, cette recherche contribue à la littérature en sciences de gestion et en management stratégique sur la capacité d’absorption et l’innovation. Les résultats débouchent sur des recommandations managériales visant à développer la capacité d’absorption des entreprises au travers de la relation de service et de conseil. / With knowledge at the heart of the creation and maintenance of competitive advantage through innovation, an organization’s ability to absorb external knowledge is critical. This research supports the idea that the initiation and perpetuation of a knowledge absorption process are not only the result of internal organizational efforts. It aims to improve understanding of how Knowledge-Intensive Business Services (KIBS) can enhance their clients’ absorption process. Based on the dynamic capabilities approach, this research highlights the need to take into account: (1) the conditions that will enable the initiation and perpetuation of a knowledge absorption process; (2) the role of external organizations into absorption process. This Multi-Monograph Thesis is composed of one theoretical article and three empirical articles utilizing qualitative multiple-case study methodology in the field of innovative design consulting. This thesis leads to three major contributions: (1) the notion of the “insemination capacity” of KIBS, which is the ability to adopt, select, contextualize and preserve knowledge so as to initiate and perpetuate a knowledge absorption process; (2) the connections between absorptive and insemination capacities; (3) the guidance provided to a client’s co-production activities in the context of innovative design. Ultimately, this research contributes to Management Sciences and Strategic Management literature on absorptive capacity and innovation. It also provides recommendations to managers on how to develop absorptive capacity through the service and consulting relationship.
46

Quelles ressources pour le sujet vieillissant? les ontologies, une perspective pour la conception et l'évaluation des aides capacitantes

Arab, Farah January 2010 (has links)
This thesis focuses on the design and the evaluation of the assistive technological solutions dedicated to the aging people. It is based on a framework which proposes a developmental approach of the aging subject. Our research is composed of three main objectives. The first objective is to improve the knowledge of the aging people (with or without cognitive impairments) problems of activity limitations and participation restrictions in society. The second objective is to preserve (or to develop) the empowerment of the persons with and without cognitive impairment, during the daily activities. Finally, the third objective is to enrich the subject model considered in the design. In this research, the design challenge exceeds the compensation and the slowing down of the individual state deterioration. It aims to preserve the residual individual capabilities and to propose the resources for an adequate fallback and the individual capabilities and empowerment development. Our work is based on a multidisciplinary, participatory and user centered design approach. We use ergonomics knowledge to improve the human-machines interactions, psychological knowledge to analyze acceptability and appropriation of the technical assistive devices, and technical knowledge to develop assistive technologies.
47

Réalisation de structures métal - isolant - semiconducteur sur GaN par déposition PECVD de Si[indice inférieur x]N[indice inférieur y]

Chakroun, Ahmed January 2010 (has links)
Ce travail a été réalisé au Centre de Recherche en Nanofabrication et Nanocaractérisation (CRN[indice supérieur 2]) de l'Université de Sherbrooke. Il porte sur l'étude, la réalisation et la caractérisation de structures métal - isolant - semiconducteur (MIS) sur nitrure de gallium. Le nitrure de gallium (GaN) est un matériau semiconducteur de la famille III-V à large bande interdite directe, ayant des propriétés électriques, physiques et mécaniques très intéressantes. Il a été découvert depuis plus de quatre décennies. Les difficultés de son élaboration, les problèmes d'inefficacités du dopage p et les densités élevées des défauts cristallins dans les couches épitaxiées, ont constitué pendant longtemps des obstacles majeurs au développement de la technologie GaN [I. Akasaki, 2002]. Il a fallu attendre jusqu'au début des années 1990 pour voir apparaître des couches de meilleure qualité et pour améliorer l'efficacité du dopage p [J.Y. Duboz, 1999]. Cet événement a été l'étape majeure qui a révolutionné la technologie à base de GaN et a permis d'amorcer son intégration dans le milieu industriel. Depuis, la technologie à base de ce matériau ne cesse de progresser à un rythme exponentiel. Il se présente aujourd'hui comme un matériau de choix pour la réalisation de dispositifs électroniques de puissances et de hautes fréquences pouvant fonctionner dans des milieux hostiles. Grâce à sa bande interdite directe et son pouvoir d'émission à faible longueur d'onde, il est aussi très convoité pour la réalisation de dispositifs optoélectroniques de hautes performances en émission ou en détection, tels que les DELs, Lasers ou les photodétecteurs. Malgré l'avancé rapide qu'a connu le GaN, certains aspects de ce matériau restent encore mal maîtrisés, tels que la réalisation de contacts ohmiques de bonne qualité ou encore le contrôle des interfaces métal/GaN et isolant/GaN. Les hétérostructures isolant/GaN sont caractérisées par une forte densité d'états de surface (D[indice inférieur it]). Ce phénomène, aussi rapporté sur GaAs et sur la plupart des matériaux III-V, induit l'ancrage du niveau de fermi au centre de la bande interdite. Il constitue l'un des freins majeurs au développement d'une technologie MIS (MOS) fiable sur GaN. À travers ce document, nous rapportons les résultats des travaux entrepris pour la réalisation de capacités MIS, de contacts ohmiques et de diodes Schottky sur les deux types de substrat GaN et p-GaN. Le diélectrique utilisé comme couche isolante pour les structures MIS est le Nitrure de Silicium (Si[indice inférieur x]N[indice inférieur y]) déposé par PECVD. Ces travaux constituent une introduction aux procédés de microfabrication sur nitrure de gallium, aux difficultés liées aux effets de surface dans le GaN et aux étapes de préparation chimique en vue de minimiser la densité de charges d'état à l'interface métal/GaN et diélectrique/GaN. La première partie du document est dédiée à la caractérisation optique et électrique des substrats GaN utilisés par étude de spectroscopie de photoluminescence (PL) et par étude Schottky.
48

Influence de l'endommagement cumulatif en fatigue sur la résistance en compression et en traction de cornières d'acier

Dubuc, Jonathan January 2014 (has links)
Étant donné la distance entre ces principaux centres de production hydro‐électrique et ces grands centres de consommation d’énergie, le Québec est doté d’un réseau de transport d’énergie s’étendant sur plusieurs centaines de kilomètres. Les pylônes d'acier couramment utilisés dans le transport d’énergie sont exposés à des contraintes environnementales et mécaniques pouvant diminuer leur capacité à long terme. Pour effectuer une gestion efficace du réseau de transport d’énergie et assurer son intégrité, il faut avoir des méthodes pour évaluer l'effet de ces contraintes sur la capacité des cornières d'acier composant ces pylônes. Dans ce document, un concept préliminaire de courbes d’usure permettant d’évaluer la capacité résiduelle de cornières d’acier en fonction de l'âge et de l'emplacement géographique du pylône est développé. Plus de 250 essais en compression réalisés sur des cornières d’acier sont répertoriés pour comparer l’exactitude de différentes normes quant à l’évaluation de la résistance en compression de cornières. Les cinq normes à l’étude sont la CAN/CSA S16‐09 (2009), l’ANSI/AISC 360‐05 (2005), l’ASCE 10‐97 (1997), l’Eurocode 3 (2003), la CAN/CSA S136‐07 (2010). Une lacune au niveau de l’évaluation de la capacité des cornières avec un ratio largeur sur épaisseur d’aile élevé a été identifiée dans la norme S16‐09. En effet, la méthode utilisée dans cette norme surestime l’effet du flambement de plaque et par conséquent sous‐estime la capacité réelle des cornières. Une méthode alternative basée sur la celle de la norme S16‐09 a été développée pour remédier à ce problème. La nouvelle méthode offre de meilleurs prédictions pour la presque totalité des spécimens à l'étude. Des notions de fatigue et de corrosion de l'acier, de vent et de résistance en traction de cornières sont aussi brièvement abordées. Ensuite, une méthode théorique pour quantifier l’endommagement en fatigue des cornières composant un pylône a été développée. Cette méthode consiste à évaluer à l’aide de lois statistiques la probabilité d'occurrence des vitesses de vent rencontrées sur divers sites au Québec. À l’aide de ces vitesses, l’endommagement mécanique des membrures composant les pylônes est évalué avec la loi d’endommagement de Miner en fonction de l’intensité du vent rencontré pour les différents sites. Finalement, des essais de traction et de compression ont été réalisés sur plus de 96 cornières ayant des niveaux d’endommagement mécanique différents. Cet endommagement est induit à l’aide d’un montage permettant d'appliquer un chargement cyclique en traction aux spécimens. À l’aide de la méthode développée et des résultats des essais, des courbes d’usure prévoyant la capacité résiduelle d’une cornière en fonction de son endommagement ont pu être tracées.
49

Développement des bétons semi autoplaçants à rhéologie adaptée pour des infrastructures

Sotomayor Cruz, Cristian Daniel January 2012 (has links)
Au cours des dernières décennies, les infrastructures canadiennes et québécoises comportent plusieurs structures en béton armé présentant des problèmes de durabilité dus aux conditions climatiques sévères, à la mauvaise conception des structures, à la qualité des matériaux, aux types des bétons choisis, aux systèmes de construction ou à l'existence d'événements incontrôlables. En ce qui concerne le choix du béton pour la construction des infrastructures, une vaste gamme de béton divisée en deux principaux types peut être utilisée: le béton conventionnel vibré (BCV) et le béton autoplaçant (BAP). Dans le cas d'un BCV, la consolidation inadéquate par vibration a été un problème récurrent, occasionnant des dommages structuraux. Ceci a conduit à une réduction de la durabilité et à une augmentation du coût d'entretien et de réparation des infrastructures. Rien que l'utilisation d'un BAP a des avantages tels que l'élimination de la vibration, la réduction des coûts de main d'oeuvre et l'amélioration de la qualité des structures, néanmoins, le coût initial d'un BAP par rapport à un BCV ne permet pas encore de généraliser son utilisation dans l'industrie de la construction. Ce mémoire présente la conception d'une nouvelle gamme de béton semi-autoplaçant pour la construction des infrastructures (BSAP-I) exigeant une vibration minimale. Il s'agit de trouver un équilibre optimal entre la rhéologie et le coût initial du nouveau béton pour conférer une bonne performance structurale et économique aux structures. Le programme expérimental établi a premièrement permis d'évaluer la faisabilité d'utilisation des BSAP-I pour la mise en place des piliers d'une infrastructure de pont à Sherbrooke. En plus, l'utilisation d'un plan d'expériences a permis l'évaluation de trois paramètres de formulation sur les propriétés des mélanges de BSAP-I à l'état frais et durci. Finalement, l'évaluation de la performance des BSAP-I optimisés à travers une caractérisation complète des propriétés mécaniques et de la durabilité a été réalisée. A la suite de cette étude, les résultats obtenus nous permettent de conclure que : (1) L'utilisation d'un BSAP-I avec un gros granulat de 5 - 14 mm, des rapports E/L = 0,37 et S/G = 0,52 et une teneur en air de 6 à 9% a été possible en conférant un équilibre optimal fluidité / stabilité à l'état frais, ainsi qu'un niveau de thixotropie adéquate au chantier permettant d'optimiser la conception du coffrage des piliers de pont et de conférer des qualités de surfaces très acceptables de ces infrastructures. (2) La méthode adaptée pour l'essai L-Box contenant 2 barres et une vibration de 5 secondes a permis de bien caractériser la capacité de remplissage d'un BSAP-I. (3) L'utilisation d'un plan factoriel 2[indice supérieur 3] a permis d'obtenir des modèles statistiques fiables, capables de prédire les propriétés rhéologiques à l'état frais et les résistances en compression des BSAP-I avec des dosages en liant entre 370 et 420 kg/m[indice supérieur 3] , des rapports E/L entre 0,34 et 0,40 et S/G entre 0,47 et 0,53. (4) Des mesures de vitesse d'écoulement T[indice inférieur 40] d'un BSAP-I sont très semblables à celles d'un BAP. En plus, des valeurs T[indice inférieur 40] montrent une bonne corrélation linéaire avec celles de Tîndice inférieur 400] mesurés dans la boîte L-Box. (5) À la frontière du BAP et du BCV, une bande rhéologique possédant un [?0] entre 30 et 320 Pa et un [éta] entre 10 et 140 Pa.s a été trouvée pour la conception optimale des BSAP-I. (6) Les BSAP-I optimisés ont également conféré une très bonne performance à l'état frais, en permettant maintenir un bon équilibre entre la rhéologie et la stabilité dans le temps, lorsqu'on utilise une énergie de vibration minimale pour amorcer son écoulement. (7) À l'état durci les BSAP-I ont conféré une bonne performance présentant des résistances mécaniques élevées et des niveaux négligeables de pénétration aux ions chlores, de perte de masse par écaillage et des attaques par le gel/dégel. (8) L'utilisation des ciments combinés possédant de la fumée de silice, du laitier et de la cendre volante ont permis [d']améliorer le comportement rhéologique et minimiser le retrait par séchage des BSAP-I dans le temps.
50

Assessment of the impact of the measurement precision of thermal properties of materials on the prediction of their thermal behaviour / Évaluation de l'impact de la précision de mesure des propriétés thermiques des matériaux sur la prédiction de leur comportement thermique

Khatun, Ayesha January 2010 (has links)
Résumé : Les propriétés thermiques des matériaux utilisées pour la construction des murs latéraux d’une cuve d’électrolyse de l’aluminium captent l’attention depuis les deux dernières décennies. Une bonne prédiction du comportement thermique dynamique des cellues Hall-Heroult, y compris une estimation précise des pertes d'énergie et de l'emplacement du gel sur le coté, est rendue possible lorsque les matériaux de coté sont bien caractérisés en fonction de la température. L'objectif de ce travail consiste à mesurer la diffusivité thermique, la capacité calorifique et la conductivité thermique du carbure de silicium, des matériaux carbones du coté (graphitique et graphitise) et de la cryolite à l’aide de techniques de caractérisation transitoires. La diffusivité thermique et la capacité de calorifique sont mesurées en utilisant respectivement un diffusivimètre thermique et un calorimètre à balayage différentiel. La conductivité thermique est calculée en supposant une masse volumique constante. La marge d'erreur sur la precision de chaque propriété thermique a également été calculée pour un nombre fini d'ensembles de données. Une conflation empirique a été élaborée pour chacune des propriétés pour décrire la relation avec la température en termes mathématiques. La caractérisation thermique de la chaleur latente dégagée lors de la fonte de la gelée de coté est également effectuée. Enfin, sur la base des calculs effectués avec un modele 2-D numérique, l'effet des erreurs de mesure entachant les différentes propriétés thermiques des matériaux du coté sur le comportement dynamique d'un réacteur à changement de phase de type laboratoire est également présenté. Les résultats obtenus montrent l’intérêt de nouvelles études sur les propriétés thermiques des matériaux utilisés dans les cellules d’électrolyse de l'aluminium pour découvrir l’influence de l'environnement thermique intérieur de la cellule, pour estimer les pertes de chaleur et l'effet des additifs sur l’emplacement du front de solidification. // Abstract : The thermal properties of the sidewall lining materials are capturing attention since the last two decades. Good prediction of the dynamic thermal behaviour of Hall Heroult cells, including precise estimation of energy losses and location of the side ledge formed by the solidification of electrolytic bath, is made possible when the sidelining materials are well characterized in function of temperature. The present work aim at measuring the thermal diffusivity, heat capacity and thermal conductivity of silicon carbide (SiC), graphitic and graphitized carbon materials and cryolite (NasAlFe) based on transient characterization techniques. The thermal diffusivity and the heat capacity are measured by using state-of-the-art transient laser flash analyzer and differential scanning calorimeter respectively. The thermal conductivity is calculated by assuming a constant density. The range of precision error for each thermal property is also calculated for a finite number of data sets. Empirical correlation has been drawn for each of the properties to describe the relation with temperature in mathematical terms. Thermal characterization of the latent heat evolved during the melting of ledge is also carried out. Finally, based on the calculations conducted with a 2-D numerical model, the effect of the precision errors of temperature varying thermal properties of the sidewall materials and ledge on the dynamic behaviour of a laboratory scale phase change reactor is also presented. The results, so obtained, encourage further studies on the thermal properties of materials used in the aluminium reduction cell to find out the thermal environment inside the cell, heat loss estimation and effect of the additives on the location of ledge.

Page generated in 0.0521 seconds