• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 150
  • 89
  • 13
  • 1
  • Tagged with
  • 248
  • 113
  • 50
  • 42
  • 41
  • 39
  • 37
  • 37
  • 31
  • 29
  • 27
  • 26
  • 26
  • 24
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Analyse et optimisation des réseaux avioniques hétérogènes / Analysis and optimiozation of heterogeneous avionics networks

Ayed, Hamdi 27 November 2014 (has links)
La complexité des architectures de communication avioniques ne cesse de croître avec l’augmentation du nombre des terminaux interconnectés et l’expansion de la quantité des données échangées. Afin de répondre aux besoins émergents en terme de bande passante, latence et modularité, l’architecture de communication avionique actuelle consiste à utiliser le réseau AFDX (Avionics Full DupleX Switched Ethernet) pour connecter les calculateurs et utiliser des bus d’entrée/sortie (par exemple le bus CAN (Controller Area Network)) pour connecter les capteurs et les actionneurs. Les réseaux ainsi formés sont connectés en utilisant des équipements d’interconnexion spécifiques, appelés RDC (Remote Data Concentrators) et standardisé sous la norme ARINC655. Les RDCs sont des passerelles de communication modulaires qui sont reparties dans l’avion afin de gérer l’hétérogénéité entre le réseau cœur AFDX et les bus d’entrée/sortie. Certes, les RDCs permettent d’améliorer la modularité du système avionique et de réduire le coût de sa maintenance; mais, ces équipements sont devenus un des défis majeurs durant la conception de l’architecture avionique afin de garantir les performances requises du système. Les implémentations existantes du RDC effectuent souvent une translation direct des trames et n’implémentent aucun mécanisme de gestion de ressources. Or, une utilisation efficace des ressources est un besoin important dans le contexte avionique afin de faciliter l’évolution du système et l’ajout de nouvelles fonctions. Ainsi, l’objectif de cette thèse est la conception et la validation d’un RDC optimisé implémentant des mécanismes de gestion des ressources afin d’améliorer les performances de l’architecture de communication avionique tout en respectant les contraintes temporelles du système. Afin d’atteindre cet objectif, un RDC pour les architectures réseaux de type CAN-AFDX est conçu, intégrant les fonctions suivantes: (i) groupement des trames appliqué aux flux montants, i.e., flux générés par les capteurs et destinés à l’AFDX, pour minimiser le coût des communication sur l’AFDX; (ii) la régulation des flux descendants, i.e., flux générés par des terminaux AFDX et destinés aux actionneurs, pour réduire les contentions sur le bus CAN. Par ailleurs, notre RDC permet de connecter plusieurs bus CAN à la fois tout en garantissant une isolation entre les flux. Par la suite, afin d’analyser l’impact de ce nouveau RDC sur les performances du système avionique, nous procédons à la modélisation de l’architecture CAN-AFDX, et particulièrement le RDC et ses nouvelles fonctions. Ensuite, nous introduisons une méthode d’analyse temporelle pour calculer des bornes maximales sur les délais de bout en bout et vérifier le respect des contraintes temps-réel. Plusieurs configurations du RDC peuvent répondre aux exigences du système avionique tout en offrant des économies de ressources. Nous procédons donc au paramétrage du RDC afin de minimiser la consommation de bande passante sur l’AFDX tout en respectant les contraintes temporelles. Ce problème d’optimisation est considéré comme NP-complet, et l’introduction des heuristiques adéquates s’est avérée nécessaire afin de trouver la meilleure configuration possible du RDC. Enfin, les performances de ce nouveau RDC sont validées à travers une architecture CAN-AFDX réaliste, avec plusieurs bus CAN et des centaines de flux échangés. Différents niveaux d’utilisation des bus CAN ont été considérés et les résultats obtenus ont montré l’efficacité de notre RDC à améliorer la gestion des ressources du système avionique tout en respectant les contraintes temporelles de communication. En particulier, notre RDC offre une réduction de la bande passante AFDX allant jusqu’à 40% en comparaison avec le RDC actuellement utilisé. / The aim of my thesis is to provide a resources-efficient gateway to connect Input/Output (I/O) CAN buses to a backbone network based on AFDX technology, in modern avionics communication architectures. Currently, the Remote Data Concentrator (RDC) is the main standard for gateways in avionics; and the existing implementations do not integrate any resource management mechanism. To handle these limitations, we design an enhanced CAN-AFDX RDC integrating new functions: (i) Frame Packing (FP) allowing to reduce communication overheads with reference to the currently used "1 to 1" frame conversion strategy; (ii) Hierarchical Traffic Shaping (HTS) to reduce contention on the CAN bus. Furthermore, our proposed RDC allows the connection of multiple I/O CAN buses to AFDX while guaranteeing isolation between different criticality levels, using a software partitioning mechanism. To analyze the performance guarantees offered by our proposed RDC, we considered two metrics: the end-to-end latency and the induced AFDX bandwidth consumption. Furthermore, an optimization process was proposed to achieve an optimal configuration of our proposed RDC, i.e., minimizing the bandwidth utilization while meeting the real-time constraints of communication. Finally, the capacity of our proposed RDC to meet the emerging avionics requirements has been validated through a realistic avionics case study.
152

Analyse et dimensionnement de réseaux hétérogènes embarqués / Analysis and dimensioning of embedded heterogeneous networks

Ahmed Nacer, Abdelaziz 09 March 2018 (has links)
Avec l’apparition des nouvelles technologies de communication, le nombre des systèmes embarqués avionique et automobile est en constante augmentation. La gestion des communications entre ces systèmes devient alors de plus en plus complexe à mettre en oeuvre dans un contexte où les contraintes temporelles et environnementales sont très fortes et où le taux d’échanges de messages en augmentation continuelle. L’utilisation optimale des réseaux pour acheminer les données tout en respectant les contraintes temporelles imposées est essentielle du point de vue de la sûreté de fonctionnement. Historiquement, pour répondre aux problématiques d’efficacité et de sûreté, les industriels ont développé une palette de réseaux embarqués dédiés à leurs applications cibles (CAN, LIN, . . . ). Ces réseaux présentaient des débits relativement faibles à un moment où un besoin croissant en bande passante se faisait ressentir. le choix d’utiliser le concept de composants dit ‘sur étagères’ (off the shelf COTS) permettait alors de pallier à ce nouveau besoin. Dans un souci de conservation des capacités des réseaux à garantir les contraintes temporelles imposées par les systèmes embarqués temps réel, les industriels ont dû adapter ce concept de composants sur étagères aux systèmes embarqués. L’intérêt de l’utilisation de ces composants est un gain non négligeable en bande passante et en poids pour des coûts de développements relativement faibles. L’introduction de ces composants nouveaux s’est faite de telle sorte que leur impact sur les standards préexistants et les systèmes connectés soit minimal. C’est ainsi que les réseaux dit ‘hétérogènes’ ont vu leur apparition. Ces réseaux constituent une hybridation entre les technologies embarquées historiques et les composants sur étagère. Ils consistent en des réseaux d’extrémité utilisant des technologies éprouvées (telles que le CAN) interconnectés via des passerelles à un réseau fédérateur (backbone) utilisant des composants sur étagères. Dès lors, le défi majeur à relever lors de l’utilisation d’un réseau fédérateur est de respecter les contraintes temporelles des applications sollicitant les différents réseaux. L’objectif est mis à mal sur les points d’interconnexion des réseaux hétérogènes (Passerelles). Ainsi l’approche principale utilisée pour le passage d’un réseau à un autre est l’encapsulation de trames. Pour atteindre l’optimalité de performance de cette technique plusieurs paramètres sont à prendre en compte tels que le nombre de trames à encapsuler, les ordonnancements utilisés, le coût en bande passante ainsi que l’impact sur les distributions de délais (gigue). Dans l’optique de préservation des performances des réseaux, l’objet de nos travaux porte sur l’étude, la comparaison et la proposition de techniques permettant l’interconnexion de réseaux hétérogènes temps réels à la fois pour des applications à faibles et à fortes contraintes temporelles. Après un état de l’art sur les réseaux temps réel, nous spécifions différentes techniques d’interconnexion de réseaux hétérogènes, puis, nous présentons une étude de cas basée sur une architecture réseau interconnectant différents bus CAN via un réseau fédérateur sans fil Wi-Fi. L’étude que nous avons menée montre, par le biais de différentes simulations, que cette architecture réseau est une bonne candidate pour la transmission de flux à contraintes temporelles faibles. Une architecture réseau interconnectant différents bus CAN via un réseau fédérateur Ethernet commuté est ensuite considérée dans une seconde étude de cas ciblant les applications à fortes contraintes temporelles. Dans un premier temps, nous prenons en compte le cas d’un réseau fédérateur Ethernet-PQSE et, dans un second temps, le cas d’Ethernet-AVB. Cette étude nous permet de montrer l’impact des différentes techniques d’interconnexion sur les délais des flux du réseau. / With the emergence of new communication technologies, the number of avionics and automotive embedded systems is constantly increasing. The management of communications between these systems becomes increasingly complex to implement in a context where temporal and environmental constraints are very strong and where messages exchange rate is continuously increasing. The optimal use of networks to transmit data while fulfilling the imposed temporal constraints is essential from a safety point of view. Historically, in order to address safety and efficiency issues, manufacturers have developed a range of embedded networks dedicated to their target applications (CAN, LIN, . . . ). These networks have relatively low bit rates at a point of time where a growing need for bandwidth was felt. To overcome this new need, the choice of using the concept of so-called ’off-theshelf’ components (COTS) has been made. In order to preserve the networks abilities to guarantee the temporal constraints imposed by the real time embedded systems, manufacturers had to adapt the concept of off-the-shelf components to embedded systems. The benefits of using these components is a non-negligible gain in bandwidth and weight for relatively low development costs. The introduction of these new components has been made in such a way that their impact on pre-existing standards and connected systems is minimal. thereby, so-called ’heterogeneous’ networks have emerged. These networks are a hybridization of historical embedded technologies and off-the-shelf components. They consist of stub networks using proven technologies (such as CAN) interconnected via gateways to a backbone network using off-the-shelf components. Thus, the major challenge while using a heterogeneous network is to respect the temporal constraints of the applications requesting the different parts of the networks. This objective can be damaged at the interconnection points of the heterogeneous networks (Gateways). The main used approach to pass frames from one network to another is the encapsulation. To achieve the optimum performances of this technique, several parameters have to be considered such as the number of frames encapsulated, the used scheduling policy, the bandwidth cost as well as the impact on delay distributions (jitter). In order to preserve networks performances, the aim of our work is to study, compare and propose techniques ennabling the interconnection of real-time heterogeneous networks for application with both soft and hard temporal constraints. After a state of the art on real-time networks, we have specified different techniques for the interconnection of heterogeneous networks, then we have presented a case study based on a network architecture interconnecting different CAN buses via a wireless backbone network (Wi-Fi ). The study we conducted shows, through various simulations, that this network architecture is a good contender for the transmission of flows with soft temporal constraints. A network architecture interconnecting different CAN busses via a switched Ethernet backbone is considered in a second case study targeting applications with hard temporal constraints. Two different Ethernet backbone networks are taken into account. We studied first, the case of a switched Ethernet-PQSE backbone network. Then the case of a switched Ethernet-AVB backbone is considered. This study enabled us to highlight the impact of the different used interconnection techniques on network flows delays.
153

Sylviculture des forêts hétérogènes de montagne et compromis production-biodiversité : une approche simulation / Management of heterogeneous mountain forests and trade-off between timber production and biodiversity conservation : a simulation study

Lafond, Valentine 10 July 2014 (has links)
Les changements globaux et l'évolution du contexte socio-économique renforcent les attentes vis-à-vis d'une gestion multifonctionnelle des forêts. En France, la communauté forestière s'est accordée sur la définition du double objectif de « produire plus de bois, tout en préservant mieux la biodiversité […]» (Grenelle de l'Environnement, 2007). Cet objectif s'accompagne d'une volonté de maintenir des attributs favorables à la biodiversité d'une part, et de « dynamiser » la sylviculture d'autre part. La comptabilité entre ces mesures est toutefois controversée et il est aujourd'hui nécessaire de mieux comprendre leurs effets sur les services écosystémiques, afin de pouvoir définir les conditions d'une gestion forestière multifonctionnelle et durable.L'objectif de la thèse est d'explorer de manière fine l'effet de la sylviculture sur la structure des peuplements, la production de bois et la préservation de la biodiversité. Le travail s'articule autour de deux hypothèses générales : (1) celle que les indicateurs de ces deux services répondent de manière différente à la gestion; (2) celle qu'une gamme intermédiaire d'intensités de sylviculture est favorable au compromis entre production et biodiversité. Le travail a porté sur le cas des sapinières-pessières irrégulières de montagne, qui présentent une longue tradition de gestion en futaie irrégulière et sont jugées favorables à la fourniture d'un certain nombre de services écosystémiques. Nous avons opté pour une approche par simulation s'appuyant sur le couplage d'un modèle de dynamique forestière, d'algorithmes de sylviculture et de modèles et indicateurs de production et de biodiversité. Le travail de thèse a nécessité la mise en place d'une démarche complète d'expérimentation par simulation impliquant les étapes (i) de formalisation des variables de contrôle et de réponse, (ii) de développement et d'évaluation de modèles, (iii) de définition de plans d'expérience, (iv) d'analyse de sensibilité et (v) d'analyse de la réponse des indicateurs à la gestion. Une analyse complète du modèle Samsara2 nous a permis de vérifier la cohérence des dynamiques forestières simulées et la fiabilité des prédictions. Un algorithme de sylviculture a été développé pour modéliser la gestion en futaie irrégulière de manière fine. Deux modèles de biodiversité ont été implémentés à partir de modèles issus de la littérature : un modèle de stockage et de décomposition du bois mort et un modèle de prédiction de la richesse spécifique de la strate herbacée. Une analyse de sensibilité du système nous a tout d'abord permis d'analyser l'influence des paramètres d'entrée (sylvicoles, démographiques ou état initial) sur un ensemble d'indicateurs de structure, production et biodiversité, puis d'identifier et de fixer les paramètres peu influents. Une approche par régression a ensuite permis d'établir la fonction de réponse (métamodèle) de chaque indicateur aux principaux leviers de gestion, en interaction avec la démographie et l'état initial. Nous avons ainsi observé un effet négatif de l'intensification de la gestion sur la biodiversité, bien que cet effet varie en fonction des indicateurs. Les mesures de conservation de la biodiversité peuvent toutefois servir de leviers de compensation dans certains cas, permettant ainsi de concilier les deux objectifs. Des situations de compromis entre indicateurs de production et/ou biodiversité ont été détectées, mais leur analyse fine nécessite désormais de se tourner vers les méthodes d'analyse multicritère.Ainsi, l'analyse couplée des de la réponse des indicateurs de services écosystémiques à la gestion et des scénarii de gestion situés sur la zone de compromis devrait permettre d'alimenter les échanges avec les gestionnaires forestiers et de discuter des recommandations de gestion à l'échelle de la parcelle ou du massif forestier. / Global change and the evolution of the socio-economic context reinforce the expectations for multifunctional forest management. In France, the forest community agreed on the definition of the double objective of “improving timber production while preserving biodiversity better” (Grenelle 2007). This objective goes along with a will of maintaining the natural attributes favoring biodiversity on one hand, and of increasing management intensity on the other hand. The compatibility between both objectives is however controversial and it seem nowadays necessary to better understand their effects on ecosystem services, so as to enable the definition of multifunctional and sustainable forest management. The objective of this PhD thesis is to explore the effect of silviculture on stand structure, timber production and biodiversity preservation. This works involves two main hypotheses: (1) the fact that ecosystem services indicators present different responses to silvicultural drivers, thus leading to trade-offs situations; (2) the fact that management scenarios of intermediate intensity may enable satisfactory production-biodiversity trade-offs to be reached. This work addressed the case of uneven-aged spruce-fir mountain forests, which present a long tradition of uneven-aged management (selection system) and are judged favorable to the provision of several ecosystem services. We used a simulation approach coupling a forest dynamics simulation model (Samsara2), a silviculture algorithm, and ecosystem services models and indicators (for timber production and biodiversity). This however required a complete simulation experiment approach to be set up, with several steps: (i) formalization of control and response variables, (ii) model development and evaluation, (iii) experiment designs definition, (iv) sensitivity analysis, and (v) study of indicators' response to management. A complete analysis of the Samsara2 model enabled the consistency of simulated forest dynamics and the reliability of predictions to be checked. A silviculture algorithm has been developed to accurately model uneven-aged management. Two biodiversity models have been implemented from the literature: a dead wood decay model and an understory diversity model.A sensitivity analysis of the system first enabled us to assess the influence of input parameters (silviculture, demographic and initial state) on structure, timber production and biodiversity indicators, and then to identify and fix those with low influence. Then, a regression approach enabled the establishment of the response function (metamodels) of each indicator to the main silvicultural factors, in interaction with demography and initial state. This revealed the negative effect of increased management intensity on biodiversity indicators, although its effect depended on the indicator. Biodiversity conservation measures could however be used as compensation drivers in some cases, therefore enabling both objectives to be concealed. Trade-offs situations have also been detected between timber production and/or biodiversity conservation indicators, but their analysis now require specific multi-criteria analysis to be used.The combined analysis of ecosystem services response to silvicultural drivers and of management scenarios located on the trade-offs area would then supply the discussion with forest managers with new elements and enable management recommendations to be discussed at the stand or landscape scale.
154

Synthèse et caractérisation de sphères monodisperses de silice à porosité radiale (multi)fonctionnelles et étude de leur performance en catalyse en phase liquide et en vectorisation de principes actifs. / Preparation and characterization of multi(functional) monodisperse silica spheres with radial porosity and their performance in liquide phase catalysis and drug vectorization and targeting.

Nyalosaso Likoko, Jeff 12 December 2011 (has links)
Une nouvelle approche de synthèse a été développée pour non seulement contrôler la morphologie, la taille et la texture de particules de silice mais aussi incorporer une ou plusieurs fonctionnalités à la surface interne de leurs pores. La morphologie sphérique, la monodispersité des particules, la porosité radiale, la dispersion et l'accessibilité des fonctionnalités ainsi que leur taux d'incorporation constituent les propriétés et les paramètres physico-chimiques privilégiés dans notre approche qui est basée sur la méthode de Stöber modifiée et la fonctionnalisation in-situ. Deux différentes applications ont été retenues pour étudier la quintessence de cette approche. La première consiste à incorporer des espèces métalliques (Al et Cu par exemple) dans les sphères de silice afin de les rendre fonctionnelles pour des applications catalytiques en phase liquide; et la deuxième consiste à greffer à la surface des particules des nanomachines sensibles permettant de contrôler le relargage des molécules actives pour des applications thérapeutiques. Dans les deux cas d'application, des performances optimales sont attendues. / A novel approach of synthesis has been developed in order to control simultaneously the morphology, size and textural parameters of silica particles, as well as to incorporate one or more functional groups in the pore walls. In this approach, based on the modified Stöber method and in-situ functionalization, emphasis is put on the spherical morphology, the particle monodispersity, the radially disposed porous structure, and the appropriate dispersion and accessibility of surface functional groups. Two potential applications have been selected so as to verify the feasibility of the approach. In view of materials use for heterogenous catalysis in the liquid phase, the monodisperses mesoporous silica spheres were derivatized with metallic species (e.g., Al and Cu) by direct incorporation in the synthesis stage. The second type of applications concerned the use of silica spheres as sensitive nanomachines for the controlled drug release and required grafting of appropriate organic molecules onto the silica surface.
155

Supervision de mission pour une équipe de véhicules autonomes hétérogènes / Mission supervision for a team of autonomous heterogeneous vehicles

Gateau, Thibault 11 December 2012 (has links)
Ces dernières années, les engins robotisés n’ont cessé d’améliorer leur autonomie dans le domaine de la décision. Désormais, pour ne citer que l’exemple de véhicules aériens, nombre de drones sont largement capables, sans intervention d’un opérateur humain, de décoller, suivre un itinéraire en activant divers capteurs à des moments précis, atterrir en un lieu spécifié, suivre une cible, patrouiller sur une zone... Une des étapes suivantes consiste à faire collaborer une équipe de véhicules autonomes, de nature hétérogène (aériens, terrestres, marins...) afin de leur permettre d’accomplir des missions plus complexes. L’aspect dynamique de l’environnement réel, la non disponibilité à tout instant des moyens de communication, la coordination nécessaire des véhicules,de conceptions parfois différentes, dans l’exécution de certaines parties d’un plan de mission, sont autant d’obstacles à surmonter. Ce travail tente non seulement d’apporter quelques éléments de réponse face à ces difficultés, mais consiste aussi en la mise en place concrète d’un superviseur haut niveau, capable de gérer l’exécution d’une mission par une équipe de véhicules autonomes hétérogènes, où le rôle de l’opérateur humain est volontairement réduit. Nous décrivons dans ce mémoire l’architecture distribuée que nous avons choisi de mettre en œuvre pour répondre à ce problème. Il s’agit d’un superviseur, réparti à bord des véhicules autonomes, interfacé avec leur architecture locale et en charge de l’exécution de la mission d’équipe. Nous nous intéressons également à la formalisation des connaissances nécessaires au déroulement de cette mission, afin d’améliorer l’interopérabilité des véhicules de l’équipe, mais aussi pour expliciter les relations entre modèles décisionnels abstraits et réalité d’exécution concrète. Le superviseur est capable de réagir face aux aléas qui vont se produire dans un environnement dynamique. Nous présentons ainsi dans un second temps les stratégies mises en place pour parvenir à les détecter au mieux, ainsi que la façon dont nous procédons pour réparer partiellement ou totalement le plan de mission initial, afin de remplir les objectifs initiaux. Nous nous basons notamment sur la nature hiérarchique du plan de mission, mais aussi sur celle de la structure de sous-équipes que nous proposons de construire. Enfin, nous présentons quelques résultats obtenus expérimentalement, sur des missions simulées et des scénarios réels, notamment ceux du Programme d’Etudes Amont Action dans lequel s’inscrivent ces travaux de thèse. / Many autonomous robots with specific control oriented architectures have already been developed worldwide.The advance of the work in this field has led researchers wonder for many years to what extent robots would be able to be integrated into a team consisting of autonomous and heterogeneous vehicles with complementary functionalities. However, robot cooperation in a real dynamic environment under unreliable communication conditions remains challenging, especially if these autonomous vehicles have different individual control architectures.In order to address this problem, we have designed a decision software architecture, distributed on each vehicle.This decision layer aims at managing execution and at increasing the fault tolerance of the global system. The mission plan is assumed to be hierarchically structured. ln case of failure detection, the plan repair is done as locally as possible, based on the hierarchical organization.This allows us to restrict message exchange only between the vehicles concerned by the repair process. Knowledge formalisation is also a part of the study permitting the improvement of interoperability between team members. It also provides relevant information all along mission execution, from initial planning computation to plan repair in this multirobot context. The feasibility of the system has been evaluated by simulations and real experiments thanks to the Action project (http://action.onera.fr/welcome/).
156

Décarboxilation catalytique de l'acide palmique en n-pentadécane / Catalytic decarboxylation of palmitic acid to n-pentadecane

Mapembé Kimené, Anouchka 04 December 2017 (has links)
La réaction de décarboxylation de l’acide palmitique en n-pentadécane a été étudiée en réacteur discontinu en présence de catalyseurs bimétalliques de type Ni-Me (où Me=Fe, Cu ou Ag) supportés sur charbon actif. Ces catalyseurs ont été préparés à l’aide d’un robot haut débit disponible sur la plateforme REALCAT de l’UCCS par déposition-précipitation en utilisant l’hydrazine comme agent réducteur afin de mieux maitriser la taille des nanoparticules métalliques, leur distribution et leur degré de réduction. Ces derniers ont été caractérisés par ICP, adsorption d’azote, XPS, XRD et TEM afin d’obtenir des informations relatives à leurs compositions, leurs propriétés texturales, surfaciques et morphologiques. Dans cette étude, l’optimisation du procédé catalytique a également été étudiée pour divers paramètres de réaction pour les catalyseurs les plus prometteurs. D’une part, l’impact de l’ajout d’un second métal sur les performances des catalyseurs à base de nickel a été étudié, et, d’autre part, l’effet de la température, de la durée de réaction, des concentrations initiales en réactifs, de l’atmosphère réactionnelle et de la masse de catalyseur utilisée ont été investiguées. Dans ce contexte, le catalyseur bimétallique 10%Ni10%Cu/C convertit complètement l’acide palmitique avec une sélectivité de 95 % en n-pentadecane à 320 °C sous une atmosphère contenant 10% de H2 dans N2 et pour une pression initiale de 20 bar. La réaction s’est déroulée pendant 6 h. Ce catalyseur a présenté une excellente stabilité après trois tests de recyclage consécutifs / The catalytic decarboxylation of palmitic acid to n-pentadecane was studied in a batch reactor in the presence of bimetallic Ni-Me catalysts (where Me = Fe, Cu or Ag) supported on activated carbon. These catalysts were prepared using a high-throughput robot of the REALCAT platform of UCCS by deposition-precipitation using hydrazine as reducing agent. These catalysts were characterized by ICP, N2 adsorption, XPS, XRD and TEM in order to obtain information relative to their compositions, textural properties, surfaces and morphologies. In this study, the optimization of the catalytic process was also investigated for various reaction parameters for the most promising samples. The main studied parameters were, on the one hand, the impact of the addition of a second metal on the performance of the nickel-based catalysts and, on the other hand, the effect of temperature, reaction time, initial reactant concentrations, atmosphere and mass of catalyst used. The conclusion of this study is that the 10%Ni10%Cu/C completely converts palmitic acid with a selectivity of 95 % to n-pentadecane in 6 h, at 320 °C under 10% H2 in N2 at an initial pressure of 20 bar. This catalyst exhibited excellent recyclability after three consecutive tests
157

Performance-cost trade-offs in heterogeneous clouds / Compromis performance-coût dans les clouds hétérogènes

Iordache, Ancuta 09 September 2016 (has links)
Les infrastructures de cloud fournissent une grande variété de ressources de calcul à la demande avec différents compromis coût-performance. Cela donne aux utilisateurs des nombreuses opportunités pour exécuter leurs applications ayant des besoins complexes en ressources, à partir d’un grand nombre de serveurs avec des interconnexions à faible latence jusqu’à des dispositifs spécialisés comme des GPUs et des FPGAs. Les besoins des utilisateurs concernant l’exécution de leurs applications peuvent varier entre une exécution la plus rapide possible, la plus chère ou un compromis entre les deux. Cependant, le choix du nombre et du type des ressources à utiliser pour obtenir le compromis coût-performance que les utilisateurs exigent constitue un défi majeur. Cette thèse propose trois contributions avec l’objectif de fournir des bons compromis coût-performance pour l’exécution des applications sur des plates-formes hétérogènes. Elles suivent deux directions : un bon usage des ressources et un bon choix des ressources. Nous proposons comme première contribution une méthode de partage pour des accélérateurs de type FPGA dans l’objectif de maximiser leur utilisation. Dans une seconde contribution, nous proposons des méthodes de profilage pour la modélisation de la demande en ressources des applications. Enfin, nous démontrons comment ces technologies peuvent être intégrées dans une plate-forme de cloud hétérogène. / Cloud infrastructures provide on-demand access to a large variety of computing devices with different performance and cost. This creates many opportunities for cloud users to run applications having complex resource requirements, starting from large numbers of servers with low-latency interconnects, to specialized devices such as GPUs and FPGAs. User expectations regarding the execution of applications may vary between the fastest possible execution, the cheapest execution or any trade-off between the two extremes. However, enabling cloud users to easily make performance-cost trade-offs is not a trivial exercise and choosing the right amount and type of resources to run applications accordingto user expectations is very difficult. This thesis proposes three contributions to enable performance-cost trade-offs for application execution in heterogeneous clouds by following two directions: make good use of resources and make good choice of resources. We propose as a first contribution a method to share FPGA-based accelerators in cloud infrastructures having the objective to improve their utilization. As a second contribution we propose profiling methods to automate the selection of heterogeneous resources for executing applications under user objectives. Finally, we demonstrate how these technologies can be implemented and exploited in heterogeneous cloud platforms.
158

Energy-efficiency in wireless sensor networks / Économie d'énergie dans les réseaux de capteurs sans fil

Rault, Tifenn 02 October 2015 (has links)
Dans cette thèse, nous avons proposé des solutions originales et performantes pour l’économie d’énergie dans les réseaux de capteurs sans fil (RCSF). Ces contributions s'organisent autour de deux grands axes : les réseaux de capteurs génériques et les réseaux de capteurs sans fil dédiés aux applications santé. Dans un premier temps, nous avons réalisé un état-de-l’art des mécanismes d'économie d’énergie pour les RCSF. Nous avons ensuite proposé deux solutions originales : la première optimise le déplacement d’une station de base, ainsi que la façon dont les données sont stockées dans les capteurs et routées vers le puit mobile ; la seconde optimise le déploiement de chargeurs mobiles, qui une fois dans le réseau permettent de satisfaire la demande en énergie des nœuds via la transmission d’énergie sans fil sur plusieurs sauts. Dans un second temps, nous nous sommes intéressés plus particulièrement aux applications des RCSF pour la supervision de patients à distance. Nous avons introduit une nouvelle classification des techniques économes en énergie adaptées à la spécificité de ces applications santé. Nous avons ensuite proposé une nouvelle architecture pour la supervision de patient à distance à l’aide de capteurs sans fil qui permet de prolonger la durée de vie des capteurs et de la station de base. Cette solution prend en compte l’environnement du patient et l’hétérogénéité des appareils. Nos résultats montrent que la durée de vie des réseaux de capteurs sans fil peut être étendue en utilisant les différentes stratégies proposées. L’efficacité de ces approches a été confirmée à l’aide de nombreuses expérimentations numériques et simulations. / In this thesis, we propose new strategies for energy conservation in wireless sensor networks, so that the operational time of these networks can be extended. The work can be divided into two main focus area, namely general wireless sensor networks, and healthcareoriented wearable sensor networks. In the first part of this thesis we provide a comprehensive survey of the existing energy-efficient mechanisms. Then, we propose two new solutions: the first one optimizes the displacement of a mobile base station as well as buffer usage and data routing at sensor nodes; the second one optimizes the deployment of wireless chargers in the network to satisfy the energy demand of the sensors. The second part of this thesis is dedicated to healthcare application where wearable sensors are used to remotely supervise a patient. We begin with a state-of-the-art of the energy-efficient techniques existing in the literature. We then introduce a new energy-efficient architecture that allows to optimize the lifetime of both the sensor and the base station. This is a context-aware solution that takes into consideration heterogeneous devices. Our results show that the lifetime of the sensor networks can be extended using the proposed strategies. All the results obtained are supported by numerical experiments and extensive simulations.
159

Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie / Management and visualisation oh heterogeneous multidimensional data : PLM application to neuroimaging

Allanic, Marianne 17 December 2015 (has links)
La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes. Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes Multidimensionnels Dynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les nœuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD. / Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization. The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states.
160

Scheduling of Dense Linear Algebra Kernels on Heterogeneous Resources / Ordonnancement de noyaux d'algèbre linéaire dense sur ressources hétérogènes

Kumar, Suraj 12 April 2017 (has links)
Du fait des énormes capacités de calculs des accélérateurs tels que les GPUs et les Xeon Phi, l’utilisation de machines multicoques pourvues d’accélérateurs est devenue commune dans le domaine du calcul haute performance (HPC). La complexité induite par ces accélérateurs a suscité le développement de systèmes d’exécution à base de tâches, dans lesquels les dépendances entre les applications sont exprimées sous la forme de graphe de tâches et où les tâches sont ordonnancées dynamiquement sur les ressources de calcul. La difficulté est alors de concevoir des stratégies d’ordonnancement qui font une utilisation efficace des ressources de calculs et le développement de telles stratégies, même pour un unique noeud hybride, est un enjeu essentiel de la performance des systèmes HPC. Nous considérons dans cette thèse l’ordonnancement de noyaux d’algèbre linéaire dense sur des noeuds complètement hétérogènes et constitués de CPUs et de GPUs. Les performances relatives des accélérateurs par rapport aux coeurs classique dépend très fortement du noyau considéré. Par exemple, les accélérateurs sont beaucoup plus efficaces pour les produits de matrices, par exemple, que pour les factorisations. Dans cette thèse, nous analysons les performances de stratégies statiques et dynamiques d’ordonnancement et nous proposons un ensemble de stratégies intermédiaires, en ajoutant des composantes statiques (respectivement dynamiques) à des stratégies d’ordonnancements dynamique (respectivement statiques). Récemment, une stratégie appelée HeteroPrio a été proposée, qui s’appuie sur les affinités entre les tâches et les ressources pour un petit ensemble de tâches différentes s’exécutant sur deux types de ressources. Nous avons étendu cette stratégie d’ordonnancement pour des graphes de tâches généraux pour deux types de ressources puis pour plus de deux types. De manière complémentaire, nous avons également démontré des facteurs d’approximation et des pires cas pour HeteroPrio dans le cas d’un ensemble de tâches indépendantes sur différents types de plates-formes. / Due to massive computation power of accelerators such as GPU, Xeon phi, multicore machines equipped with accelerators are becoming popular in High Performance Computing (HPC). The added complexity led to the development of different task-based runtime systems, which allow computations to be expressed as graphs of tasks and rely on runtime systems to schedule those tasks among all resources of the platform. The real challenge is to design efficient schedulers for such runtimes to make effective utilization of all resources. Developing good schedulers, even for a single hybrid node, and analyzing them can thus have a strong impact on the performance of current HPC systems. We consider the problem of scheduling dense linear algebra applications on fully hybrid platforms made of CPUs and GPUs. The relative performance of CPU and GPU highly depends on the sub-routine. For instance, GPUs are much more efficient to process matrix-matrix multiplications than matrix factorizations. In this thesis, we analyze the performance of static and dynamic scheduling strategies and we propose a set of intermediate strategies, by adding static (resp. dynamic) features into dynamic (resp. static) strategies. A resource centric dynamic scheduler, HeteroPrio, which is based on affinity between tasks and resources, has been proposed recently for a set of small independent tasks on two types of resources. We extend and analyze this scheduler for general task graphs first on two types of resources and then on more than two types of resources. Additionally, we provide approximation ratios and worst case examples of HeteroPrio for a set of independent tasks on different platform sizes.

Page generated in 0.0359 seconds