• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 13
  • 2
  • 1
  • Tagged with
  • 27
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Some visualization models applied to the analysis of parallel applications / Alguns modelos de visualização aplicados para a análise de aplicações paralelas / Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello January 2009 (has links)
Les systèmes distribués, tels que les grilles, sont utilisés aujourd’hui pour l’exécution des grandes applications parallèles. Quelques caractéristiques de ces systèmes sont l’interconnexion complexe de ressources qui pourraient être présent et de la facile passage à l’échelle. La complexité d’interconnexion vient, par exemple, d’un nombre plus grand de directives de routage pour la communication entre les processus et une latence variable dans le temps. La passage à l’échelle signifie que des ressources peuvent être ajoutées indéfiniment simplement en les reliant à l’infrastructure existante. Ces caractéristiques influencent directement la façon dont la performance des applications parallèles doit être analysée. Les techniques de visualisation traditionnelles pour cette analyse sont généralement basées sur des diagrammes de Gantt que disposent la liste des composants de l’application verticalement et metent la ligne du temps sur l’axe horizontal. Ces représentations visuelles ne sont généralement pas adaptés à l’analyse des applications exécutées en parallèle dans les grilles. La première raison est qu’elles n’ont pas été conçues pour offrir aux développeurs une analyse qui montre aussi la topologie du réseau des ressources. La deuxième raison est que les techniques de visualisation traditionnels ne s’adaptent pas bien quand des milliers d’entités doivent être analysés ensemble. Cette thèse tente de résoudre les problèmes des techniques traditionnelles dans la visualisation des applications parallèles. L’idée principale est d’exploiter le domaine de la visualisation de l’information et essayer d’appliquer ses concepts dans le cadre de l’analyse des programmes parallèles. Portant de cette idée, la thèse propose deux modèles de visualisation : les trois dimensions et le modèle d’agrégation visuelle. Le premier peut être utilisé pour analyser les programmes parallèles en tenant compte de la topologie du réseau. L’affichage lui-même se compose de trois dimensions, où deux sont utilisés pour indiquer la topologie et la troisième est utilisée pour représenter le temps. Le second modèle peut être utilisé pour analyser des applications parallèles comportant un très grand nombre de processsus. Ce deuxième modèle exploite une organisation hiérarchique des données utilisée par une technique appelée Treemap pour représenter visuellement la hiérarchie. Les implications de cette thèse sont directement liées à l’analyse et la compréhension des applications parallèles exécutés dans les systèmes distribués. Elle améliore la compréhension des modes de communication entre les processus et améliore la possibilité d’assortir les motifs avec cette topologie de réseau réel sur des grilles. Bien que nous utilisons abondamment l’exemple de la topologie du réseau, l’approche pourrait être adapté, avec presque pas de changements, à l’interconnexion fourni par un middleware d’une interconnexion logique. Avec la technique d’agrégation, les développeurs sont en mesure de rechercher des patterns et d’observer le comportement des applications à grande échelle. / Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto, esta tese propõe dois modelos de visualização: o de três dimensões e o modelo de agregação visual. O primeiro pode ser utilizado para analisar aplicações levando-se em conta a topologia da rede dos recursos. A visualização em si é composta por três dimensões, onde duas são usadas para mostrar a topologia e a terceira é usada para representar o tempo. O segundo modelo pode ser usado para analisar aplicações paralelas com uma grande quantidade de processos. Ela explora uma organização hierárquica dos dados de monitoramento e uma técnica de visualização chamada Treemap para representar visualmente a hierarquia. Os dois modelos representam uma nova forma de analisar aplicação paralelas visualmente, uma vez que eles foram concebidos para larga-escala e sistemas distribuídos complexos, como grids. As implicações desta tese estão diretamente relacionadas à análise e ao entendimento do comportamento de aplicações paralelas executadas em sistemas distribuídos. Um dos modelos de visualização apresentados aumenta a compreensão dos padrões de comunicação entre processos e oferece a possibilidade de observar tal padrão com a topologia de rede. Embora a topologia de rede seja usada, a abordagem pode ser adaptada sem grandes mudanças para levar em conta interconexões lógicas de bibliotecas de comunicação. Com a técnica de agregação apresentada nesta tese, os desenvolvedores são capazes de observar padrões de aplicações paralelas de larga escala. / Highly distributed systems such as grids are used today for the execution of large-scale parallel applications. Some characteristics of these systems are the complex resource interconnection that might be present and the scalability. The interconnection complexity comes from the different number of hops to provide communication among applications processes and differences in network latencies and bandwidth. The scalability means that the resources can be added indefinitely just by connecting them to the existing infrastructure. These characteristics influence directly the way parallel applications performance must be analyzed. Current traditional visualization schemes to this analysis are usually based on Gantt charts with one dimension to list the monitored entities and the other dimension dedicated to time. These visualizations are generally not suited to parallel applications executed in grids. The first reason is that they were not built to offer to the developer an analysis that also shows the network topology of the resources. The second reason is that traditional visualization techniques do not scale well when thousands of monitored entities must be analyzed together. This thesis tries to overcome the issues encountered on traditional visualization techniques for parallel applications. The main idea behind our efforts is to explore techniques from the information visualization research area and to apply them in the context of parallel applications analysis. Based on this main idea, the thesis proposes two visualization models: the three-dimensional and the visual aggregation model. The former might be used to analyze parallel applications taking into account the network topology of the resources. The visualization itself is composed of three dimensions, where two of them are used to render the topology and the third is used to represent time. The later model can be used to analyze parallel applications composed of several thousands of processes. It uses hierarchical organization of monitoring data and an information visualization technique called Treemap to represent that hierarchy. Both models represent a novel way to visualize the behavior of parallel applications, since they are conceived considering large-scale and complex distributed systems, such as grids. The implications of this thesis are directly related to the analysis and understanding of parallel applications executed in distributed systems. It enhances the comprehension of patterns in communication among processes and improves the possibility of matching this patterns with real network topology of grids. Although we extensively use the network topology example, the approach could be adapted with almost no changes to the interconnection provided by a middleware of a logical interconnection. With the scalable visualization technique, developers are able to look for patterns and observe the behavior of large-scale applications.
12

Some visualization models applied to the analysis of parallel applications / Alguns modelos de visualização aplicados para a análise de aplicações paralelas / Quelques modèles de visualisation pour l’analyse des applications parallèles

Schnorr, Lucas Mello January 2009 (has links)
Les systèmes distribués, tels que les grilles, sont utilisés aujourd’hui pour l’exécution des grandes applications parallèles. Quelques caractéristiques de ces systèmes sont l’interconnexion complexe de ressources qui pourraient être présent et de la facile passage à l’échelle. La complexité d’interconnexion vient, par exemple, d’un nombre plus grand de directives de routage pour la communication entre les processus et une latence variable dans le temps. La passage à l’échelle signifie que des ressources peuvent être ajoutées indéfiniment simplement en les reliant à l’infrastructure existante. Ces caractéristiques influencent directement la façon dont la performance des applications parallèles doit être analysée. Les techniques de visualisation traditionnelles pour cette analyse sont généralement basées sur des diagrammes de Gantt que disposent la liste des composants de l’application verticalement et metent la ligne du temps sur l’axe horizontal. Ces représentations visuelles ne sont généralement pas adaptés à l’analyse des applications exécutées en parallèle dans les grilles. La première raison est qu’elles n’ont pas été conçues pour offrir aux développeurs une analyse qui montre aussi la topologie du réseau des ressources. La deuxième raison est que les techniques de visualisation traditionnels ne s’adaptent pas bien quand des milliers d’entités doivent être analysés ensemble. Cette thèse tente de résoudre les problèmes des techniques traditionnelles dans la visualisation des applications parallèles. L’idée principale est d’exploiter le domaine de la visualisation de l’information et essayer d’appliquer ses concepts dans le cadre de l’analyse des programmes parallèles. Portant de cette idée, la thèse propose deux modèles de visualisation : les trois dimensions et le modèle d’agrégation visuelle. Le premier peut être utilisé pour analyser les programmes parallèles en tenant compte de la topologie du réseau. L’affichage lui-même se compose de trois dimensions, où deux sont utilisés pour indiquer la topologie et la troisième est utilisée pour représenter le temps. Le second modèle peut être utilisé pour analyser des applications parallèles comportant un très grand nombre de processsus. Ce deuxième modèle exploite une organisation hiérarchique des données utilisée par une technique appelée Treemap pour représenter visuellement la hiérarchie. Les implications de cette thèse sont directement liées à l’analyse et la compréhension des applications parallèles exécutés dans les systèmes distribués. Elle améliore la compréhension des modes de communication entre les processus et améliore la possibilité d’assortir les motifs avec cette topologie de réseau réel sur des grilles. Bien que nous utilisons abondamment l’exemple de la topologie du réseau, l’approche pourrait être adapté, avec presque pas de changements, à l’interconnexion fourni par un middleware d’une interconnexion logique. Avec la technique d’agrégation, les développeurs sont en mesure de rechercher des patterns et d’observer le comportement des applications à grande échelle. / Sistemas distribuídos tais como grids são usados hoje para a execução de aplicações paralelas com um grande número de processos. Algumas características desses sistemas são a presença de uma complexa rede de interconexão e a escalabilidade de recursos. A complexidade de rede vem, por exemplo, de largura de banda e latências variáveis ao longo do tempo. Escalabilidade é a característica pela qual novos recursos podem ser adicionados em um grid apenas através da conexão em uma infraestrutura pré-existente. Estas características influenciam a forma como o desempenho de aplicações paralelas deve ser analisado. Esquemas tradicionais de visualização de desempenho são usualmente baseados em gráficos Gantt com uma dimensão para listar entidades monitoradas e outra para o tempo. Visualizações como essa não são apropriadas para a análise de aplicações paralelas executadas em grid. A primeira razão para tal é que elas não foram concebidas para oferecer ao desenvolvedor uma análise que mostra a topologia dos recursos e a relação disso com a aplicação. A segunda razão é que técnicas tradicionais não são escaláveis quando milhares de entidades monitoradas devem ser analisadas conjuntamente. Esta tese tenta resolver estes problemas encontrados em técnicas de visualização tradicionais para a análise de aplicações paralelas. A idéia principal consiste em explorar técnicas da área de visualização da informação e aplicá-las no contexto de análise de programas paralelos. Levando em conta isto, esta tese propõe dois modelos de visualização: o de três dimensões e o modelo de agregação visual. O primeiro pode ser utilizado para analisar aplicações levando-se em conta a topologia da rede dos recursos. A visualização em si é composta por três dimensões, onde duas são usadas para mostrar a topologia e a terceira é usada para representar o tempo. O segundo modelo pode ser usado para analisar aplicações paralelas com uma grande quantidade de processos. Ela explora uma organização hierárquica dos dados de monitoramento e uma técnica de visualização chamada Treemap para representar visualmente a hierarquia. Os dois modelos representam uma nova forma de analisar aplicação paralelas visualmente, uma vez que eles foram concebidos para larga-escala e sistemas distribuídos complexos, como grids. As implicações desta tese estão diretamente relacionadas à análise e ao entendimento do comportamento de aplicações paralelas executadas em sistemas distribuídos. Um dos modelos de visualização apresentados aumenta a compreensão dos padrões de comunicação entre processos e oferece a possibilidade de observar tal padrão com a topologia de rede. Embora a topologia de rede seja usada, a abordagem pode ser adaptada sem grandes mudanças para levar em conta interconexões lógicas de bibliotecas de comunicação. Com a técnica de agregação apresentada nesta tese, os desenvolvedores são capazes de observar padrões de aplicações paralelas de larga escala. / Highly distributed systems such as grids are used today for the execution of large-scale parallel applications. Some characteristics of these systems are the complex resource interconnection that might be present and the scalability. The interconnection complexity comes from the different number of hops to provide communication among applications processes and differences in network latencies and bandwidth. The scalability means that the resources can be added indefinitely just by connecting them to the existing infrastructure. These characteristics influence directly the way parallel applications performance must be analyzed. Current traditional visualization schemes to this analysis are usually based on Gantt charts with one dimension to list the monitored entities and the other dimension dedicated to time. These visualizations are generally not suited to parallel applications executed in grids. The first reason is that they were not built to offer to the developer an analysis that also shows the network topology of the resources. The second reason is that traditional visualization techniques do not scale well when thousands of monitored entities must be analyzed together. This thesis tries to overcome the issues encountered on traditional visualization techniques for parallel applications. The main idea behind our efforts is to explore techniques from the information visualization research area and to apply them in the context of parallel applications analysis. Based on this main idea, the thesis proposes two visualization models: the three-dimensional and the visual aggregation model. The former might be used to analyze parallel applications taking into account the network topology of the resources. The visualization itself is composed of three dimensions, where two of them are used to render the topology and the third is used to represent time. The later model can be used to analyze parallel applications composed of several thousands of processes. It uses hierarchical organization of monitoring data and an information visualization technique called Treemap to represent that hierarchy. Both models represent a novel way to visualize the behavior of parallel applications, since they are conceived considering large-scale and complex distributed systems, such as grids. The implications of this thesis are directly related to the analysis and understanding of parallel applications executed in distributed systems. It enhances the comprehension of patterns in communication among processes and improves the possibility of matching this patterns with real network topology of grids. Although we extensively use the network topology example, the approach could be adapted with almost no changes to the interconnection provided by a middleware of a logical interconnection. With the scalable visualization technique, developers are able to look for patterns and observe the behavior of large-scale applications.
13

Élaboration de nanofils magnétiques de cobalt-nickel par voie polyol : mise à l'échelle du procédé et consolidation par le procédé frittage flash SPS / Developpment of magnetic cobalt-nickel nanowires by polyol way : scale-up of the process and consolidation by SPS sintering

Ouar, Nassima 05 February 2015 (has links)
L’objectif principal de ce travail est de produire des pièces massives nanostructurées à partir des nanomatériauxd’alliages anisotropes à base des éléments de transition 3d (Co et Ni). Afin d’utiliser ces nanomatériaux àl’échelle industrielle, nous avons extrapolé la méthode de synthèse de l’échelle du laboratoire (procédé polyol) àl’échelle pilote. Tout d’abord, nous avons montré qu’en variant les paramètres de synthèse à l’échelle delaboratoire, nous pouvons contrôler non seulement la morphologie mais aussi la taille et la distribution de tailledes nanoparticules. En effet, des sphères de diamètre 10 nm et des nanofils de longueur 260 nm et de diamètre 7nm ont été obtenus pour la stoechiométrie Co80Ni20. Les paramètres clés de cette étude sont la concentration dela soude, le taux de l'agent nucléant, la vitesse d’agitation et le champ magnétique externe appliqué. Le choix dusystème de mélange approprié pour une géométrie du réacteur donnée a également un rôle important dans lecontrôle et la maîtrise de la taille et la forme des nanofils. Avec une turbine Rushton à six pâles droites, nousavons obtenu des nanofils plus courts avec de plus petites têtes coniques et une forte coercitivité. Par ailleurs, larésolution numérique des équations de Navier-Stocks qui gouvernent le transport de matière et de la quantité demouvement dans un fluide agité a permis d’obtenir une corrélation entre les profils d’énergie turbulente dissipéeet la taille des nanoparticules mesurée expérimentalement. Les études magnétiques montrent que les propriétésmagnétiques des nanofils sont intimement liées à leur forme et à leur taille. La synthèse à grande échelle apermis de produire 25 grammes de nanofils de cobalt-nickel par batch. Grâce au procédé de frittage SPS, nousavons élaboré avec succès des matériaux massifs nanostructurés à partir de la poudre formée des nanofils. Alorsque les nanofils présentent des champs coercitifs élevés et des aimantations relativement faibles, les matériauxdenses consolidés par SPS possèdent les caractéristiques d’un ferromagnétisme doux (faible champ coercitif)mais une aimantation à saturation élevée proche de celle attendue. Des champs coercitifs meilleurs sont obtenusavec le matériau dense nanostructuré élaboré en présence d’un champ magnétique permanent. Ce champmagnétique a permis un meilleur alignement des nanofils au cours du frittage. Le comportement mécanique desmatériaux nanostructurés dépend essentiellement de la taille des grains. La dureté et la résistance mécaniqueaugmentent quand la taille des grains diminue conformément à la relation de Hall-Petch. / The main objective of this PhD work is to produce nanostructured bulk from anisotropic nanomaterials alloysbased on 3d transition elements (Co and Ni). For using these nanomaterials on an industrial scale, we haveextrapolated the synthesis method (polyol process) from laboratory scale to pilot scale. First, we showed that byvarying the parameters synthesis in laboratory scale we can control not only the morphology but also the size andthe size distribution of the nanoparticles. Indeed, spheres with diameter of 10 nm and nanowires with meanlength of 260 nm and a diameter of 7 nm were obtained for a stoichiometry Co80Ni20. The key parameters of thissynthesis are the concentration of the sodium hydroxide, the nucleation rate, the agitation and the appliedexternal magnetic field. The choice of suitable mixing system for a given geometry of the reactor also has animportant role for the control of the size and shape of the nanowires. When a six-bladed Rushton turbine wasused, shorter nanowires with unconventional small conical-shaped heads and a higher coercive field wereobtained, confirming a strong relationship between flow patterns and nanowire growth. Moreover, numericalresolution of Navier-Stocks equations that govern the transport of matter and quantity of movement in anagitated fluid allowed us to obtain a correlation between turbulent energy dissipation profiles and nanoparticlesize measured experimentally. Magnetic studies revealed a narrow relationship between the magnetic propertiesand the shape of nano-objects. The large-scale synthesis has produced 25 grams of cobalt-nickel nanowires perbatch. Thanks to the SPS sintering process, we have successfully elaborated nanostructured bulk materials.Whereas nanofils show high coercive field and low saturation magnetization, dense materials produced at hightemperatures behave as soft ferromagnetic materials (low coercivity) but show high saturation magnetizationvery close to that expected. The best coercivities are obtained with the bulk nanostructured material using SPSassisted by a permanent magnetic field. This magnetic field succeeded to align the nanowires during sintering.The mechanical behavior of the nanostructured materials depends mainly on the grain size. Hardness andmechanical resistance increase when the grain size decreases in agreement with the Hall-Petch relationship.
14

Vers une gestion coopérative des infrastructures virtualisées à large échelle : le cas de l'ordonnancement / Toward cooperative management of large-scale virtualized infrastructures : the case of scheduling

Quesnel, Flavien 20 February 2013 (has links)
Les besoins croissants en puissance de calcul sont généralement satisfaits en fédérant de plus en plus d’ordinateurs (ou noeuds) pour former des infrastructures distribuées. La tendance actuelle est d’utiliser la virtualisation système dans ces infrastructures, afin de découpler les logiciels des noeuds sous-jacents en les encapsulant dans des machines virtuelles. Pour gérer efficacement ces infrastructures virtualisées, de nouveaux gestionnaires logiciels ont été mis en place. Ces gestionnaires sont pour la plupart hautement centralisés (les tâches de gestion sont effectuées par un nombre restreint de nœuds dédiés). Cela limite leur capacité à passer à l’échelle, autrement dit à gérer de manière réactive des infrastructures de grande taille, qui sont de plus en plus courantes. Au cours de cette thèse, nous nous sommes intéressés aux façons d’améliorer cet aspect ; l’une d’entre elles consiste à décentraliser le traitement des tâches de gestion, lorsque cela s’avère judicieux. Notre réflexion s’est concentrée plus particulièrement sur l’ordonnancement dynamique des machines virtuelles, pour donner naissance à la proposition DVMS (Distributed Virtual Machine Scheduler). Nous avons mis en œuvre un prototype, que nous avons validé au travers de simulations (notamment via l’outil SimGrid), et d’expériences sur le banc de test Grid’5000. Nous avons pu constater que DVMS se montrait particulièrement réactif pour gérer des infrastructures virtualisées constituées de dizaines de milliers de machines virtuelles réparties sur des milliers de nœuds. Nous nous sommes ensuite penchés sur les perspectives d’extension et d’amélioration de DVMS. L’objectif est de disposer à terme d’un gestionnaire décentralisé complet, objectif qui devrait être atteint au travers de l’initiative Discovery qui fait suite à ces travaux. / The increasing need in computing power has been satisfied by federating more and more computers (called nodes) to build the so-called distributed infrastructures. Over the past few years, system virtualization has been introduced in these infrastructures (the software is decoupled from the hardware by packaging it in virtual machines), which has lead to the development of software managers in charge of operating these virtualized infrastructures. Most of these managers are highly centralized (management tasks are performed by a restricted set of dedicated nodes). As established, this restricts the scalability of managers, in other words their ability to be reactive to manage large-scale infrastructures, that are more and more common. During this Ph.D., we studied how to mitigate these concerns ; one solution is to decentralize the processing of management tasks, when appropriate. Our work focused in particular on the dynamic scheduling of virtual machines, resulting in the DVMS (Distributed Virtual Machine Scheduler) proposal. We implemented a prototype, that was validated by means of simulations (especially with the SimGrid tool) and with experiments on the Grid’5000 test bed. We observed that DVMS was very reactive to schedule tens of thousands of virtual machines distributed over thousands of nodes. We then took an interest in the perspectives to improve and extend DVMS. The final goal is to build a full decentralized manager. This goal should be reached by the Discovery initiative,that will leverage this work.
15

Automatic key discovery for Data Linking / Découverte des clés pour le Liage de Données

Symeonidou, Danai 09 October 2014 (has links)
Dans les dernières années, le Web de données a connu une croissance fulgurante arrivant à un grand nombre des triples RDF. Un des objectifs les plus importants des applications RDF est l’intégration de données décrites dans les différents jeux de données RDF et la création des liens sémantiques entre eux. Ces liens expriment des correspondances sémantiques entre les entités d’ontologies ou entre les données. Parmi les différents types de liens sémantiques qui peuvent être établis, les liens d’identité expriment le fait que différentes ressources réfèrent au même objet du monde réel. Le nombre de liens d’identité déclaré reste souvent faible si on le compare au volume des données disponibles. Plusieurs approches de liage de données déduisent des liens d’identité en utilisant des clés. Une clé représente un ensemble de propriétés qui identifie de façon unique chaque ressource décrite par les données. Néanmoins, dans la plupart des jeux de données publiés sur le Web, les clés ne sont pas disponibles et leur déclaration peut être difficile, même pour un expert.L’objectif de cette thèse est d’étudier le problème de la découverte automatique de clés dans des sources de données RDF et de proposer de nouvelles approches efficaces pour résoudre ce problème. Les données publiées sur le Web sont général volumineuses, incomplètes, et peuvent contenir des informations erronées ou des doublons. Aussi, nous nous sommes focalisés sur la définition d’approches capables de découvrir des clés dans de tels jeux de données. Par conséquent, nous nous focalisons sur le développement d’approches de découverte de clés capables de gérer des jeux de données contenant des informations nombreuses, incomplètes ou erronées. Notre objectif est de découvrir autant de clés que possible, même celles qui sont valides uniquement dans des sous-ensembles de données.Nous introduisons tout d’abord KD2R, une approche qui permet la découverte automatique de clés composites dans des jeux de données RDF pour lesquels l’hypothèse du nom Unique est respectée. Ces données peuvent être conformées à des ontologies différentes. Pour faire face à l’incomplétude des données, KD2R propose deux heuristiques qui per- mettent de faire des hypothèses différentes sur les informations éventuellement absentes. Cependant, cette approche est difficilement applicable pour des sources de données de grande taille. Aussi, nous avons développé une seconde approche, SAKey, qui exploite différentes techniques de filtrage et d’élagage. De plus, SAKey permet à l’utilisateur de découvrir des clés dans des jeux de données qui contiennent des données erronées ou des doublons. Plus précisément, SAKey découvre des clés, appelées "almost keys", pour lesquelles un nombre d’exceptions est toléré. / In the recent years, the Web of Data has increased significantly, containing a huge number of RDF triples. Integrating data described in different RDF datasets and creating semantic links among them, has become one of the most important goals of RDF applications. These links express semantic correspondences between ontology entities or data. Among the different kinds of semantic links that can be established, identity links express that different resources refer to the same real world entity. By comparing the number of resources published on the Web with the number of identity links, one can observe that the goal of building a Web of data is still not accomplished. Several data linking approaches infer identity links using keys. Nevertheless, in most datasets published on the Web, the keys are not available and it can be difficult, even for an expert, to declare them.The aim of this thesis is to study the problem of automatic key discovery in RDF data and to propose new efficient approaches to tackle this problem. Data published on the Web are usually created automatically, thus may contain erroneous information, duplicates or may be incomplete. Therefore, we focus on developing key discovery approaches that can handle datasets with numerous, incomplete or erroneous information. Our objective is to discover as many keys as possible, even ones that are valid in subparts of the data.We first introduce KD2R, an approach that allows the automatic discovery of composite keys in RDF datasets that may conform to different schemas. KD2R is able to treat datasets that may be incomplete and for which the Unique Name Assumption is fulfilled. To deal with the incompleteness of data, KD2R proposes two heuristics that offer different interpretations for the absence of data. KD2R uses pruning techniques to reduce the search space. However, this approach is overwhelmed by the huge amount of data found on the Web. Thus, we present our second approach, SAKey, which is able to scale in very large datasets by using effective filtering and pruning techniques. Moreover, SAKey is capable of discovering keys in datasets where erroneous data or duplicates may exist. More precisely, the notion of almost keys is proposed to describe sets of properties that are not keys due to few exceptions.
16

Analyse expérimentale et numérique du comportement hygrothermique de parois fortement hygroscopiques / -

Slimani, Zakaria 17 December 2015 (has links)
La simulation des transferts couplés de chaleur et de masse dans l’enveloppe du bâtiment est une pratique qui se démocratise de plus en plus. Pour les bâtiments construits avec des matériaux très hygroscopiques, l'évaluation correcte des champs de température et d’humidité est importante pour prédire avec précision les flux de chaleur et d'humidité, le confort hygrothermique et la consommation énergétique des bâtiments. En outre, l'humidité peut causer des dommages aux matériaux de construction et a un impact sur la santé des occupants. Pour les matériaux très hygroscopiques, les outils de simulation ont montré des lacunes à modéliser correctement le comportement hygrothermique. Sur ces questions, le projet de recherche HYGRO-BAT est un projet fédérateur. Dans ce contexte, nous avons développé un modèle suffisamment fin de transfert couplé de Chaleur, d’Air et d’Humidité (CAH) qui permet l’analyse des principaux phénomènes physiques mis en jeu. Afin de valider le modèle développé et d’étudier en détail le comportement hygrothermique d’une paroi très hygroscopique, nous avons conçu et réalisé un outil expérimental avec une instrumentation riche et variée permettant de simuler les contraintes rencontrées dans le cas réel. Le choix des sollicitations hygrothermiques retenues permet une compréhension progressive du modèle. De surcroît, pour simplifier l’analyse des mécanismes de transfert couplés au sein de la paroi, une formulation adimensionnée du modèle développé a été proposée, permettant ainsi de mettre en avant des nombres adimensionnels qui simplifient l’analyse du comportement d’une paroi très hygroscopique. Ces nombres permettent une nouvelle caractérisation représentative des mécanismes de transfert qui dépendent de l’état thermodynamique de la paroi / Simulation of Heat, Air and Moisture (HAM) transfers in building envelope is a practice which is becoming increasingly popular. The correct evaluation of temperature and moisture fields is important to predict accurately heat and moisture fluxes, hygrothermal comfort and building energy consumption, especially for highly hygroscopic materials. Additionally, moisture has an impact on the health of occupants and can causes damage to building materials. For highly hygroscopic materials, simulation models show discrepancy to the real hygrothermal behavior. The research project HYGRO-BAT is a unifying project on these issues. In this context, we developed a hygrothermal transfer model sufficiently fine allowing the analysis of the main physical phenomena involved. In order to validate the developed model and to study in detail the coupled heat and mass transfers for highly hygroscopic walls, we designed and realized an experimental tool that allows numerous and various measurement and creating climates encountered for building application. The choice of hygrothermal loading allows progressive understanding of involved physical mechanisms in the envelope. Moreover, to simplify the analysis, a dimensionless hygrothermal formulation was proposed. It allows highlighting dimensionless numbers which are very convenient to study the behavior of a very hygroscopic wall. These numbers allow a new representative characterization of transfer mechanisms that rely on the thermodynamic state of the wall
17

Intégration technologique alternative pour l'élaboration de modules électroniques de puissance / Advanced technological integration for power electronics modules

Letowski, Bastien 25 November 2016 (has links)
Les performances, l’encombrement, l’efficacité et la fiabilité des dispositifs sont parmi les enjeux majeurs de l’électronique de puissance. Ils se traduisent sur la conception, la fabrication et le packaging des semiconducteurs. Aujourd’hui, le packaging 3D apporte des réponses concrètes à ces problématiques en regard de l’approche standard (2D). Malgré les excellentes propriétés de ces modules 3D au niveau de la réduction de la signature CEM et du refroidissement, la réalisation, notamment les interconnexions, est complexe. Une approche globale prenant en compte un maximum de paramètres a été développée dans cette thèse. L’ensemble de ce travail s’appuie sur deux propositions que sont la conception couplée entre les composants et le packaging ainsi qu’une fabrication collective à l’échelle de la plaque des modules de puissance. Elles se combinent par la mise en place d’une filière d’étapes technologiques appuyée sur une boite à outils de procédés génériques. Cette approche est concrétisée par la réalisation d’un module de puissance 3D performant et robuste adressant des convertisseurs polyphasés avec des gains aussi bien sur les procédés de fabrication que le module lui-même ainsi que sur le système final.Ce travail offre une nouvelle vision alternative pour l’élaboration des modules électroniques de puissance. Il ouvre également des opportunités pour une fabrication et un packaging plus performants pour les nouveaux semiconducteurs grand gap. / Performances, efficiency and reliability are among the main issues in power electronics. Nowadays, 3D packaging solutions increase standard planar module (2D) performances, for instance EMC. However such integrations are based on complex manufacturing, especially concerning interconnections. Improvements require global and advanced solutions. This work depends on two proposed concepts: a coupled design of the power devices and their associated package and a collective wafer-level process fabrication. A technological offer is proposed based on an innovative power packaging toolbox. Our approach is materialized by the fabrication of a 3D polyphase power module which proved to be more efficient and reliable. The benefits are more precise process manufacturing, lower EMI generation and lower inductive interconnections.As a matter of fact, this work offers a new and advanced technological integration for future power electronics modules, perfectly suitable for the wide bandgap semiconductors.
18

Polyélectrolytes et liquides ioniques / Polyelectrolytes and ionic liquids

Smolyakov, Georgiy 25 September 2012 (has links)
Cette thèse présente une étude de la structure de solutions de polyélectrolytes (PEs) dans les liquides ioniques (LIs) et de la structure locale des LIs en présence de PEs. Les techniques de diffusion de rayons X et de neutrons ont été principalement utilisées pour cette étude. Dans une première partie, la capacité des LIs à former des « clusters » à l’échelle nanoscopique est démontrée. Dans une seconde partie, l’influence de la nature des contreions et du solvant sur le comportement du polystyrène sulfonate (PSS) en solution est abordée. La conformation moyenne du PSS et son état de dispersion dans les milieux aqueux et organiques sont alors explorés dans une troisième partie. Une étude similaire pour le cas spécifique des milieux LIs est présentée dans une quatrième partie. Finalement, d’autres polymères, chargés ou neutres, en solution dans les LIs, sont considérés dans une cinquième et dernière partie. / In this thesis the structure of polyelectrolyte (PE) solutions in ionic liquids (ILs) and mutual influence of bothcomponentsthe local structure of the latter in the presence of PEs are studied. X-ray and neutron scatteringtechniques have been mainly used for the present investigation. In a first part, the ability of considered ILs toform clusters at nanoscale is demonstrated. In a second part, the influence of the nature of counterions andthe solvent on the polystyrene sulfonate (PSS) behavior in solution is tackled. PSS average conformation anddispersion state in aqueous and organic media are then explored in a third part. A similar investigation, carriedout on the specific case of PSS in IL media, is described in a fourth part. Finally, other polymers, both chargedand neutral, in IL solutions are considered in a fifth and last part.
19

AFM force spectroscopies of surfaces and supported plasmonic nanoparticules / Spectroscopie et microscopie à force atomique sur des surfaces et nanoparticules plasmoniques

Craciun, Andra 15 March 2017 (has links)
Dans ce travail de thèse, le microscope à force atomique (AFM) a été utilisé comme outil de manipulation de haute précision pour construire des nanostructures plasmoniques avec des géométries définies et un réglage précis de la distance interparticulaire et également comme technique de spectroscopie d'absorption. Différentes études concernant les phénomènes pertinents pour la manipulation des nanoparticules et émergeant à l'interface substrat-nanoparticules, ont été réalisées. Des expériences de frottement menées sur diverses surfaces d'oxydes ont révélé un nouveau mécanisme de frottement à l’échelle nanométrique, expliqué par un modèle de potentiel d'interaction de type Lennard-Jones modifié. Les propriétés de frottement et d'adhésion de CTAB adsorbé sur silice sont également présentées. Des nano-bâtonnets d'or fonctionnalisés par du CTAB ont été manipulés par AFM afin de construire des nanostructures plasmoniques. La dernière partie de la thèse présente les efforts expérimentaux et théoriques pour démontrer la faisabilité de l'utilisation d'un AFM comme une technique de spectroscopie optoélectronique à base de force. / In this thesis work the atomic force microscope (AFM) was employed first as a high precision manipulation tool for building plasmonic nanostructures with defined geometries and precise tuning of interparticle distance and second as an absorption spectroscopy technique. Different studies regarding phenomena emerging at sample nanoparticle interface relevant for nanoparticle manipulation were performed. Friction experiments conducted on various oxide surfaces revealed a novel nanoscale stick slip friction mechanism, explained by a modified Lennard-Jones-like interaction potential model. Frictional and adhesion properties of CTAB adsorbed on silica are also reported. CTAB functionalized gold nanorods were used for building specific plasmonic particulate nanostructures. The final part of the thesis presents experimental and theoretical efforts to demonstrate the feasibility of using an AFM as a force-based optoelectronic spectroscopy technique.
20

Etude expérimentale et numérique des performances de la ventilation mécanique par insufflation : qualité de l’air intérieur dans les bâtiments résidentiels / Experimental and numerical study of the supply-only ventilation system performances : indoor air quality in residential buildings

Rahmeh, Mireille 04 July 2014 (has links)
La mauvaise qualité de l'air intérieur a été classée parmi les cinq principaux risques environnementaux sur la santé publique (EPA, 2013). La ventilation est une solution bien connue pour réduire la variété de contaminants qui pourraient être trouvés à l'intérieur de bâtiments résidentiels. Cependant, comme l'air propre est un facteur essentiel pour une vie saine et un bâtiment sain, une faible consommation d'énergie est essentielle pour une planète saine. Pour ces raisons, différentes recherches scientifiques sont menées pour l'amélioration des performances des systèmes de ventilation afin de créer un équilibre entre la distribution de l'air et la qualité de l'air intérieur d’un côté et le confort thermique et l'efficacité énergétique d’un autre côté. Un des systèmes de ventilation existants est la ventilation mécanique par insufflation (VMI). Son principe consiste à introduire mécaniquement de l’air neuf depuis l’extérieur, après l’avoir filtré et préchauffé. Les systèmes existant à ce jour en France introduisent l’air via un ou deux points d’insufflation (situés généralement au centre de l’habitation). Quant à l'évacuation de l’air vicié, celui-ci est véhiculé par les sorties naturelles installées dans chaque pièce de la maison. L’objectif de ce travail est tout d’abord d’étudier les performances de la ventilation par insufflation dans un environnement réel puis de trouver des pistes d’amélioration qui permettront d’atteindre une meilleure qualité de l’air intérieur. En se basant sur deux études préliminaires présentées par le chapitre II, on a installé un système à insufflation répartie (un point d’insufflation/pièce de vie) dans une maison réelle où l’on a mené des expérimentations. Des scénarios d’émission de polluant ont été effectués à l’aide de la technique de gaz traceur. L’étude a montré que, malgré un débit de ventilation global du système VMI inférieur à celui du système de référence (ventilation mécanique par extraction hygroréglable B), la VMI fournit des résultats satisfaisants. En outre, elle aide à lutter contre le confinement des chambres et à réduire à l'intérieur, les concentrations des particules provenant des sources extérieures. Une étude numérique est réalisée en utilisant un modèle aéraulique et de transfert de masse multizone. Les résultats ont montré un bon accord avec l'expérience et sont prometteurs pour l’avenir ; une étude paramétrique permettant d'améliorer la performance de la VMI vient parachever ce travail. / Poor indoor air quality has been ranked among the top five environmental risks on public health (EPA, 2013). The ventilation is a well-recognized solution for reducing the variety of contaminants that could be found inside residential buildings. However, as well as clean air is an essential factor for a healthy life and a healthy building, low energy consumption is significant for a healthy planet. For these reasons, scientific research are conducted to improve the performance of ventilation systems in order to obtain a balance in the controversial relationship between the air distribution and indoor air quality on the one hand and the thermal comfort and energy efficiency on the other hand. One of the existing ventilation systems is the Supply-Only Ventilation (SOV), known also as positive input ventilation (PIV). It functions by mechanically introducing fresh, filtered and preheated air into the center of the building. So far, the existing systems in France introduce air through one or two supply points (usually located in the center of the house). As for the evacuation, steal air goes out through natural vents installed in each room of the house. The aim of this study is to evaluate the performance of this system in terms of indoor air quality in a real environment and to find improvement field that will help in increasing the indoor air quality. Based on preliminary studies and on the airflow path principle required by French regulation, we decided to investigate a Multi Supply-Only Ventilation system (M-SOV). The idea is to have an insufflation point in the bedrooms and living room, while the free air outlets are located in the utility rooms (kitchen, bathroom and toilets). Different emission scenarios are experimentally simulated using tracer gas methods. The study shows that even though the flow rate of this system is lower than the extract only ventilation system (EOV), it provides satisfactory results. In addition, it helps fight against the confinement room and reduce the indoor particles concentrations originated from outdoor sources. A numerical study using a multizone airflow and contaminant transport model is performed. The numerical results show a good agreement with that of the experimental ones. Moreover, they are promising for the future parametric study in order to improve the SOV performance.

Page generated in 0.0591 seconds