• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 10
  • 3
  • 3
  • Tagged with
  • 51
  • 15
  • 14
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Imagerie nanométrique ultra-rapide par diffraction cohérente de rayonnement extrême-UV produit par génération d'harmoniques d'ordre élevé.

Gauthier, David 07 February 2012 (has links) (PDF)
Ce manuscrit présente des expériences d'imagerie par diffraction réalisées en utilisant une source de rayonnement cohérent basée sur la génération d'harmoniques d'ordre élevé d'un laser Ti:Sa. Elles démontrent que cette source extrême-UV de laboratoire produit un nombre suffisant de photons par impulsion pour enregistrer une figure de diffraction d'objets tests en " simple tirs ". Le signal ainsi enregistré permet l'obtention d'une image de l'objet avec une résolution d'une centaine de nanomètres. Deux schémas sont utilisés pour reconstruire l'objet : le premier utilise un algorithme itératif de reconstruction de la phase perdue pendant la détection de la figure de diffraction ; le second utilise une configuration holographique par transformée de Fourier. Les travaux réalisés comportent deux parties. La première concerne l'optimisation de la source harmonique et inclut une étude expérimentale d'un dispositif de filtrage spatial du faisceau laser de génération par propagation dans une fibre creuse. La seconde partie présente les expériences d'imagerie par diffraction, et notamment une démonstration du schéma holographique HERALDO qui est une extension de l'holographie par transformée de Fourier à des références en forme de polygones. L'utilisation de ces références " étendues " a pour avantage d'optimiser l'enregistrement holographique tout en conservant une reconstruction directe et sans ambigüité de l'objet. Une analyse signal-sur-bruit ainsi qu'une comparaison des reconstructions d'hologramme pour différentes formes de références sont effectuées.
42

SECURITY AND SELF-HEALABILITY ENFORCEMENT OF DYNAMIC COMPONENTS IN A SERVICE-ORIENTED SYSTEM

Dan, Yufang 14 May 2014 (has links) (PDF)
Les architectures dynamiques orientées services ( D-SOA) se concentrent sur les interactions client-serveur à couplage faible, où les deux peuvent apparaître et disparaître à l'exécution. Notre objectif est de concevoir des systèmes de surveillance pour ces architectures. Comme les systèmes de surveillance classiques sont statiquement injectés dans les services surveillés, ils ne peuvent pas gérer correctement le cycle de vie des services d'exécution. En outre, quand un service est remplacé par un autre service, d'autres services peuvent toujours utiliser l'ancienne référence. Cette référence vers un service absent, lorsqu'elle est gardée en mémoire, peut induire des comportements non désirés. Cette thèse contribue à la conception d'un système de surveillance de l'utilisation des services, qui soit résistant à la dynamique de la plateforme et qui soit en mesure de faire face à l'utilisation des références obsolètes. Ce but est atteint en trois étapes. Tout d'abord, en considérant le caractère dynamique des systèmes SOA dans un environnement ouvert, nous concevons une approche de monitoring résistant au la dynamique de la plateforme. Nous identifions deux propriétés clés du système de surveillance à couplage faible: résilience à la dynamicité, c'est-à-dire qu'un moniteur d'interface et son état sont maintenus en mémoire et transférés à un nouveau service lors de la disparition d'un service utilisé, et exhaustivité, c'est-à-dire qu'un service surveillé ne peut pas contourner les observations du moniteur. Ensuite, pour éviter l'usage de références vers des services qui ne sont plus actifs, nous proposons un service de sécurité côté client (SSU Layer), qui permet de traiter ce problème de manière transparente. Si un service utilisé disparaît, la couche SSU peut soit substituer le service de manière transparente, soit lever une exception pour avertir explicitement le client. Cette couche SSU est basée sur une approche transactionnelle qui vise à préserver la cohérence des services actifs. Enfin, nous proposons d'intégrer les deux approches dans un nouveau système de surveillance (NewMS). Les NewMS hérite des principes des deux systèmes précédents: la résilience à la dynamicité, l'exhaustivité et la tolérance aux fautes. Il peut dynamiquement surveiller l'utilisation de services et traiter les références obsolètes de manière transparente. Ces trois propositions sont implémentées dans la plateforme OSGi. Nous avons développé une application simple qui simule un système de réservation de place, qui est monitoré par notre systèmes. Nous avons également proposé différentes spécifications pour ce système. Nos résultats démontrent que le coût d'observation de notre moniteur est proche du coût d'un monitor classique, ne prenant pas en compte les problématiques liées à la dynamique.
43

Une approche multi-agents pour la composition de services Web fondée sur la confiance et les réseaux sociaux / A Multi-Agents Approach for Web service Composition based on Trust and Social Networks

Louati, Amine 13 October 2015 (has links)
Dans cette thèse, nous nous intéressons aux problèmes de découverte, de sélection et de composition de services. L'objectif est de satisfaire une requête complexe d'un demandeur de services. Pour ce faire, nous proposons une approche multi-agents fondée sur la confiance et les réseaux sociaux. Nous définissions un modèle de confiance en tant que concept compositionnel formé de quatre composantes: une composante sociale, une composante d'expertise, une composante de recommandation et une composante de coopération. La composante sociale juge s'il est intéressant de suivre un fournisseur avant d'utiliser ses services. La composante d'expertise estime si un service se comporte bien et comme prévu. La composante de recommandation vérifie si un agent est pertinent ou pas et si l'on peut compter sur ses recommandations. La composante de coopération permet aux agents de décider avec qui interagir dans une composition de services. Nous proposons un algorithme distribué pour la découverte de services utilisant la confiance entre les agents ainsi que les systèmes de références dans les réseaux sociaux. Nous développons également une nouvelle méthode s'appuyant sur un modèle probabiliste pour inférer la confiance entre les agents non adjacents tout en tenant compte des rôles des agents intermédiaires. Finalement, nous présentons un processus original de formation de coalitions qui est incrémental, dynamique et recouvrant pour une composition de services dans les réseaux sociaux. Les résultats expérimentaux montrent que nos approches multi-agents sont efficaces, plus performants que les approches similaires existantes et peuvent offrir des résultats plus dignes de confiance à faible coût de communications. / This thesis deals with service discovery, selection and composition problems. The aim is to fulfill a complex requester query. To do that, we propose a multi-agent approach based on trust and social networks. We define a trust model as a compositional concept that includes social, expert, recommender and cooperation-based component. The social-based component judges whether or not the provider is worthwhile pursuing before using his services. The expert-based component estimates whether or not the service behaves well and as expected. The recommender-based component checks whether or not an agent is reliable and if we can rely on its recommendations. The cooperation-based component allows agents to decide with whom to interact in a service composition. We propose a distributed algorithm for service discovery using trust between agents and referral systems in social networks. We also develop a new method based on a probabilistic model to infer trust between non adjacent agents while taking into account roles of intermediate agents. Finally, we present an original coalition formation process which is incremental, dynamic and overlapping for service composition in social networks. %In particular, our coalition formation process engaging self-interested agents is incremental, dynamic and overlapping. Experimental results show that our multi-agents approaches are efficient, outperforms existing similar ones and can deliver more trustworthy results at low cost of communications.
44

Le rôle des aspirations et références dans le processus de conception des espaces publics en milieu urbain informel : le cas de Canaan, Haïti

Pierre-Jérôme, Kyria 12 1900 (has links)
Le tremblement de terre survenu le 12 janvier 2010 à Port-au-Prince, Haïti a provoqué le déplacement de milliers d’individus. Aujourd’hui, plus de 250000 habitants, dont la plupart ont été affectés par le séisme, se sont établis à Canaan, un nouvel établissement informel en périphérie de Port-au-Prince. Simultanément au cadre bâti, les habitants ont pris l’initiative de concevoir des espaces publics et de les aménager. Typiquement, la construction d’espaces publics en milieu précaire est reléguée au second plan face aux conditions de vie précaires qui y sévissent. Pourtant, des reportages démontrent que les Cananéens aspirent à faire de ce territoire une « vraie » ville et un milieu de vie sain. Ce projet de recherche exploratoire avance que les aspirations et les références ont un rôle dans le processus de conception des espaces publics à Canaan. Parallèlement, il examine la considération des aspirations et des références dans le projet de réaménagement de certaines places publiques dans le cadre du programme Canaan Upgrading and Community Development, collaboration entre plusieurs ONG. Trois cas de places ont été étudié : Horeb, Astrel et Zanmitay. Cette étude a démontré qu’il n’y a pas de lien direct entre les références en matière d’espace public et le processus de conception. De plus, les aspirations des habitants ne portent pas particulièrement sur les espaces publics, mais bien sur leur milieu de vie. Finalement, la prise en compte des aspirations et références des Cananéens a été limitée lors du projet de réaménagement d’espaces publics par des ONG. / The earthquake that occurred on January 12, 2010, in Port-au-Prince, Haiti caused the displacement of thousands of people. Today, more than 250,000 people, most of whom were affected by the earthquake, have settled in Canaan, a new informal settlement on the outskirts of Port-au-Prince. Simultaneously with the built environment, the inhabitants took the initiative to design and build public spaces. Typically, the construction of public spaces in informal settlements is relegated to the background in the face of precarious living conditions. However, reports show that the Canaanites aspire to make this territory a “real” city and a healthy community. This exploratory research project argues that aspirations and references have a role in the design process of public spaces in Canaan. At the same time, it examines the consideration of aspirations and references in the proposed redevelopment of some public spaces as part of the Canaan Upgrading and Community Development (CUCD) program, a collaboration between several NGOs. Three publics spaces studied are place Horeb, place Astrel and place Zanmitay. This study shows there is no direct link between public space references and the design process. Moreover, the inhabitants’ aspirations are not particularly about public spaces, rather than their environment. Finally, the consideration for Canaanites’ aspirations and references was limited during the CUCD project.
45

A new approximation framework for PGD-based nonlinear solvers / Un nouveau cadre d'approximation dédié à la strategie de calcul PGD pour problèmes non-lineaires

Capaldo, Matteo 23 November 2015 (has links)
Le but de ce travail est d'introduire un cadre d'approximation, la Reference Points Method, afin de réduire la complexité de calcul des opérations algébriques lorsqu'elles concernent des approximations à variables séparées dans le cadre de la Proper Generalized Decomposition.La PGD a été introduite dans [1] dans le cadre de la méthode LaTIn pour résoudre efficacement des équations différentielles non linéaires et dépendants du temps en mécanique des structures. La technique consiste à chercher la solution d'un problème dans une base d'ordre réduit (ROB) qui est automatiquement et à la volée générée par la méthode LaTIn. La méthode LaTIn est une stratégie itérative qui génère les approximations de la solution sur l'ensemble du domaine espace-temps-paramètres par enrichissements successifs. Lors d'une itération particulière, la ROB, qui a déjà été formée, est d'abord utilisée pour calculer un nouveau modèle réduit (ROM) et, donc, pour trouver une nouvelle approximation de la solution. Si la qualité de cette approximation ne suffit pas, la ROB est enrichie avec la génération d'un nouveau produit de fonctions PGD en utilisant un algorithme de type 'greedy'.Les techniques de réduction de modèle sont particulièrement efficaces lorsque le ROM a besoin d'être construit qu'une seule fois. Ce n'est pas le cas pour les techniques de réduction de modèle quand elles concernent des problèmes non linéaires. En effet, dans un tel cas, les opérateurs qui sont impliqués dans la construction du ROM varient au cours du processus itératif et des calculs préliminaires ne peuvent pas être effectués à l'avance pour accélérer le processus 'online'.Par conséquent, la construction du ROM est un élément coûteux de la stratégie de calcul en terme de temps de calcul. Il en découle la nécessité d'évaluer, à chaque itération, la fonction non linéaire de grande dimension (et éventuellement sa jacobienne) et ensuite sa projection pour obtenir les opérateurs réduits. Cela représente un point de blocage des stratégies de réduction de modèle dans le cadre non linéaire. Le présent travail a comme but une réduction ultérieure du coût de calcul, grâce à l'introduction d'un nouveau cadre de rapprochement dédiée à la stratégie de calcul LaTIn-PGD. Il est basé sur la notion de temps, de points et de paramètres de référence et permet de définir une version compressée des données. Comparé à d'autres techniques similaires [3,4] cela ne se veut pas une technique d'interpolation, mais un cadre algébrique qui permet de donner une première approximation, peu coûteuse, de toutes les quantités sous une forme à variable séparés par des formules explicites. L'espace de données compressées présente des propriétés intéressantes qui traitent les opérations algébriques élémentaires. Le RPM est introduit dans le solveur LaTIn-PGD non linéaire pour calculer certaines opérations répétitives. Ces opérations sont liées à la résolution du problème du temps / paramètre qui implique la mise à jour de l'opérateur tangent et la projection de ce dernier sur la base réduite. La RPM permet de simplifier et de réduire le nombre d'opérations nécessaires.[1] Ladevèze P., Sur une famille d’algorithmes en mécanique des structures, Comptes Rendus Académie des Sciences. Paris. Ser. II 300, pp.41-44, 1985.[2] Chinesta, F., Ladevèze, P., and Cueto, E. A short review on model order reduction based on proper generalized decomposition. Archives of Computational Methods in Engineering, 18, pp.395-404, 2011.[3] Barrault M., Maday Y., Nguyen N., Patera A., An ’empirical interpolation’ method: application to efficient reduced-basis discretization of partial differential equations, Comptes Rendus Académie des Sciences. Paris. Ser. I, 339, pp. 667-672, 2004.[4] Chaturentabut S., Sorensen D., Nonlinear model reduction via discrete empirical interpolation, Society for Industrial and Applied Mathematics 32(5), pp.2737-2764, 2010. / The aim of this work is to introduce an approximation framework, called Reference Points Method (RPM), in order to decrease the computational complexity of algebraic operations when dealing with separated variable approximations in the Proper Generalized Decomposition (PGD) framework.The PGD has been introduced in [1] in the context of the LATIN method to solve efficiently time dependent and/or parametrized nonlinear partial differential equations in structural mechanics (see, e.g., the review [2] for recent applications). Roughly, the PGD technique consists in seeking the solution of a problem in a relevant Reduced-Order Basis (ROB) which is generated automatically and on-the-fly by the LATIN method. This latter is an iterative strategy which generates the approximations of the solution over the entire time- space-parameter domain by successive enrichments. At a particular iteration, the ROB, which has been already formed, is at first used to compute a projected Reduced-Order Model (ROM) and find a new approximation of the solution. If the quality of this approximation is not sufficient, the ROB is enriched by determining a new functional product using a greedy algorithm.However, model reduction techniques are particularly efficient when the ROM needs one construction only. This is not the case for the model reduction techniques when they are addressed to nonlinear problems. Indeed, in such a case, the operators which are involved in the construction of the ROM change all along the iterative process and no preliminary computations can be performed in advance to speed up the online process. Hence, the construction of the ROM is an expensive part of the calculation strategy in terms of CPU. It ensues from the need to evaluate the high-dimensional nonlinear function (and eventually its Jacobian) and then to project it to get the low-dimensional operators at each computational step of a solution algorithm. This amounts to being the bottleneck of nonlinear model reduction strategies.The present work is then focused on a further reduction of the computational cost, thanks to the introduction of a new approximation framework dedicated to PGD-based nonlinear solver. It is based on the concept of reference times, points and parameters and allows to define a compressed version of the data. Compared to other similar techniques [3,4] this is not an interpolation technique but an algebraic framework allowing to give an inexpensive first approximation of all quantities in a separated variable form by explicit formulas. The space of compressed data shows interesting properties dealing the elementary algebraic operations. The RPM is introduced in the PGD-based nonlinear solver to compute some repetitive operations. These operations are related to the resolution of the time/parameter problem that involves the update of the tangent operator (for nonlinear problems) and the projection of this latter on the Reduced Order Basis. For that the RPM allows to simplify and reduce the number of operations needed.[1] Ladevèze P., Sur une famille d’algorithmes en mécanique des structures, Comptes Rendus Académie des Sciences. Paris. Ser. II 300, pp.41-44, 1985.[2] Chinesta, F., Ladevèze, P., and Cueto, E. A short review on model order reduction based on proper generalized decomposition. Archives of Computational Methods in Engineering, 18, pp.395-404, 2011.[3] Barrault M., Maday Y., Nguyen N., Patera A., An ’empirical interpolation’ method: application to efficient reduced-basis discretization of partial differential equations, Comptes Rendus Académie des Sciences. Paris. Ser. I, 339, pp. 667-672, 2004.[4] Chaturentabut S., Sorensen D., Nonlinear model reduction via discrete empirical interpolation, Society for Industrial and Applied Mathematics 32(5), pp.2737-2764, 2010.
46

Papyres : un système de gestion et de recommandation d’articles de recherche

Naak, Amine 07 1900 (has links)
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres. / Graduate students and professors (researchers, in general) regularly access, review, and use large amounts of research papers, yet none of the existing tools and solutions provides the wide range of functionalities required to properly manage these resources. Indeed, bibliography management systems manage the references and citations but fail to help researchers in handling and locating resources. On the other hand, research paper recommendation systems and specialized search engines help researchers to locate new resources, but again fail to help researchers in managing the resources. Finally, Enterprise Content Management systems offer the required functionalities to manage resources and knowledge, but are not designed for research literature. Consequently, we suggest a new class of management systems: Research Paper Management and Recommendation System. Through our system Papyres (Naak, Hage, & Aïmeur, 2008, 2009) we illustrate our approach, which combines bibliography functionalities along with recommendation techniques and content management tools, in order to provide a set of functionalities to locate research papers, handle and maintain the bibliographies, and to manage and share knowledge related to the research literature. Additionally, we propose a novel research paper recommendation technique, used within Papyres. Its uniqueness lies in the multicriteria aspect introduced in the process of collaborative filtering, allowing researchers to indicate their interest in specific parts of articles. Moreover, we suggest test and compare several approaches to determine the neighbourhood in the Multicriteria Collaborative Filtering process, such as to increase the accuracy of the recommendation. Finally, we report on the implementation and validation of Papyres.
47

Imagerie nanométrique ultra-rapide par diffraction cohérente de rayonnement extrême-UV produit par génération d'harmoniques d'ordre élevé / Ultrafast nanometers scale coherent diffractive imaging with extreme-UV light from high harmonics generation beamline

Gauthier, David 07 February 2012 (has links)
Ce manuscrit présente des expériences d’imagerie par diffraction réalisées en utilisant une source de rayonnement cohérent basée sur la génération d’harmoniques d’ordre élevé d’un laser Ti:Sa. Elles démontrent que cette source extrême-UV de laboratoire produit un nombre suffisant de photons par impulsion pour enregistrer une figure de diffraction d’objets tests en « simple tirs ». Le signal ainsi enregistré permet l’obtention d’une image de l’objet avec une résolution d’une centaine de nanomètres. Deux schémas sont utilisés pour reconstruire l’objet : le premier utilise un algorithme itératif de reconstruction de la phase perdue pendant la détection de la figure de diffraction ; le second utilise une configuration holographique par transformée de Fourier. Les travaux réalisés comportent deux parties. La première concerne l’optimisation de la source harmonique et inclut une étude expérimentale d’un dispositif de filtrage spatial du faisceau laser de génération par propagation dans une fibre creuse. La seconde partie présente les expériences d’imagerie par diffraction, et notamment une démonstration du schéma holographique HERALDO qui est une extension de l’holographie par transformée de Fourier à des références en forme de polygones. L’utilisation de ces références « étendues » a pour avantage d’optimiser l’enregistrement holographique tout en conservant une reconstruction directe et sans ambigüité de l’objet. Une analyse signal-sur-bruit ainsi qu’une comparaison des reconstructions d’hologramme pour différentes formes de références sont effectuées. / This manuscript presents diffraction imaging experiments performed using a source of coherent radiation based on high order harmonics generation of a Ti:Sa laser. They demonstrate that this laboratory size XUV source produces a number of photons per pulse sufficient to record the diffraction pattern of test objects in « single shot ». The signal thus recorded allows obtaining an image of the object with a resolution of around 100 nanometers. Two schemes are used to reconstruct the object: the first one uses an iterative algorithm to retrieve the phase lost during the detection of the diffraction pattern; the second uses a configuration of Fourier transform holography. The work presented here is separated in two parts. The first one concerns the optimization of the harmonic source, including an experimental study of a spatial filtering device for laser beams by propagation in a hollow core fiber. The second part deals with the diffraction imaging experiments. In particular, I present a demonstration of the holographic scheme HERALDO, which is an extension of the Fourier transform holography with polygonal references. The use of these « extended » references allows the optimization of the holographic recording while maintaining a direct and non-ambiguous reconstruction of the object. An analysis of signal-to-noise ratio and a comparison of hologram reconstructions for different types of references are performed.
48

Papyres : un système de gestion et de recommandation d’articles de recherche

Naak, Amine 07 1900 (has links)
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres. / Graduate students and professors (researchers, in general) regularly access, review, and use large amounts of research papers, yet none of the existing tools and solutions provides the wide range of functionalities required to properly manage these resources. Indeed, bibliography management systems manage the references and citations but fail to help researchers in handling and locating resources. On the other hand, research paper recommendation systems and specialized search engines help researchers to locate new resources, but again fail to help researchers in managing the resources. Finally, Enterprise Content Management systems offer the required functionalities to manage resources and knowledge, but are not designed for research literature. Consequently, we suggest a new class of management systems: Research Paper Management and Recommendation System. Through our system Papyres (Naak, Hage, & Aïmeur, 2008, 2009) we illustrate our approach, which combines bibliography functionalities along with recommendation techniques and content management tools, in order to provide a set of functionalities to locate research papers, handle and maintain the bibliographies, and to manage and share knowledge related to the research literature. Additionally, we propose a novel research paper recommendation technique, used within Papyres. Its uniqueness lies in the multicriteria aspect introduced in the process of collaborative filtering, allowing researchers to indicate their interest in specific parts of articles. Moreover, we suggest test and compare several approaches to determine the neighbourhood in the Multicriteria Collaborative Filtering process, such as to increase the accuracy of the recommendation. Finally, we report on the implementation and validation of Papyres.
49

Imagerie ultrarapide à l'échelle nanométrique par diffraction XUV cohérente

Ge, Xunyou 11 December 2012 (has links) (PDF)
Imager des objets non-périodiques à une échelle nanométrique et à une échelle femto seconde est un vrai challenge à notre époque. Les techniques d'imagerie " sans lentille " sont des moyens puissants pour répondre à ce besoin. En utilisant des sources ultrarapide (~fs) et cohérente (ex. laser à électron libre ou harmoniques d'ordres élevés), ces techniques nous permettent de reconstruire des objets à partir de leur figure de diffraction, remplaçant les optiques conventionnelles du système d'imagerie par un algorithme informatique. Dans ce travail de thèse, je présent des expériences d'imageries en utilisant un rayonnement extrême-UV (15~40 nm) produit par la génération d'harmoniques d'ordre élevé d'un laser infrarouge puissant. Ce manuscrit est constitué d'une introduction, un chapitre de background théorique, trois chapitres de travail de thèse et une conclusion générale avec perspectives. La première partie du travail de thèse porte sur les développements et caractérisations de la ligne de lumière avec l'objectif de générer maximum de photons harmoniques cohérents avec un front d'onde plat. La deuxième partie est consacrée aux expériences et analyses de trois techniques d'imageries " sans lentille " : Imagerie par diffraction cohérente (CDI), Holographie par la transformée de Fourier (FTH) et Holographie avec références étendues (HERALDO). Ces derniers nous permettent de reconstruire des objets avec une résolution spatiale de 78 nm dans le cas de CDI et de 112 nm dans le cas de HERALDO, tous les deux avec une résolution temporaire de 20 fs. La troisième partie est une première application physique de l'imagerie sur la ligne harmonique. Il s'agit des études statiques et dynamiques de nano-domaines magnétique avec une résolution spatiale sub-100 nm à l'échelle femto seconde. Perspective des techniques d'imagerie 3D et développement potentiel de la ligne d'harmoniques sont présentés à la fin.
50

On quantifying the value of simulation for training and evaluating robotic agents

Courchesne, Anthony 04 1900 (has links)
Un problème récurrent dans le domaine de la robotique est la difficulté à reproduire les résultats et valider les affirmations faites par les scientifiques. Les expériences conduites en laboratoire donnent fréquemment des résultats propres à l'environnement dans lequel elles ont été effectuées, rendant la tâche de les reproduire et de les valider ardues et coûteuses. Pour cette raison, il est difficile de comparer la performance et la robustesse de différents contrôleurs robotiques. Les environnements substituts à faibles coûts sont populaires, mais introduisent une réduction de performance lorsque l'environnement cible est enfin utilisé. Ce mémoire présente nos travaux sur l'amélioration des références et de la comparaison d'algorithmes (``Benchmarking'') en robotique, notamment dans le domaine de la conduite autonome. Nous présentons une nouvelle platforme, les Autolabs Duckietown, qui permet aux chercheurs d'évaluer des algorithmes de conduite autonome sur des tâches, du matériel et un environnement standardisé à faible coût. La plateforme offre également un environnement virtuel afin d'avoir facilement accès à une quantité illimitée de données annotées. Nous utilisons la plateforme pour analyser les différences entre la simulation et la réalité en ce qui concerne la prédictivité de la simulation ainsi que la qualité des images générées. Nous fournissons deux métriques pour quantifier l'utilité d'une simulation et nous démontrons de quelles façons elles peuvent être utilisées afin d'optimiser un environnement proxy. / A common problem in robotics is reproducing results and claims made by researchers. The experiments done in robotics laboratories typically yield results that are specific to a complex setup and difficult or costly to reproduce and validate in other contexts. For this reason, it is arduous to compare the performance and robustness of various robotic controllers. Low-cost reproductions of physical environments are popular but induce a performance reduction when transferred to the target domain. This thesis present the results of our work toward improving benchmarking in robotics, specifically for autonomous driving. We build a new platform, the Duckietown Autolabs, which allow researchers to evaluate autonomous driving algorithms in a standardized framework on low-cost hardware. The platform offers a simulated environment for easy access to annotated data and parallel evaluation of driving solutions in customizable environments. We use the platform to analyze the discrepancy between simulation and reality in the case of predictivity and quality of data generated. We supply two metrics to quantify the usefulness of a simulation and demonstrate how they can be used to optimize the value of a proxy environment.

Page generated in 0.0369 seconds