Spelling suggestions: "subject:"grandeéchelle"" "subject:"grandeséchelles""
61 |
L'univers aux grandes échelles : études de l'homogénéité cosmique et de l'énergie noire à partir des relevés de quasars BOSS et eBOSS / The universe on large scales : studies of cosmic homogeneity and dark energy with the BOSS et eBOSS quasar surveysLaurent, Pierre 14 September 2016 (has links)
Ce travail de thèse se sépare en deux volets. Le premier volet concerne l'étude de l'homogénéité de l'univers, et le second une mesure de l'échelle BAO, qui constitue une règle standard permettant de mesurer l'évolution du taux d'expansion de l'univers. Ces deux analyses reposent sur l'étude de la structuration (ou clustering) des quasars des relevés BOSS et eBOSS, qui couvrent la gamme en redshift 0,9 < z < 2,8. Les mesures des observables caractérisant la structuration de l'univers aux grandes échelles sont très sensibles aux effets systématiques, nous avons donc étudiés ces effets en profondeur. Nous avons mis en évidence que les sélections de cibles quasars BOSS et eBOSS ne sont pas parfaitement homogènes, et corrigé cet effet. Au final, la mesure de la fonction de corrélation des quasars nous a permis de mesurer le biais des quasars sur la gamme en redshift 0,9 < z < 2,8. Nous obtenons la mesure actuelle la plus précise du biais, b = 3,85 ± 0,11 dans la gamme 2,2 < z < 2,8 pour le relevé BOSS, et b = 2,44 ± 0,04 dans la gamme 0,9 < z < 2,2 pour le relevé eBOSS. Le Principe Cosmologique stipule que notre univers est isotrope et homogène à grande échelle. Il s'agit d'un des postulats de base de la cosmologie moderne. En étudiant la structuration à très grande échelle des quasars, nous avons prouvé l'isotropie spatiale de l'univers dans la gamme 0,9 < z < 2,8, indépendamment de toute hypothèse et cosmologie fiducielle. L'isotropie spatiale stipule que l'univers est isotrope dans chaque couche de redshift. En la combinant au principe de Copernic, qui stipule que nous ne nous situons pas à une position particulière dans l'univers, permet de prouver que notre univers est homogène aux grandes échelles. Nous avons effectué une mesure de la dimension de corrélation fractale de l'univers, D₂(r), en utilisant un nouvel estimateur, inspiré de l'estimateur de Landy-Szalay pour la fonction de corrélation. En corrigeant notre estimateur du biais des quasars, nous avons mesuré (3 - D₂(r)) = (6,0 ± 2,1) x 10⁻⁵ entre 250 h⁻¹ Mpc et 1200 h⁻¹ Mpc pour le relevé eBOSS, dans la gamme 0,9 < z < 2,2. Pour le relevé BOSS, nous obtenons (3 - D₂(r)) = (3,9 ± 2,1) x 10⁻⁵, dans la gamme 2,2 < z < 2,8. De plus, nous montrons que le modèle Lambda-CDM décrit très bien la transition d'un régime structuré vers un régime homogène. D’autre part, nous avons mesuré la position du pic BAO dans les fonctions de corrélation des quasars BOSS et eBOSS, détecté à 2,5 sigma dans les deux relevés. Si nous mesurons le paramètre α, qui correspond au rapport entre la position du pic mesuré et la position prédite par une cosmologie fiducielle (en utilisant les paramètres Planck 2013), nous mesurons α = 1,074 pour le relevé BOSS, et α = 1,009 pour le relevé eBOSS. Ces mesures, combinées uniquement à la mesure locale de H₀, nous permettent de contraindre l'espace des paramètres de modèles au-delà du Lambda-CDM. / This work consists in two parts. The first one is a study of cosmic homogeneity, and the second one a measurement of the BAO scale, which provides a standard ruler that allows for a direct measurement of the expansion rate of the universe. These two analyses rely on the study of quasar clustering in the BOSS and eBOSS quasar samples, which cover the redshift range 0.9 < z < 2.8. On large scales, the measurement of statistical observables is very sensitive to systematic effects, so we deeply studied these effects. We found evidences that the target selections of BOSS and eBOSS quasars are not perfectly homogeneous, and we have corrected this effect. The measurement of the quasar correlation function provides the quasar bias in the redshift range 0.9 < z < 2.8. We obtain the most precise measurement of the quasar bias at high redshift, b = 3.85 ± 0.11, in the range 2.2 < z < 2.8 for the BOSS survey, and b = 2.44 ± 0.04 in the range 0.9 < z < 2.2 for the eBOSS survey. The Cosmological Principle states that the universe is homogeneous and isotropic on large scales. It is one of the basic assumptions of modern cosmology. By studying quasar clustering on large scales, we have proved ''spatial isotropy'', i.e. the fact that the universe is isotropic in each redshift bins. This has been done in the range 0.9 < z < 2.8 without any assumption or fiducial cosmology. If we combine spatial isotropy with the Copernican Principle, which states that we do not occupy a peculiar place in the universe, it is proved that the universe is homogeneous on large scales. We provide a measurement of the fractal correlation dimension of the universe, D₂(r), which is 3 for an homogeneous distribution, and we used a new estimator inspired from the Landy-Szalay estimator for the correlation function. If we correct our measurement for quasar bias, we obtain (3 - D₂(r)) = (6.0 ± 2.1) x 10⁻⁵ between 250 h⁻¹ Mpc and 1200 h⁻¹ Mpc for eBOSS, in the range 0.9 < z < 2.2. For BOSS, we obtain (3 - D₂(r)) = (3.9 ± 2.1) x 10⁻⁵, in the range 2.2 < z < 2.8. Moreover, we have shown that the Lambda-CDM model provide a very nice description of the transition from structures to homogeneity. We have also measured the position of the BAO peak in the BOSS and eBOSS quasar correlation functions, which yield a 2,5 sigma detection in both surveys. If we measure the α parameter, which corresponds to the ratio of the measured position of the peak to the predicted position in a fiducial cosmology (here Planck 2013), we measure α = 1.074 for BOSS, and α = 1.009 for eBOSS. These measurements, combined only with the local measurement of H₀, allows for constraints in parameter space for models beyond Lambda-CDM.
|
62 |
Mesure de l'échelle des oscillations acoustiques de baryons dans la fonction de corrélation des forêts Lyman-α avec la distribution des quasars observés dans le relevé SDSS / Mesure of the scale of bayonic acoustic oscillations in the correlation function of Lyman-α forest with the quasar distribution observed in the SDSS surveyDu Mas des Bourboux, Hélion 08 September 2017 (has links)
La propagation des ondes acoustiques dans le plasma primordial a laissé son empreinte sous la forme d'un pic dans la fonction de corrélation à deux points de la densité de matière. Ce pic d'oscillations acoustiques de baryons (BAO) constitue une échelle standard permettant de déterminer certains paramètres des différents modèles cosmologiques.Dans ce manuscrit de thèse, nous présentons une mise à jour de la mesure de BAO à un redshift z=2.40, à l'aide de la fonction de corrélation croisée entre deux traceurs des fluctuations primordiales de densité de matière: les quasars de SDSS-III (BOSS) et leurs fluctuations d'absorption du flux des forêts Lyman-α. Ces fluctuations tracent la distribution d'hydrogène neutre dans le milieu intergalactique (IGM).Cette étude constitue le premier développement d'un ajustement entièrement physique de la fonction de corrélation croisée; il prend notamment en compte la physique des quasars et la présence d'éléments plus lourds que l'hydrogène dans l'IGM. Nous y présentons également les premières simulations de notre analyse. Celles-ci nous permettent de valider l'ensemble de la procédure de mesure de l'échelle BAO.Cette étude mesure la distance de Hubble et la distance de diamètre angulaire avec respectivement une précision de 2% et 3% (intervalle à 1 σ). Nous combinons nos résultats avec d'autres mesures de BAO à des redshifts plus faibles et trouvons la densité de matière noire et d'énergie noire dans le cadre de deux différents modèles cosmologiques: ΛCDM et oΛCDM. / The acoustic wave propagation in the primordial plasma left its imprint in the two-point correlation function of the matter density field. This baryonic acoustic oscillation (BAO) peak builds up a standard ladder allowing us to infer some parameters of the different cosmological models.In this thesis manuscript we present an update of the BAO measurement at a redshift z=2.40, from the cross-correlation function between two tracers of the primordial matter density fluctuations: quasars of SDSS-III (BOSS) and their Lyman-α-forest absorption fluctuations. These fluctuations trace the neutral hydrogen distribution in the intergalactic medium (IGM).This study gives the first developpment of the full physical fit of the cross-correlation. Among other effects, it takes into account quasar physics and the distribution of IGM elements heavier than hydrogen. We also present the first simulations of our analysis. They allow us to validate the overall data analysis leading to the BAO measurement.This study measures the Hubble distance and the angular diameter distance at the 2%$ and 3%$ precision level respectivelly (1 σ interval). We combine our results with other BAO measurements at lower redshifts and find the dark matter density and dark energy density in the framework of two different cosmological models: ΛCDM et oΛCDM.
|
63 |
Targeting the transposable elements of the genome to enable large-scale genome editing and bio-containment technologies. / Le ciblage des éléments transposables du génome humain pour développer des technologies permettant son remaniement à grande échelle et des technologies de bio-confinement.Castanon velasco, Oscar 14 March 2019 (has links)
Les nucléases programmables et site-spécifiques comme CRISPR-Cas9 sont des signes avant-coureurs d’une nouvelle révolution en génie génétique et portent en germe un espoir de modification radicale de la santé humaine. Le « multiplexing » ou la capacité d’introduire plusieurs modifications simultanées dans le génome sera particulièrement utile en recherche tant fondamentale qu’appliquée. Ce nouvel outil sera susceptible de sonder les fonctions physiopathologiques de circuits génétiques complexes et de développer de meilleures thérapies cellulaires ou traitements antiviraux. En repoussant les limites du génie génétique, il sera possible d’envisager la réécriture et la conception de génomes mammifères. Le développement de notre capacité à modifier profondément le génome pourrait permettre la création de cellules résistantes aux cancers, aux virus ou même au vieillissement ; le développement de cellules ou tissus transplantables compatibles entre donneurs et receveurs ; et pourrait même rendre possible la résurrection d’espèces animales éteintes. Dans ce projet de recherche doctoral, nous présentons l’état de l’art du génie génétique « multiplex », les limites actuelles et les perspectives d’améliorations. Nous tirons profit de ces connaissances ainsi que de l’abondance des éléments transposables de notre ADN afin de construire une plateforme d’optimisation et de développement de nouveaux outils de génie génétique qui autorisent l’édition génomique à grande échelle. Nous démontrons que ces technologies permettent la production de modifications à l’échelle du génome allant jusqu’à 3 ordres de grandeur supplémentaires que précédemment, ouvrant la voie au développement de la réécriture des génomes de mammifères. En outre, l’observation de la toxicité engendrée par la multitude de coupures double-brins dans le génome nous a amenés à développer un bio-interrupteur susceptible d’éviter les effets secondaires des thérapies cellulaires actuelles ou futures. Enfin, en conclusion, nous exposons les potentielles inquiétudes et menaces qu’apporte le domaine génie génétiques et apportons des pistes de réflexions pour diminuer les risques identifiés. / Programmable and site-specific nucleases such as CRISPR-Cas9 have started a genome editing revolution, holding hopes to transform human health. Multiplexing or the ability to simultaneously introduce many distinct modifications in the genome will be required for basic and applied research. It will help to probe the physio-pathological functions of complex genetic circuits and to develop improved cell therapies or anti-viral treatments. By pushing the boundaries of genome engineering, we may reach a point where writing whole mammalian genomes will be possible. Such a feat may lead to the generation of virus-, cancer- or aging- free cell lines, universal donor cell therapies or may even open the way to de-extinction. In this doctoral research project, I outline the current state-of-the-art of multiplexed genome editing, the current limits and where such technologies could be headed in the future. We leveraged this knowledge as well as the abundant transposable elements present in our DNA to build an optimization pipeline and develop a new set of tools that enable large-scale genome editing. We achieved a high level of genome modifications up to three orders of magnitude greater than previously recorded, therefore paving the way to mammalian genome writing. In addition, through the observation of the cytotoxicity generated by multiple double-strand breaks within the genome, we developed a bio-safety switch that could potentially prevent the adverse effects of current and future cell therapies. Finally, I lay out the potential concerns and threats that such an advance in genome editing technology may be bringing and point out possible solutions to mitigate the risks.
|
64 |
Développement de papier bioactif par couchage à grande échelle d’enzymes immobilisées par microencapsulationGuerrero Palacios, Marco Polo 08 1900 (has links)
No description available.
|
65 |
Gestion des données dans les réseaux sociaux / Data management in social networksManiu, Silviu 28 September 2012 (has links)
Nous abordons dans cette thèse quelques-unes des questions soulevées par I'émergence d'applications sociales sur le Web, en se concentrant sur deux axes importants: l'efficacité de recherche sociale dans les applications Web et l'inférence de liens sociaux signés à partir des interactions entre les utilisateurs dans les applications Web collaboratives. Nous commençons par examiner la recherche sociale dans les applications de "tag- ging". Ce problème nécessite une adaptation importante des techniques existantes, qui n'utilisent pas des informations sociaux. Dans un contexte ou le réseau est importante, on peut (et on devrait) d'exploiter les liens sociaux, ce qui peut indiquer la façon dont les utilisateurs se rapportent au demandeur et combien de poids leurs actions de "tagging" devrait avoir dans le résultat. Nous proposons un algorithme qui a le potentiel d'évoluer avec la taille des applications actuelles, et on le valide par des expériences approfondies. Comme les applications de recherche sociale peut être considérée comme faisant partie d'une catégorie plus large des applications sensibles au contexte, nous étudions le problème de répondre aux requêtes à partir des vues, en se concentrant sur deux sous-problèmes importants. En premier, la manipulation des éventuelles différences de contexte entre les différents points de vue et une requête d'entrée conduit à des résultats avec des score incertains, valables pour le nouveau contexte. En conséquence, les algorithmes top-k actuels ne sont plus directement applicables et doivent être adaptés aux telle incertitudes dans les scores des objets. Deuxièmement, les techniques adaptées de sélection de vue sont nécessaires, qui peuvent s’appuyer sur les descriptions des requêtes et des statistiques sur leurs résultats. Enfin, nous présentons une approche pour déduire un réseau signé (un "réseau de confiance") à partir de contenu généré dans Wikipedia. Nous étudions les mécanismes pour deduire des relations entre les contributeurs Wikipédia - sous forme de liens dirigés signés - en fonction de leurs interactions. Notre étude met en lumière un réseau qui est capturée par l’interaction sociale. Nous examinons si ce réseau entre contributeurs Wikipedia représente en effet une configuration plausible des liens signes, par l’étude de ses propriétés globaux et locaux du reseau, et en évaluant son impact sur le classement des articles de Wikipedia. / We address in this thesis some of the issues raised by the emergence of social applications on the Web, focusing on two important directions: efficient social search inonline applications and the inference of signed social links from interactions between users in collaborative Web applications. We start by considering social search in tagging (or bookmarking) applications. This problem requires a significant departure from existing, socially agnostic techniques. In a network-aware context, one can (and should) exploit the social links, which can indicate how users relate to the seeker and how much weight their tagging actions should have in the result build-up. We propose an algorithm that has the potential to scale to current applications, and validate it via extensive experiments. As social search applications can be thought of as part of a wider class of context-aware applications, we consider context-aware query optimization based on views, focusing on two important sub-problems. First, handling the possible differences in context between the various views and an input query leads to view results having uncertain scores, i.e., score ranges valid for the new context. As a consequence, current top-k algorithms are no longer directly applicable and need to be adapted to handle such uncertainty in object scores. Second, adapted view selection techniques are needed, which can leverage both the descriptions of queries and statistics over their results. Finally, we present an approach for inferring a signed network (a "web of trust")from user-generated content in Wikipedia. We investigate mechanisms by which relationships between Wikipedia contributors - in the form of signed directed links - can be inferred based their interactions. Our study sheds light into principles underlying a signed network that is captured by social interaction. We investigate whether this network over Wikipedia contributors represents indeed a plausible configuration of link signs, by studying its global and local network properties, and at an application level, by assessing its impact in the classification of Wikipedia articles.javascript:nouvelleZone('abstract');_ajtAbstract('abstract');
|
66 |
Contributions à l'apprentissage grande échelle pour la classification d'imagesAkata, Zeynep 06 January 2014 (has links) (PDF)
La construction d'algorithmes classifiant des images à grande échelle est devenue une tache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles inetiquetées présentes sur Internet. Nous visons à classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complèxe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans le cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "ranking", "ranking pondéré moyen" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt anticipé de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles.
|
67 |
Intégration de Schémas Large EchelleSaleem, Khalid 27 November 2008 (has links) (PDF)
La mise en correspondance sémantique appliquée à des schémas hétérogènes dans les systèmes de partage de données est une tache fastidieuse et source d'erreurs. La thèse présente une nouvelle méthode automatique et robuste qui intègre un grand nombre de schémas sous forme arborescente et de domaine spécifique. Elle permet de découvrir des correspondances sémantiques entre eux. La méthode crée également les mappings entre des schémas sources et le schéma intégré. Puis, le manuscrit présente une technique pour découvrir d'une manière automatique des correspondances complexes entre deux schémas. <br /><br />Les outils de mise en correspondance existants utilisent des techniques semi-automatiques uniquement entre deux schémas. Dans un scénario à grande échelle, où le partage des données implique un grand nombre de sources de données, ces techniques ne sont pas adaptées. De plus, la mise en correspondance semi-automatique nécessite l'intervention de l'utilisateur pour finaliser les mappings. Bien qu'elle offre la possibilité de découvrir les mappings les plus appropriés, les performances s'en trouvent fortement dégradées. Dans un premier temps, le manuscrit présente en détails l'état de l'art sur la mise en correspondance. Nous expliquons les inconvénients des outils actuellement disponibles pour répondre aux contraintes d'un scénario à grande échelle. Notre approche, PORSCHE (Performance ORiented SCHEma mediation) évite ces inconvénients et ses avantages sont mis en évidence de manière empirique.<br /><br />Le principe de l'algorithme de PORSCHE consiste à regrouper d'abord les nœuds de l'arbre selon la similarité linguistique de leurs labels. Ensuite, des techniques de fouilles d'arbres utilisant les rangs des nœuds calculés au moyen du parcours en profondeur de l'arbre sont appliquées. Cela réduit l'espace de recherche d'un nœud cible et améliore par conséquent les performances, ce qui en fait une technique adaptée au contexte large échelle. PORSCHE implémente une approche hybride, qui crée également en parallèle et de manière incrémentale un schéma intégré qui englobe tous les schémas, tout en définissant les correspondances entre ces derniers et le schéma intégré. L'approche découvre des correspondances 1:1 dans un but d'intégration et de médiation. Finalement, des expérimentations sur des jeux de données réels et synthétiques montrent que PORSCHE passe à l'échelle avec de scénarios de grande échelle. La qualité des correspondances découvertes et l'intégrité du schéma intégré sont également vérifiées par une évaluation empirique.<br /><br />Par ailleurs, nous présentons une technique CMPV ({\bf C}omplex {\bf M}atch {\bf P}roposition et {\bf V}alidation), pour la découverte de correspondances complexes (1:n, n:1 et n:m), entre deux schémas, validée par l'utilisation de mini-taxonomies. Cette partie est une version étendue de l'aspect de mise en correspondance de PORSCHE. Les mini-taxonomies sont extraites d'un vaste ensemble de métadonnées de domaine spécifique représenté comme des structures arborescentes. Nous proposons un cadre, appelé ExSTax ({\bf Ex}tracting {\bf S}tructurally Coherent Mini-{\bf Tax}onomies) basé sur la fouille d'arbres pour appuyer notre idée. C'est l'extension de la méthode fouille d'arbres de PORSCHE. Enfin, on utilise la technique ExSTax pour extraire une taxonomie fiable spécifique à un domaine.
|
68 |
Recommandation Pair-à-Pair pour Communautés en Ligne à Grande Echelle / Peer-to-Peer Recommendation for Large-scale Online CommunitiesDraidi, Fady 09 March 2012 (has links)
Les systèmes de recommandation (RS) et le pair-à-pair (P2) sont complémentaires pour faciliter le partage de données à grande échelle: RS pour filtrer et personnaliser les requêtes des utilisateurs, et P2P pour construire des systèmes de partage de données décentralisés à grande échelle. Cependant, il reste beaucoup de difficultés pour construire des RS efficaces dans une infrastructure P2P. Dans cette thèse, nous considérons des communautés en ligne à grande échelle, où les utilisateurs notent les contenus qu'ils explorent et gardent dans leur espace de travail local les contenus de qualité pour leurs sujets d'intérêt. Notre objectif est de construire un P2P-RS efficace pour ce contexte. Nous exploitons les sujets d'intérêt des utilisateurs (extraits automatiquement des contenus et de leurs notes) et les données sociales (amitié et confiance) afin de construire et maintenir un overlay P2P social. La thèse traite de plusieurs problèmes. D'abord, nous nous concentrons sur la conception d'un P2P-RS qui passe à l'échelle, appelé P2Prec, en combinant les approches de recommandation par filtrage collaboratif et par filtrage basé sur le contenu. Nous proposons alors de construire et maintenir un overlay P2P dynamique grâce à des protocoles de gossip. Nos résultats d'expérimentation montrent que P2Prec permet d'obtenir un bon rappel avec une charge de requêtes et un trafic réseau acceptables. Ensuite, nous considérons une infrastructure plus complexe afin de construire et maintenir un overlay P2P social, appelé F2Frec, qui exploite les relations sociales entre utilisateurs. Dans cette infrastructure, nous combinons les aspects filtrage par contenu et filtrage basé social, pour obtenir un P2P-RS qui fournit des résultats de qualité et fiables. A l'aide d'une évaluation de performances extensive, nous montrons que F2Frec améliore bien le rappel, ainsi que la confiance dans les résultats avec une surcharge acceptable. Enfin, nus décrivons notre prototype de P2P-RS que nous avons implémenté pour valider notre proposition basée sur P2Prec et F2Frec. / Recommendation systems (RS) and P2P are both complementary in easing large-scale data sharing: RS to filter and personalize users' demands, and P2P to build decentralized large-scale data sharing systems. However, many challenges need to be overcome when building scalable, reliable and efficient RS atop P2P. In this work, we focus on large-scale communities, where users rate the contents they explore, and store in their local workspace high quality content related to their topics of interest. Our goal then is to provide a novel and efficient P2P-RS for this context. We exploit users' topics of interest (automatically extracted from users' contents and ratings) and social data (friendship and trust) as parameters to construct and maintain a social P2P overlay, and generate recommendations. The thesis addresses several related issues. First, we focus on the design of a scalable P2P-RS, called P2Prec, by leveraging collaborative- and content-based filtering recommendation approaches. We then propose the construction and maintenance of a P2P dynamic overlay using different gossip protocols. Our performance experimentation results show that P2Prec has the ability to get good recall with acceptable query processing load and network traffic. Second, we consider a more complex infrastructure in order to build and maintain a social P2P overlay, called F2Frec, which exploits social relationships between users. In this new infrastructure, we leverage content- and social-based filtering, in order to get a scalable P2P-RS that yields high quality and reliable recommendation results. Based on our extensive performance evaluation, we show that F2Frec increases recall, and the trust and confidence of the results with acceptable overhead. Finally, we describe our prototype of P2P-RS, which we developed to validate our proposal based on P2Prec and F2Frec.
|
69 |
Agrégation de ressources avec contrainte de distance : applications aux plateformes de grande échelle / Resource clustering with distance constraint : applications to large scale platformsLarchevêque, Hubert 27 September 2010 (has links)
Durant cette thèse, nous avons introduit les problèmes de Bin Covering avec Contrainte de Distance (BCCD) et de Bin Packing avec Contrainte de Distance (BPCD), qui trouvent leur application dans les réseaux de grande échelle, tel Internet. L'étude de ces problèmes que nous effectuons dans des espaces métriques quelconques montre qu'il est impossible de travailler dans un tel cadre sans avoir recours à de l'augmentation de ressources, un procédé qui permet d'élaborer des algorithmes construisant des solutions moins contraintes que la solution optimale à laquelle elles sont comparées. En plus de résultats d'approximation intéressants, nous prouvons la difficulté de ces problèmes si ce procédé n'est pas utilisé. Par ailleurs, de nombreux outils ont pour objectif de plonger les grands réseaux qui nous intéressent dans des espaces métriques bien décrits. Nous avons alors étudié nos problèmes dans plusieurs espaces métriques spécifiques, et, en particulier, ceux générés par certains de ces outils, comme Vivaldi et Sequoia. / During this Ph.D we introduced Bin Covering under Distance Constraint (BCCD in French) and Bin Packing under Distance Constraint (BPCD in French). Those two problems find their applications in the context of large scale networks, like Internet. We studied those problems in general metric spaces, and proved that using resource augmentation is mandatory. Resource augmentation allows to build algorithms working on solutions with less constraints than the optimal solution to which it is compared to. We found interesting approximations algorithms using this relaxation, and proved the necessity of this resource augmentation. However many tools are used to embed large networks we are interested in in specific metric spaces. Thus we studied those problems in different specific metric spaces, in particular those generated by the use of Vivaldi and Sequoia, two of those tools.
|
70 |
Redshifts photométriques et paramètres physiques des galaxies dans les sondages à grande échelle : contraintes sur l'évolution des galaxies massives / Photometric redshifts and physical parameters of galaxies in large scale surveys : constraints on galaxy evolutionMoutard, Thibaud 21 December 2015 (has links)
Cette thèse présente la mesure des redshifts photométriques et des paramètres physiques dans le cadre des sondages de galaxies à grande échelle, ainsi que la contrainte qui peut en être extraite sur l'évolution des galaxies. Je montre notamment dans cette thèse dans quelle mesure la calibration photométrique affecte la précision des redshifts photométriques, afin de contraindre la stratégie photométrique à développer pour la mission Euclid.Afin de prendre en compte les problèmes inhérents à l'observation, les analyses ont été effectuée sur la base de données observées dont la configuration est proche de celle qui est attendue pour Euclid. Ces données combinent de nouvelles observations en proche-infrarouges conduites pour couvrir le sondage spectroscopique VIPERS et la photométrie du CFHTLS. Sur la base des conclusions tirées de cette analyse, j'ai produit le nouveau catalogue photométrique de VIPERS, ainsi que le catalogue de redshifts photométriques associé. J'ai finalement utilisée la même photométrie pour dériver les paramètres physiques d'environ 760 000 galaxies, réparties sur plus de 22 degrés carrés à une magnitude limite Ks(AB) < 22. J'ai ainsi pu étudier l'évolution de la fonction de masse stellaire entre les redshifts z = 0.2 et z = 1.5. Ceci a permis de montrer que les galaxies dont la masse stellaire est d'environ log(M/Msol) = 10.66 voient généralement leur formation stellaire stoppée en 2 à 4 milliards d'années, alors que les galaxies de faible masse (log(M/Msol) < 9.5) ne formant plus d'étoiles ont vu leur formation stellaire être arrêtée 5 à 10 fois plus rapidement (en environ 0.4 milliard d'années). / This thesis presents the measurement of the photometric redshifts and physical parameters in the framework of large scale surveys, and their constraint on galaxy evolution. The photometric redshift measurement allows us to study the entire photometric sample. For this reason, the weak lensing signal measurement used in the Euclid mission as a primary cosmological probe will rely on photometric redshift measurements. However, the method is strongly affected by the quality of the photometry. In particular, I show in this thesis how the photometric calibration impacts the photometric redshift precison, in order to constrain the photometric strategy to use in the Euclid mission.Aiming to take into account for observationnal problems, the analysis is done with observationnal data whose photometric configuration is close to the expected Euclid one. These data combine new near-infrared observations conduected to cover the VIPERS spectroscopic survey and the CFHTLS photometry.Using the conclusions of this analysis, I have producted the new photometric catalogue for VIPERS and the associated photometric redshift calalogue.Finally, I used the same photometry to compute the stellar masses of 760,000 galaxies covering 22 square degrees at the limiting magnitude Ks(AB) < 22. This enabled me to study the evolution of the stellar mass function between redshifts z= 0.2 and z = 1.5. We have then shown that the star formation of galaxies with stellar masses around log(M/Msol) = 10.66 is stopped in 2-4 Gyr, while in quiescent low-mass (log(M/Msol) < 9.5) galaxies, the star formation has been stopped 5-10 times faster (approximatelly in 0.4 Gyr).
|
Page generated in 0.106 seconds