• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une architecture de communication pour environnements virtuels distribués à grande-echelle sur l'internet

Léty, Emmanuel 04 December 2000 (has links) (PDF)
Le modèle IP multipoint actuel rend particulièrement difficile le déploiement à grande-échelle d'Environnements Virtuels Partagés (EVPs) sur l'Internet. Cependant les concepteurs de ce type d'applications désirent permettre la connexion simultanée d'un nombre toujours plus important d'utilisateurs. Nous avons défini SCORE, une architecture de communication permettant d'améliorer la scalabilité et de déployer à grande-échelle des EVPs. Dans cette architecture, nous avons élaboré des mécanismes de filtrage et des protocoles au niveau de la couche transport, s'appuyant sur plusieurs agents et sur un ensemble de groupes multipoints. Afin d'évaluer les coûts introduits par SCORE ainsi que sa capacité à améliorer les performances, nous avons réalisé plusieurs séries d'expérimentations. Nos résultats montrent les situations dans lesquelles notre architecture de communication permet d'offrir un haut degré de scalabilité.
2

Contribution aux infrastructures de calcul global: délégation inter plates-formes, intégration de services standards et application à la physique des hautes énergies

Lodygensky, Oleg 21 September 2006 (has links) (PDF)
La généralisation et les puissances aujourd'hui disponibles des ressources informatiques, ordinateurs, espaces de stockages, réseaux, permettent d'imaginer de nouvelles méthodes de travail ou de loisir, inconcevables, il y a encore peu. Les ordinateurs monolithiques centralisés, ont peu à peu laissé place à des architectures distribuées "client/serveur" qui se trouvent elles mêmes concurencées par de nouvelles organisations de systèmes distribués, les systèmes "pair à pair". Cette migration n'est pas le fait de spécialistes; les utilisateurs les moins avertis utilisent tous les jours ces nouvelles technologies, que ce soit pour échanger des courriers électroniques, à des fins commerciales à travers le "e-commerce" sur le Web, ou encore pour échanger des fichiers, hors de toute infrastructure, "d'égal à égal".<br />Les mondes du commerce, de l'industrie et de la recherche, ont bien compris les avantages et les enjeux de cette révolution et investissent massivement dans la recherche et le développement autour de ces nouvelles technologies, que l'on appelle les "grilles", qui désignent des ressources informatiques globales et qui ouvrent une nouvelle approche. Une des disciplines autour des grilles concerne le calcul. Elle est l'objet des travaux présentés ici.<br /><br />Sur le campus de l'Université Paris-Sud, à Orsay, une synergie est née entre le Laboratoire de Recherche en Informatique (LRI) d'une part, et le Laboratoire de l'Accélérateur Linéaire (LAL), d'autre part, afin de mener à bien, ensemble, des travaux sur les infrastructures de grille qui ouvrent de nouvelles voies d'investigation pour le premier et de nouvelles méthodes de travail pour le second.<br /><br />Les travaux présentés dans ce manuscrit sont le résultat de cette collaboration pluridisciplinaire. Ils se sont basés sur XtremWeb, la plate-forme de recherche et de production de calcul global développée au LRI. Nous commençons par présenter un état de l'art des systèmes distribués à grande Èchelle, ses principes fondamentaux, son architecture basée sur les services.<br />Puis nous introduisons XtremWeb et détaillons les modifications que nous avons dû apporter, tant au niveau de son architecture que de son implémentation, afin de mieux répondre aux exigences et aux besoins de ce type de plate-forme. Nous présentons ensuite deux études autour de cette plate-forme permettant de généraliser l'utilisation de ressources inter grilles, d'une part, et d'utiliser sur une grille des services qui n'ont pas été prévus à cette fin, d'autre part. Enfin, nous présentons l'utilisation, les problèmes à résoudre et les avantages à tirer de notre plate-forme par la communauté de recherche en physique des hautes énergies, grande consommatrice de ressources informatiques.
3

Les moments cumulant d'ordre supérieur à deux points des champs cosmologiques : propriétés théoriques et applications.

Bel, Julien 04 December 2012 (has links)
La philosophie de cette thèse est de dire que nos plus grandes chances de trouver et de caractériser les ingrédients essentiels du modèle cosmologique passe par l'élargissement de l'éventail des méthodes que l'on peut utiliser dans le but de trouver une nouvelle physique. Bien qu'il soit d'une importance primordiale de continuer à affiner, à de-biaiser et à rendre plus puissantes, les stratégies qui ont contribué à établir le modèle de concordance, il est également crucial de remettre en question, avec de nouvelles méthodes, tous les secteurs de l'actuel paradigme cosmologique. Cette thèse, par conséquent, s'engage dans le défi de développer des sondes cosmologiques nouvelle et performantes qui visent à optimiser les résultats scientifiques des futures grand sondages de galaxies. L'objectif est double. Du côté théorique, je cherche à mettre au point de nouvelles stratégies de test qui sont peu (voire pas du tout) affectées par des incertitudes astrophysiques ou par des modèles phénoménologiques qui ne sont pas complet . Cela rendra les interprétations cosmologiques plus facile et plus sûr. Du côté des observations, l'objectif est d'évaluer les performances des stratégies proposées en utilisant les données actuelles, dans le but de démontrer leur potentiel pour les futures grandes missions cosmologiques tels que BigBoss et EUCLID. / The philosophy of this thesis is that our best chances of finding and characterizing the essential ingredients of a well grounded cosmological model is by enlarging the arsenal of methods with which we can hunt for new physics. While it is of paramount importance to continue to refine, de-bias and power, the very same testing strategies that contributed to establish the concordance model, it is also crucial to challenge, with new methods, all the sectors of the current cosmological paradigm. This thesis, therefore, engages in the challenge of developing new and performant cosmic probes that aim at optimizing the scientific output of future large redshift surveys. The goal is twofold. From the theoretical side, I aim at developing new testing strategies that are minimally (if not at all) affected by astrophysical uncertainties or by not fully motivated phenomenological models. This will make cosmological interpretations easier and safer. From the observational side, the goal is to gauge the performances of the proposed strategies using current, state of the art, redshift data, and to demonstrate their potential for the future large cosmological missions such as BigBOSS and EUCLID.
4

Simulations numeriques de modeles gaussiens et non-gaussiens de formation des galaxies

Mathis, Hugues 26 April 2002 (has links) (PDF)
On etudie d'abord la formation des galaxies dans le cadre du modele standard en utilisant des simulations numeriques contraintes puis on invalide un schema concurrent ou l'assemblage des galaxies brillantes est a priori plus precoce. Deux grandes simulations de cosmologies CDM (LCDM et tCDM) avec des fluctuations de densite initiale gaussiennes sont analysees. Elles reproduisent l'Univers Local jusqu'a cz=8000 km/s. Les populations de galaxies sont normalisees avec la relation de Tully-Fisher et la fonction de luminosite locale en bande B. La position et la masse des principaux amas proches coincident et leurs plus brillantes galaxies montrent un accord raisonnable avec les populations reeles. On compare alors aux catalogues PSCz et UZC: la structure a grande echelle observee localement se retrouve, prouvant le succes de l'ensemble des techniques numeriques utilisees, de la contrainte du champ de densite initial au modele semi-analytique de formation des galaxies. De plus, jusqu'a leur limite de resolution, les simulations montrent de grands volumes vides de halos de DM et de tout type de galaxies, en accord avec les observations. La fonction de luminosite simulee a z=3 est plus faible que les donnees, mais les modeles sont suffisants pour donner un apercu des proprietes et de la repartition spatiale des Galaxies Lyman Break, des hotes de QSO, et de leurs descendants a z=0. Enfin, on considere le modele isocourbure avec matiere noire froide (ICDM) propose par Peebles : les fluctuations initiales de densite de DM y sont fortement non-gaussienne. On effectue deux simulations de cotes respectifs 600 et 162 Mpc/h. On confirme des predictions analytiques simples a z=0 et on trouve que les longueurs de correlation des amas et la forme de la distribution de leurs vitesses propres permettent d'invalider ce modele sur la base des donnees actuelles. Il est aussi exclu par des mesures recentes des anisotropies du CMB.
5

Non-Convex Optimization for Latent Data Models : Algorithms, Analysis and Applications / Optimisation Non Convexe pour Modèles à Données Latentes : Algorithmes, Analyse et Applications

Karimi, Belhal 19 September 2019 (has links)
De nombreux problèmes en Apprentissage Statistique consistent à minimiser une fonction non convexe et non lisse définie sur un espace euclidien. Par exemple, les problèmes de maximisation de la vraisemblance et la minimisation du risque empirique en font partie.Les algorithmes d'optimisation utilisés pour résoudre ce genre de problèmes ont été largement étudié pour des fonctions convexes et grandement utilisés en pratique.Cependant, l'accrudescence du nombre d'observation dans l'évaluation de ce risque empirique ajoutée à l'utilisation de fonctions de perte de plus en plus sophistiquées représentent des obstacles.Ces obstacles requièrent d'améliorer les algorithmes existants avec des mis à jour moins coûteuses, idéalement indépendantes du nombre d'observations, et d'en garantir le comportement théorique sous des hypothèses moins restrictives, telles que la non convexité de la fonction à optimiser.Dans ce manuscrit de thèse, nous nous intéressons à la minimisation de fonctions objectives pour des modèles à données latentes, ie, lorsque les données sont partiellement observées ce qui inclut le sens conventionnel des données manquantes mais est un terme plus général que cela.Dans une première partie, nous considérons la minimisation d'une fonction (possiblement) non convexe et non lisse en utilisant des mises à jour incrémentales et en ligne. Nous proposons et analysons plusieurs algorithmes à travers quelques applications.Dans une seconde partie, nous nous concentrons sur le problème de maximisation de vraisemblance non convexe en ayant recourt à l'algorithme EM et ses variantes stochastiques. Nous en analysons plusieurs versions rapides et moins coûteuses et nous proposons deux nouveaux algorithmes du type EM dans le but d'accélérer la convergence des paramètres estimés. / Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Euclidean space.Examples include topic models, neural networks or sparse logistic regression.Optimization methods, used to solve those problems, have been widely studied in the literature for convex objective functions and are extensively used in practice.However, recent breakthroughs in statistical modeling, such as deep learning, coupled with an explosion of data samples, require improvements of non-convex optimization procedure for large datasets.This thesis is an attempt to address those two challenges by developing algorithms with cheaper updates, ideally independent of the number of samples, and improving the theoretical understanding of non-convex optimization that remains rather limited.In this manuscript, we are interested in the minimization of such objective functions for latent data models, ie, when the data is partially observed which includes the conventional sense of missing data but is much broader than that.In the first part, we consider the minimization of a (possibly) non-convex and non-smooth objective function using incremental and online updates.To that end, we propose several algorithms exploiting the latent structure to efficiently optimize the objective and illustrate our findings with numerous applications.In the second part, we focus on the maximization of non-convex likelihood using the EM algorithm and its stochastic variants.We analyze several faster and cheaper algorithms and propose two new variants aiming at speeding the convergence of the estimated parameters.
6

Dynamique des écoulements de jonction en régime turbulent

Gand, Fabien 23 September 2011 (has links) (PDF)
Les zones de jonction sont incontournables sur un aéronef, par exemple au raccord entre une aile et un fuselage. Malgré cela, les phénomènes aérodynamiques se produisant à l'intersection entre deux surfaces sont mal connus et difficiles à prévoir tant expérimentalement que numériquement. Par conséquent, l'étude proposée dans le présent mémoire a consisté à identifier et analyser l'origine et les propriétés physiques des phénomènes mis en jeu au sein d'écoulements de jonction afin d'étudier les conditions d'apparition des décollements de coin. La démarche a été initiée par l'analyse de la littérature qui a permis de déterminer un domaine de conditions supposées favorables aux décollements de coin. Des configurations spécifiques ont ainsi été mises en place afin de tester ces conditions de manière expérimentale et numérique. L' analyse d'une première configuration a mis en évidence la dynamique d'ensemble du tourbillon en fer à cheval. Les pulsations bimodales du tourbillon dont fait état la littérature et ses oscillations transverses ont été caractérisées au moyen d'une simulation aux grandes échelles. Le fort niveau d'anisotropie de la turbulence relevé dans la région de coin est supposé responsable du mauvais comportement des modèles statistiques standards. Enfin, l'étude des sensibilités de cette configuration a fait apparaître une tendance au décollement de coin dans les cas à forts chargement aérodynamique. Ce travail souligne la nécessité d'approfondir les connaissances sur le décollement de coin afin d'en permettre une prévision fiable. Cela repose sur la création de bases de données expérimentales dédiées aux écoulements de jonction qui sont encore peu nombreuses.

Page generated in 0.0679 seconds