• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Kriging-based Approaches for the Probabilistic Analysis of Strip Footings Resting on Spatially Varying Soils

Thajeel, Jawad 08 December 2017 (has links)
L’analyse probabiliste des ouvrages géotechniques est généralement réalisée en utilisant la méthode de simulation de Monte Carlo. Cette méthode n’est pas adaptée pour le calcul des faibles probabilités de rupture rencontrées dans la pratique car elle devient très coûteuse dans ces cas en raison du grand nombre de simulations requises pour obtenir la probabilité de rupture. Dans cette thèse, nous avons développé trois méthodes probabilistes (appelées AK-MCS, AK-IS et AK-SS) basées sur une méthode d’apprentissage (Active learning) et combinant la technique de Krigeage et l’une des trois méthodes de simulation (i.e. Monte Carlo Simulation MCS, Importance Sampling IS ou Subset Simulation SS). Dans AK-MCS, la population est prédite en utilisant un méta-modèle de krigeage qui est défini en utilisant seulement quelques points de la population, ce qui réduit considérablement le temps de calcul par rapport à la méthode MCS. Dans AK-IS, une technique d'échantillonnage plus efficace 'IS' est utilisée. Dans le cadre de cette approche, la faible probabilité de rupture est estimée avec une précision similaire à celle de AK-MCS, mais en utilisant une taille beaucoup plus petite de la population initiale, ce qui réduit considérablement le temps de calcul. Enfin, dans AK-SS, une technique d'échantillonnage plus efficace 'SS' est proposée. Cette technique ne nécessite pas la recherche de points de conception et par conséquent, elle peut traiter des surfaces d’état limite de forme arbitraire. Toutes les trois méthodes ont été appliquées au cas d'une fondation filante chargée verticalement et reposant sur un sol spatialement variable. Les résultats obtenus sont présentés et discutés. / The probabilistic analysis of geotechnical structures involving spatially varying soil properties is generally performed using Monte Carlo Simulation methodology. This method is not suitable for the computation of the small failure probabilities encountered in practice because it becomes very time-expensive in such cases due to the large number of simulations required to calculate accurate values of the failure probability. Three probabilistic approaches (named AK-MCS, AK-IS and AK-SS) based on an Active learning and combining Kriging and one of the three simulation techniques (i.e. Monte Carlo Simulation MCS, Importance Sampling IS or Subset Simulation SS) were developed. Within AK-MCS, a Monte Carlo simulation without evaluating the whole population is performed. Indeed, the population is predicted using a kriging meta-model which is defined using only a few points of the population thus significantly reducing the computation time with respect to the crude MCS. In AK-IS, a more efficient sampling technique ‘IS’ is used instead of ‘MCS’. In the framework of this approach, the small failure probability is estimated with a similar accuracy as AK-MCS but using a much smaller size of the initial population, thus significantly reducing the computation time. Finally, in AK-SS, a more efficient sampling technique ‘SS’ is proposed. This technique overcomes the search of the design points and thus it can deal with arbitrary shapes of the limit state surfaces. All the three methods were applied to the case of a vertically loaded strip footing resting on a spatially varying soil. The obtained results are presented and discussed.
32

Mise au point de détecteurs Micromegas pour le spectromètre CLAS12 au laboratoire Jefferson / Development of Micromegas detectors for the CLAS12 experiment at Jefferson Laboratory

Charles, Gabriel 24 September 2013 (has links)
Cette thèse présente mon travail de recherche accompli depuis 2010 pour développer les détecteurs Micromegas du spectromètre CLAS12 qui sera installé dans le hall B du laboratoire Jefferson aux Etats-Unis. Les Micromegas sont des détecteurs gazeux robustes, rapides et bon marché. Ils doivent cependant être adaptés à l'environnement spécifique de CLAS12 car les défis sont nombreux : présence d'un champ magnétique fort, éloignement de l'électronique, fonctionnement avec un taux de hadrons élevé, nécessité de courber les détecteurs, espace disponible restreint. Ma thèse a commencé par des tests de détecteurs en faisceau au CERN qui ont permis d'estimer que le taux de décharges dans les Micromegas de CLAS12 serait de quelques Hertz. Une part importante de ce document est ainsi consacrée à l'étude de plusieurs méthodes innovantes dont l'objectif est de minimiser le temps mort dû aux décharges. J'ai donc mené des tests intensifs portant sur l'optimisation du filtre haute tension de la microgrille, l'introduction d'une feuille de GEM dans un Micromegas ou encore l'utilisation de Micromegas dits résistifs. Ces derniers donnant d'excellents résultats, des prototypes à l'échelle 1, dont l'un fabriqué par un industriel, ont été testés. La mécanique et le point de fonctionnement (gaz, tensions, géométrie...) des détecteurs ont ensuite été validés par des tests en laboratoire. Toutefois, afin de s'assurer un meilleur rapport signal sur bruit, des optimisations de la microgrille du détecteur ont été menées. Le CEA Saclay étant également responsable du développement de l'électronique des Micromegas pour CLAS12, j'ai comparé ses performances avec une autre électronique, vérifier sa résolution temporelle et déterminer le rapport signal sur bruit lorsque des limandes de 2 m connectent le détecteur à l'électronique. Les progrès réalisés dans le cadre de CLAS12 ont par ailleurs initié d'autres projets. J'ai ainsi effectué des simulations basées sur des pseudo-données pour valider la faisabilité d'une expérience portant sur les mésons exotiques pour laquelle nous avons proposé un trajectographe composé de Micromegas. / This thesis presents my work performed since 2010 to develop Micromegas detectors for the CLAS12 spectrometer that will be installed in the Hall B of Jefferson Laboratory (USA). The Micromegas are robust, fast and cheap gaseous detectors. Nevertheless, they must be adapted to the specific CLAS12 environment as there are many challenges to face : presence of a strong magnetic field, off-detector frontend electronics, high hadrons rate, necessity to curve the detectors, few space available. My PhD started by beam tests at CERN that allowed to evaluate the spark rate in CLAS12 Micromegas at a few Hertz. An important part of this document is therefore devoted to the study of several innovative methods to minimize the dead time induced by sparks. Thus, I have performed intensive tests on the optimization of the micromesh high voltage filter, with on Micromegas equipped with a GEM foild or on resistive Micromegas. The latter giving excellent results, full scale prototypes, one of which built by a company, have been tested. The mechanics and the working point (gas, voltages, geometry...) of the detectors have then be validated by laboratory tests. However, to ensure a better signal over noise ratio, the micromesh has been optimized. The CEA Saclay being also responsible for the development of the electronics for CLAS12 Micromegas, I have compared its performance with another electronics, verify its time resolution and determine the signal over noise ratio when 2 m long cables are connecting the electronics to the detector. The progress realized in the context of CLAS12 have furthermore triggered other projects. So, I have carried out simulations based on pseudo-data to validate the feasibility of a meson spectroscopy experiment for which we have proposed a Micromegas based tracker.
33

Modélisation des comportements extrêmes en ingénierie

Piera-Martinez, Miguel 29 September 2008 (has links) (PDF)
La complexité d'un système et les approximations de modélisation qui en résultent, le caractère aléatoire des perturbations externes ainsi que la dispersion des paramètres de conception autour de leur valeur nominale sont autant de raisons qui amènent à remettre en cause les approches déterministes qui supposent une connaissance parfaite du système et de son environnement. La n´ecessité de concevoir des systèmes robustes nous conduit à élaborer des modèles statistiques qui permettent de gérer les incertitudes, et en particulier l'apparition de valeurs extrêmes à la sortie des systèmes. La modélisation des valeurs extrêmes et la protection d'un système vis-à-vis de ces évènements revêt un intérêt particulier, puisque ces valeurs extrêmes peuvent correspondre à des violations du cahier des charges, voire à des destructions du système. L'objectif de ce mémoire est de mettre en place des outils pour étudier les performances d'un dispositif lorsqu'il est sollicité à la limite du fonctionnement normalement prévu. Une valeur extrême est en général un évènement rare qui nécessite a priori de faire un grand nombre d'expériences avant d'être observé. Cependant, de telles expériences, ou les simulations qui sont de plus en plus utilisées pour les remplacer, sont souvent coûteuses. Il est donc souhaitable de caractériser les valeurs extrêmes à partir d'un petit nombre d'expériences ou de simulations. Concrètement, nous étudions la modélisation des queues de probabilité, l'estimation d'une faible probabilité de défaillance et l'estimation du pire cas de fonctionnement d'un système.
34

Analyse Dynamique d'Algorithmes Euclidiens et Théorèmes Limites

Hachemi, Aïcha 09 July 2007 (has links) (PDF)
Dans cette thèse, nous nous intéressons au comportement asymptotique des distributions de coûts associés à des algorithmes d'Euclide de la classe rapide. Nous commençons dans un premier chapitre par des rappels sur les propriétés dynamiques des systèmes euclidiens et introduisons la propriété de moments forts pour les coûts additifs non-réseau. Nous établissons ensuite la condition de coût fortement diophantien et montrons sa généricité. Dans le deuxième chapitre, nous analysons, en adaptant des techniques de Dolgopyat-Melbourne, des perturbations d'opérateurs de transfert associés à des applications de la bonne classe. Ces résultats sont utilisés dans le troisième chapitre pour obtenir des estimations sur la fonction génératrice des moments où nous montrons sa quasi-décroissance exponentielle. <br /><br />Le dernier chapitre est consacré aux démonstrations de téorèmes de la limite locale. Le premier théorème est sans vitesse de convergence et concerne tous les coùts non-réseau ayant des moments forts à l'ordre trois. La condition diphantienne nous permet ensuite d'établir un théorème de la limite locale avec contrôle de la vitesse de convergence. Pour des observables suffisament régulières, nous obtenons une vitesse de convergence optimale.
35

Indicateurs de dépendance entre deux variables aléatoires fournis par le développement en série de la densité de probabilité

Blacher, René 30 March 1983 (has links) (PDF)
.
36

Fonctions-spline homogènes à plusieurs variables

Duchon, Jean 08 February 1980 (has links) (PDF)
On présente certains outils mathématiques pour l'étude des fonctions Spline à plusieurs variables.
37

Contribution à l'étude du test aléatoire des circuits séquentiels et des mémoires. Application à des composants intégrés

Thevenod Fosse, Pascale 15 February 1978 (has links) (PDF)
Méthodes actuelles des tests non déterministes de systèmes logiques. Méthode d'analyse du test aléatoire de circuits séquentiels. Etude du test aléatoire de circuits séquentiels intégrés (ssi, msi). Exemples d'influence des probabilités des entrées sur la largeur de la séquence de test.
38

Les processus d'attente dans les files d'attentes multi-serveurs saturées

Loulou, Richard 09 May 1978 (has links) (PDF)
.
39

Simulation conditionnelle de modèles isofactoriels

Emery, Xavier 02 1900 (has links)
Cette thèse vise à développer des algorithmes de simulation conditionnelle de fonctions aléatoires à lois bivariables isofactorielles, c'est-à-dire telles qu'il existe une base de fonctions (facteurs) sans corrélations spatiales croisées. Les lois isofactorielles réalisent un compromis entre deux exigences souvent difficiles à concilier: d'une part, elles forment une vaste classe de modèles et permettent de s'adapter à la description de nombreux phénomènes; d'autre part, l'inférence statistique du modèle repose sur un faible nombre de paramètres. La première partie de la thèse met en relief les limitations et les approximations commises par une technique réputée "passe-partout": l'algorithme séquentiel, qui consiste à simuler les sites de l'espace les uns après les autres dans un ordre aléatoire, en estimant en chaque site la distribution de probabilité conditionnelle de la valeur inconnue par un krigeage d'indicatrices ou par un krigeage disjonctif. La seconde partie propose des modèles nouveaux et des algorithmes adaptés à leur simulation et au conditionnement à des données expérimentales. Plusieurs outils structuraux sont introduits et étudiés pour mener l'inférence des lois bivariables, notamment le madogramme, les variogrammes d'ordre inférieur à deux et les variogrammes d'indicatrices. Les concepts et méthodes sont finalement appliqués à un ensemble de données minières (accumulations en or et argent dans un gisement chilien en veine) caractérisées par une très forte dissymétrie des histogrammes.
40

Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées

Canon, Louis-Claude 18 October 2010 (has links) (PDF)
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements).

Page generated in 0.0486 seconds