• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Using Poisson processes for rare event simulation / De l'utilisation des processus de Poisson pour la simulation d'événements rares

Walter, Clément 21 October 2016 (has links)
Cette thèse est une contribution à la problématique de la simulation d'événements rares. A partir de l'étude des méthodes de Splitting, un nouveau cadre théorique est développé, indépendant de tout algorithme. Ce cadre, basé sur la définition d'un processus ponctuel associé à toute variable aléatoire réelle, permet de définir des estimateurs de probabilités, quantiles et moments sans aucune hypothèse sur la variable aléatoire. Le caractère artificiel du Splitting (sélection de seuils) disparaît et l'estimateur de la probabilité de dépasser un seuil est en fait un estimateur de la fonction de répartition jusqu'au seuil considéré. De plus, les estimateurs sont basés sur des processus ponctuels indépendants et identiquement distribués et permettent donc l'utilisation de machine de calcul massivement parallèle. Des algorithmes pratiques sont ainsi également proposés.Enfin l'utilisation de métamodèles est parfois nécessaire à cause d'un temps de calcul toujours trop important. Le cas de la modélisation par processus aléatoire est abordé. L'approche par processus ponctuel permet une estimation simplifiée de l'espérance et de la variance conditionnelles de la variable aléaoire résultante et définit un nouveau critère d'enrichissement SUR adapté aux événements rares / This thesis address the issue of extreme event simulation. From a original understanding of the Splitting methods, a new theoretical framework is proposed, regardless of any algorithm. This framework is based on a point process associated with any real-valued random variable and lets defined probability, quantile and moment estimators without any hypothesis on this random variable. The artificial selection of threshold in Splitting vanishes and the estimator of the probability of exceeding a threshold is indeed an estimator of the whole cumulative distribution function until the given threshold. These estimators are based on the simulation of independent and identically distributed replicas of the point process. So they allow for the use of massively parallel computer cluster. Suitable practical algorithms are thus proposed.Finally it can happen that these advanced statistics still require too much samples. In this context the computer code is considered as a random process with known distribution. The point process framework lets handle this additional source of uncertainty and estimate easily the conditional expectation and variance of the resulting random variable. It also defines new SUR enrichment criteria designed for extreme event probability estimation.
462

Manifestations de la compréhension du concept de numération positionnelle chez des élèves du deuxième cycle du primaire présentant une dysphasie mixte sévère en contexte orthopédagogique

Jean, Pascale January 2014 (has links) (PDF)
No description available.
463

Développement de modèles physiques et numériques pour la simulation aux grandes échelles des écoulements dans les tuyères supersoniques / Development of physical and numerical models for large eddy simulation of supersonic nozzles

Georges-Picot, Alexandre 08 December 2014 (has links)
Ces travaux, initiés par le CNES (Centre National d’Etudes Spatiales) dans le cadre du programme de recherche ATAC (Aérodynamique Tuyères et Arrières-Corps), sont principalement consacrés au développement et à la validation de modèles numériques et physiques, pour la prédiction des charges latérales dans les moteurs-fusées. En effet, les systèmes propulsifs mettent en jeu des phénomènes physiques très complexes : mélange turbulent, compressibilité forte (interaction choc/turbulence, couplage de modes vorticité/entropie/acoustique), structures cohérentes et organisations tourbillonnaires dans le cas tridimensionnel, décollements massifs et instabilités à grande échelle. L’analyse de ces phénomènes nécessite le recourt à des modélisations de plus en plus fines basées sur des simulations numériques avancées. Pour faire face au coût prohibitif des simulations directes (ou simulations LES résolues) des couches limites, un nouveau modèle de paroi a été développé, en se basant sur les propriétés d’auto similarité des couches limites compressibles en tuyères supersoniques, et en utilisant des lois de renormalisation dérivées à partir d’une base de données tabulée. Ce modèle permet de prendre en compte la dynamique de l’écoulement tout en réduisant considérablement le nombre de points de calcul et le pas de temps requis pour les simulations LES. Les résultats de calcul mettent en évidence de nombreuses interactions complexes au sein de l’écoulement. En particulier, les interactions amont/aval (supersonique/subsonique),influençant fortement le décollement et la structure de chocs, à l’origine de l’apparition de pics énergétiques associés à des perturbations acoustiques conduisent à l’apparition,par rétroaction, de phénomènes d’instabilités convectives, couplées à des modes globaux dissymétriques en dynamique absolue. Ces phénomènes auto-entretenus sont synonymes d’efforts latéraux et sont représentatifs des expériences menées en laboratoire et sur bancs d’essai moteurs-fusées. En terme d’optimisation des calculs massivement parallèles, une méthode originale, appelée « Drop-Procs », a été développée dans le cadre des frontières immergées. Cette méthode, adaptée aux architectures de calculs intensifs Tier-0, permet une réduction notable du temps CPU (Central Processing Unit), allant jusqu’à 50%, et rendant ainsi ce type de simulations plus accessible à l’échelle industrielle. / This work, initiated by the CNES (Centre National d’Etudes Spatiales) in the ATAC research program (Aérodynamique Tuyères et Arrières-Corps), is devoted to the development and the validation of numerical and physical models for the prediction of side-loads in rocket engines. Indeed, propulsion systems involve complex physical phenomena : turbulent mixing, high compressibility (interaction shock / turbulence, coupling modes vorticity / entropy / acoustic), coherent structure, three-dimensional vortex organizations, massive detachment and large scale instabilities. The analysis of these phenomena requires the uses of advanced numerical simulations. To deal with the high cost of large-eddy simulations boundary layers, a new wall model, based on renormalization laws and a database, was developed. This model allows to take into account the dynamics of the flow while significantly reducing the number of calculation points and the time step required for LES simulations. Results show many complex interactions with in the flow. In particular, the upstream / downstream interactions (supersonic / subsonic), strongly influence the separation and the shock structure, causing the occurrence of energy peaks associated with acoustic disturbances and leading to the appearance of convective instability, coupled with global asymmetric modes. These self-sustained phenomena are synonymous of side-loads and are representative of laboratory experiments and rocket engine test benches. In terms of optimization of massively parallel computing, a new method, called "Drop-Procs", was developed as part of the immersed boundaries. This method is suitable for compute-intensive architectures Tier-0 and allows a significant reduction in CPU time (Central Processing Unit) consumption, up to 50%, making this type of simulation accessible for industrials.
464

Extension de la théorie des espaces de tentes et applications à certains problèmes aux limites / Extensions of the theory of tent spaces and applications to boundary value problems

Amenta, Alexander 24 March 2016 (has links)
Nous étendons la théorie des espaces de tentes, définis classiquement sur R^n, à différents espaces métriques. Pour les espaces doublant nous montrons que la théorie usuelle «globale» reste valide, et pour les espaces «non-uniformément localement doublant» (y compris R^n avec la mesure gaussienne) nous établissons une théorie locale satisfaisante. Dans le contexte doublant nous prouvons des résultats de plongement du type Hardy–Littlewood–Sobolev pour des espaces de tentes a poids, et dans le cas particulier des espaces métriques non-bornes AD-réguliers nous identifions les espaces d’interpolation réelle (les «espaces-Z») des espaces de tentes a poids. Les espaces de tentes a poids et les espaces-Z sur R^n sont ensuite utilises pour construire les espaces de Hardy–Sobolev et de Besov adaptes a des opérateurs de Dirac perturbes. Ces espaces jouent un rôle clé dans la classification des solutions de systèmes du premier ordre de type Cauchy–Riemann (ou de manière équivalente, la classification des gradients conormaux des solutions de systèmes elliptiques de second ordre) dans les espaces de tentes à poids et les espaces-Z. Nous établissons cette classification, et en corollaire nous obtenons une classification utile des cas ou les problèmes de Neumann et de Régularité; sont bien poses, pour des systèmes elliptiques de second ordre avec coefficients complexes et données dans les espaces de Hardy–Sobolev et de Besov d’ordre s en (-1,0). / We extend the theory of tent spaces from Euclidean spaces to various types of metric measure spaces. For doubling spaces we show that the usual `global' theory remains valid, and for `non-uniformly locally doubling' spaces (including R^n with the Gaussian measure) we establish a satisfactory local theory. In the doubling context we show that Hardy–Littlewood–Sobolev-type embeddings hold in the scale of weighted tent spaces, and in the special case of unbounded AD-regular metric measure spaces we identify the real interpolants (the `Z-spaces') of weighted tent spaces.Weighted tent spaces and Z-spaces on R^n are used to construct Hardy–Sobolev and Besov spaces adapted to perturbed Dirac operators. These spaces play a key role in the classification of solutions to first-order Cauchy–Riemann systems (or equivalently, the classification of conormal gradients of solutions to second-order elliptic systems) within weighted tent spaces and Z-spaces. We establish this classification, and as a corollary we obtain a useful characterisation of well-posedness of Regularity and Neumann problems for second-order complex-coefficient elliptic systems with boundary data in Hardy--Sobolev and Besov spaces of order s in (-1,0).
465

Méthodes et outils pour la spécification et la preuve de propriétés difficiles de programmes séquentiels / Methods and tools for specification and proof of difficult properties of sequential programs

Clochard, Martin 30 March 2018 (has links)
Cette thèse se positionne dans le domaine de la vérification déductive de programmes, qui consiste à transformer une propriété à vérifier sur un programme en un énoncé logique, pour ensuite démontrer cet énoncé. La vérification effective d'un programme peut poser de nombreuses difficultés pratiques. En fait, les concepts mis en jeu derrière le programme peuvent suffire à faire obstacle à la vérification. En effet, certains programmes peuvent être assez courts et n'utiliser que des constructions simples, et pourtant s'avérer très difficiles à vérifier. Cela nous amène à la question suivante: dans le contexte d'un environnement de vérification déductive de programmes basé sur les démonstrateurs automatiques, quelles méthodes appliquer pour réduire l'effort nécessaire à la fois pour spécifier des comportements attendus complexes, ainsi que pour démontrer qu'un programme respecte ces comportements attendus? Pour mener notre étude, nous nous sommes placés dans le cadre de l'environnement de vérification déductive de programmes Why3. La vérification de programmes en Why3 est basée sur la génération de conditions de vérification, et l'usage de démonstrateurs externes pour les prouver, que ces démonstrateurs soient automatiques ou interactifs. Nous avons développé plusieurs méthodes, certaines générales et d'autres spécifiques à des classes de programmes, pour réduire l'effort manuel. Nos contributions sont les suivantes. Tout d'abord, nous ajoutons des fonctionnalités à Why3 pour assister le processus de vérification, notamment un mécanisme léger de preuve déclarative basé sur la notion d'indicateurs de coupures. Ensuite, nous présentons une méthode de vérification d'absence de débordement arithmétique pour une classe d'utilisation des entiers difficile à traiter par les méthodes standards. Enfin, nous nous intéressons au développement d'une bibliothèque générique pour la spécification et la preuve de programmes générateurs de code. / This thesis is set in the domain of deductive verification of programs, which consists of transforming a property to be verified about a program into a logical statement, and then proving this statement. Effective verification of a program can pose many practical difficulties. In fact, the concepts behind the program may be sufficient to impede verification. Indeed, some programs can be quite short and use only simple constructions, and yet prove very difficult to verify. This leads us to the following question: in the context of a deductive program verification environment based on automatic provers, what methods can be applied to reduce the effort required both to specify complex behaviors, as well as to prove that a program respects these expected behaviors? To carry out our study, we placed ourselves in the context of the deductive verification environment of programs Why3. The verification of programs in Why3 is based on the generation of verification conditions, and the use of external provers to prove them, whether these provers are automatic or interactive. We have developed several methods, some general and others specific to some program classes, to reduce manual effort. Our contributions are as follows. First, we add features to Why3 to assist the verification process, including a lightweight declarative proof mechanism based on the notion of cut indicators. Then we present a method for checking the absence of arithmetic overflow, for use cases which are difficult to process by standard methods. Finally, we are interested in the development of a generic library for the specification and proof of code generating programs.
466

Approximate computing for high energy-efficiency in IoT applications / Calcul approximatif à haute efficacité énergétique pour des applications de l'internet des objets

Ndour, Geneviève 17 July 2019 (has links)
Les unités à taille réduite font partie des méthodes proposées pour la réduction de la consommation d’énergie. Cependant, la plupart de ces unités sont évaluées séparément,c’est-à-dire elles ne sont pas évaluées dans une application complète. Dans cette thèse, des unités à taille réduite pour le calcul et pour l’accès à la mémoire de données, configurables au moment de l’exécution, sont intégrées dans un processeur RISC-V. La réduction d’énergie et la qualité de sortie des applications exécutées sur le processeur RISC-V étendu avec ces unités, sont évaluées. Les résultats indiquent que la consommation d’énergie peut être réduite jusqu’à 14% pour une erreur ≤0.1%. De plus, nous avons proposé un modèle d’énergie générique qui inclut à la fois des paramètres logiciels et architecturaux. Le modèle permet aux concepteurs logiciels et matériels d’avoir un aperçu rapide sur l’impact des optimisations effectuées sur le code source et/ou sur les unités de calcul. / Reduced width units are ones of the power reduction methods. However such units have been mostly evaluated separately, i.e. not evaluated in a complete applications. In this thesis, we extend the RISC-V processor with reduced width computation and memory units, in which only a number of most significant bits (MSBs), configurable at runtime is active. The energy reduction vs quality of output trade-offs of applications executed with the extended RISC-V are studied. The results indicate that the energy can be reduced by up to 14% for an error ≤ 0.1%. Moreover we propose a generic energy model that includes both software parameters and hardware architecture ones. It allows software and hardware designers to have an early insight into the effects of optimizations on software and/or units.
467

Análise de sensibilidade através de um modelo implicitamente acoplado para alívio de sobrecargas em redes de transmissão /

Hoji, Eduardo Shigueo. January 2006 (has links)
Orientador: Antonio Padilha Feltrin / Banca: Jose Roberto Sanches Mantovani / Banca: Ariovaldo Verandio Garcia / Resumo: A reestruturação dos mercados de energia para fornecer livre acesso ao sistema de transmissão e o conseqüente aumento no número de transações de compra e venda de energia tem causado congestionamento nos sistemas de transmissão. Como conseqüência, as redes têm sofrido sobrecargas nas linhas de maneira mais freqüente. Uma maneira prática de se melhorar a capacidade de transferência de potência ativa em uma linha de transmissão é a redução de seu fluxo reativo. Esse controle pode ser feito através de alterações nos controles das fontes de potência reativa e nos taps de transformadores. A definição de quais ações serão tomadas de modo a minimizar o fluxo reativo e aliviar, ou mesmo eliminar, a sobrecarga em uma determinada linha, pode ser realizada através da análise de sensibilidade. Uma vez que se está interessado na resposta do sistema às variações de injeções de reativos, utilizamos a matriz Lc do método CRIC (Calcul de Reseaux Implicitement Couples) de fluxo de potência. Também foi utilizado o modelo constante do método CRIC. A metodologia desenvolvida consiste da manipulação da matriz Lc com outras sensibilidades de primeira ordem, de modo a se obter as sensibilidades entre fluxo reativo nas linhas e injeção de reativos nas barras e fluxo reativo nas linhas e taps dos transformadores. As sensibilidades obtidas fornecem as barras e transformadores mais indicados para alívio de uma determinada sobrecarga e são úteis principalmente em casos emergenciais, nos quais não seja necessária a instalação de novas fontes de reativos. Os resultados obtidos são comparados com os obtidos através de uma metodologia semelhante, que utiliza a matriz jacobiana do método de Newton. Foram utilizados para os testes o sistema Cigré de 32 barras, e o sistema Sul-Sudeste brasileiro em duas configurações de carga diferentes. / Abstract: The restructuring of energy markets to supply free access to the transmission system and the consequent increase of the number of power transactions has been causing congestions in the transmission systems. As consequence, the networks have been suffering overloads in the lines in a more frequent way. A practice way of improving the transfer capability of active power in a transmission line is to decrease its reactive power flow. That control can be made through changes in the reactive power sources injections and in the transformer ratios of transformers. The definition of which actions will be taken to minimize the reactive flow and to alleviate, or even to eliminate, the overload in a determined line can be accomplished through the sensibility analysis. Once it is interested in the answer of the system to the variations of reactive power injections, we used the matrix Lc from the CRIC (Calcul of Reseaux Implicitement Couples) power flow method. The constant model of CRIC is also used. The developed methodology consists of the manipulation of the matrix Lc with other first order sensibilities, in order to obtain the sensibilities among reactive flow in the lines and reactive power injections in the buses and reactive flow in the lines and transformer ratios of the transformers. The obtained sensibilities indicate the buses and transformers for relieving a certain overload and they are mainly useful in emergency cases, which it is not necessary the installation of new sources of reagents. The obtained results are compared with the obtained through a similar methodology, that uses the of Newton's method jacobian matrix. The methodologies were tested using the 32-bus Cigré network and the South-southeast Brazilian system in two different load configurations. / Mestre
468

Propriétés optiques de matériaux à fortes corrélations électroniques en conditions extrêmes / Optical properties of strongly correlated materials at low temperature and high pressure

Brière, Benjamin 18 October 2018 (has links)
Les matériaux à électrons fortement corrélés comptent parmi les systèmes les plus intrigants en raison de la richesse de leurs propriétés remarquables découvertes au cours de ces dernières décen nies telles que la supraconductivité haute Tc, la magnétorésistance colossale ou les conducteurs organiques. Lors de cette thèse, deux types de matériaux fortement corrélés récents ont été étudiés la quadruple pérovskite EuCu3fe4O12 et les conducteurs organiques type {Au(Et-thiazdt)2]. Le premier système présente une transition métal isolant à basse température (240K) tandis que le second transite isolant de MoU - métal sous pression. Grâce à des mesures de microspectroscopie infrarouge en conditions extrêmes, nous avons pu sonder l’électrodynamique de basse énergie de ces composés. Des calculs ab-initio de structure électronique nous ont alors permis de comprendre les mécanismes à l’origine des observations et de mieux connaître le rôle des corrélations électroniques. / Materials with strongly correlated electrons belong to the most intriguing systems in condensed matter physics due to their great variety of properties discovered during the last decades such as high temperature superconductivity, molecular conductors and colossal magnetoresistance. During this thesis, two types of strongly correlated materials have been studied: the quadruple perovskite EuCu3fe4Oi2 and the molecular conductors [Au(Et-thiazdt)2J. EuCu3Fe4Oi2 undergoes a metal to insulator transition at low temperature (240K), and [Au(Et-thiazdt)2J goes from a Mott insulator to a correlated metal state under high pressure. Infrared microspectroscopy measurements allowed us to probe the low energy electrodynamic of these systems. Ab-initio calculations were also used to understand the mechanisms of the transitions and the role of electronic correlations in the material.
469

Application de la mécanique quantique à la résolution de problèmes de spectroscopie : développement de méthodes pour le calcul de propriétés d'états métastables

Tremblay, Jean Christophe January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
470

Modélisation et implémentation de simulations multi-agents sur architectures massivement parallèles / Modeling and implementing multi-agents based simulations on massively parallel architectures

Hermellin, Emmanuel 18 November 2016 (has links)
La simulation multi-agent représente une solution pertinente pour l’ingénierie et l’étude des systèmes complexes dans de nombreux domaines (vie artificielle, biologie, économie, etc.). Cependant, elle requiert parfois énormément de ressources de calcul, ce qui représente un verrou technologique majeur qui restreint les possibilités d'étude des modèles envisagés (passage à l’échelle, expressivité des modèles proposés, interaction temps réel, etc.).Parmi les technologies disponibles pour faire du calcul intensif (High Performance Computing, HPC), le GPGPU (General-Purpose computing on Graphics Processing Units) consiste à utiliser les architectures massivement parallèles des cartes graphiques (GPU) comme accélérateur de calcul. Cependant, alors que de nombreux domaines bénéficient des performances du GPGPU (météorologie, calculs d’aérodynamique, modélisation moléculaire, finance, etc.), celui-ci est peu utilisé dans le cadre de la simulation multi-agent. En fait, le GPGPU s'accompagne d’un contexte de développement très spécifique qui nécessite une transformation profonde et non triviale des modèles multi-agents. Ainsi, malgré l'existence de travaux pionniers qui démontrent l'intérêt du GPGPU, cette difficulté explique le faible engouement de la communauté multi-agent pour le GPGPU.Dans cette thèse, nous montrons que, parmi les travaux qui visent à faciliter l'usage du GPGPU dans un contexte agent, la plupart le font au travers d’une utilisation transparente de cette technologie. Cependant, cette approche nécessite d’abstraire un certain nombre de parties du modèle, ce qui limite fortement le champ d’application des solutions proposées. Pour pallier ce problème, et au contraire des solutions existantes, nous proposons d'utiliser une approche hybride (l'exécution de la simulation est partagée entre le processeur et la carte graphique) qui met l'accent sur l'accessibilité et la réutilisabilité grâce à une modélisation qui permet une utilisation directe et facilitée de la programmation GPU. Plus précisément, cette approche se base sur un principe de conception, appelé délégation GPU des perceptions agents, qui consiste à réifier une partie des calculs effectués dans le comportement des agents dans de nouvelles structures (e.g. dans l’environnement). Ceci afin de répartir la complexité du code et de modulariser son implémentation. L'étude de ce principe ainsi que les différentes expérimentations réalisées montre l'intérêt de cette approche tant du point de vue conceptuel que du point de vue des performances. C'est pourquoi nous proposons de généraliser cette approche sous la forme d'une méthodologie de modélisation et d'implémentation de simulations multi-agents spécifiquement adaptée à l'utilisation des architectures massivement parallèles. / Multi-Agent Based Simulations (MABS) represents a relevant solution for the engineering and the study of complex systems in numerous domains (artificial life, biology, economy, etc.). However, MABS sometimes require a lot of computational resources, which is a major constraint that restricts the possibilities of study for the considered models (scalability, real-time interaction, etc.).Among the available technologies for HPC (High Performance Computing), the GPGPU (General-Purpose computing on Graphics Processing Units) proposes to use the massively parallel architectures of graphics cards as computing accelerator. However, while many areas benefit from GPGPU performances (meteorology, molecular dynamics, finance, etc.). Multi-Agent Systems (MAS) and especially MABS hardly enjoy the benefits of this technology: GPGPU is very little used and only few works are interested in it. In fact, the GPGPU comes along with a very specific development context which requires a deep and not trivial transformation process for multi-agents models. So, despite the existence of works that demonstrate the interest of GPGPU, this difficulty explains the low popularity of GPGPU in the MAS community.In this thesis, we show that among the works which aim to ease the use of GPGPU in an agent context, most of them do it through a transparent use of this technology. However, this approach requires to abstract some parts of the models, what greatly limits the scope of the proposed solutions. To handle this issue, and in contrast to existing solutions, we propose to use a nhybrid approach (the execution of the simulation is shared between both the processor and graphics card) that focuses on accessibility and reusability through a modeling process that allows to use directly GPU programming while simplifying its use. More specifically, this approach is based on a design principle, called GPU delegation of agent perceptions, consists in making a clear separation between the agent behaviors, managed by the processor, and environmental dynamics, handled by the graphics card. So, one major idea underlying this principle is to identify agent computations which can be transformed in new structures (e.g. in the environment) in order to distribute the complexity of the code and modulate its implementation. The study of this principle and the different experiments conducted show the advantages of this approach from both a conceptual and performances point of view. Therefore, we propose to generalize this approach and define a comprehensive methodology relying on GPU delegation specifically adapted to the use of massively parallel architectures for MABS.

Page generated in 0.0549 seconds