• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 28
  • 4
  • Tagged with
  • 80
  • 40
  • 20
  • 19
  • 18
  • 14
  • 12
  • 12
  • 11
  • 11
  • 10
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Codes Identifiants dans les Graphes

Moncel, Julien 27 June 2005 (has links) (PDF)
Ce mémoire présente quelques résultats récents sur les codes identifiants. La thèse est structurée en cinq chapitres. Le Chapitre 1 contient les définitions et présente la notion de code identifiant. Dans le Chapitre 2 nous étudions l'aspect algorithmique des codes identifiants. Le Chapitre 3 contient quelques résultats concernant des classes de graphes particulières, à savoir les hypercubes, les grilles, et les cycles. Nous étudions quelques questions extrémales au Chapitre 4. Enfin, le Chapitre 5 présente quelques résultats récents sur les codes identifiants dans les graphes aléatoires. A la fin du document nous résumons les résultats les plus importants que nous avons présentés et nous donnons quelques problèmes ouverts sur le sujet.
22

Mécanismes de déformation précédant et accompagnant le phénomène de pop-in lors d'un essai de nanoindentation sur un monocristal d'oxyde de magnésium

Montagne, Alex 24 November 2010 (has links) (PDF)
Les travaux exposés dans cet ouvrage portent sur le comportement mécanique de l'oxyde de magnésium (MgO) sous nanoindentation. L'étude est plus particulièrement focalisée sur les mécanismes élémentaires de déformation précédant et accompagnant le pphénomène de pop-in. L'observation de la surface autour des zones indentées, et en particulier des lignes de glissement, a été réalisée par microscopie à force atomique (AFM). La structure en volume des dislocations nucléées lors de l'essai de nanoindentation a été explorée par une technique de tomographie couplant polissage mécano-chimique (CMP) et nano-attaque chimique. Ces études expérimentales ont été confrontées à des simulations numériques menées à l'aide d'un code de dynamique de dislocations discrètes (DDD) couplé à un code éléments finis. Une étude bibliographique présentant en particulier les mécanismes de plasticité associés au phénomène de pop-in est tout d'abord proposée. Des expériences menées sur des échantillons présentant une très faible concentration de défauts sont ensuite présentées. Les résultats expérimentaux montrent que contrairement à l'idée communément admise, la déformation précédant le pop-in n'est pas nécessairement purement élastique. Par la suite, l'introduction contrôlée de défauts (défauts ponctuels, dislocations) dans le matériau a permis d'étudier leur influence sur les mécanismes initiaux de plasticité. Enfin, les simulations numériques ont permis d'accéder au comportement des dislocations individuelles dans le champ de contraintes complexe généré par l'indenteur tout au long d'un cycle d'indentation. Ces résultats apportent un éclairage sur les comportements observés expérimentalement.
23

Linéarisation du flux visqueux des équations de navier-stokes et de modèles de turbulence pour l'optimisation aérodynamique en turbomachines

Pham, Chi-Tuân 09 1900 (has links) (PDF)
Le calcul de gradients de fonctions aérodynamiques par rapport à des paramètres géométriques de la forme solide est une sous-discipline de la simulation numérique en mécanique des fluides. Cette dérivation par rapport à deux variables dépendantes, le champ aérodynamique et le maillage, liés par les équations discrètes de la mécanique des fluides, nécessite l'inversion d'un système linéaire dont la matrice est la matrice jacobienne des équations de la mécanique des fluides discrétisées par rapport au champ aérodynamique (méthode de l'équation linéarisée) ou la transposée de cette matrice jacobienne (méthode adjointe). La précision du calcul de cette matrice jacobienne fait débat lorsque les équations de la mécanique des fluides sont modélisées avec l'approche RANS. L'objectif de cette thèse est de déterminer le degré d'exactitude de la linéarisation d'un flux visqueux discret et des équations discrètes de certains modèles de turbulence, nécessaire à l'obtention de gradients précis de fonctions métiers des concepteurs de turbomachines par rapport à des paramètres géométriques d'une aube. L'écriture de linéarisations approchées du flux visqueux (avec ou sans approche dite de "couche mince") et de deux modèles de turbulence (modèle algébrique de Michel et al. et modèle à deux équations de transport k-e de Launder-Sharma) est détaillée. Pour le modèle de Michel et al., plusieurs approximations pour la linéarisation des équations du modèle ont été testées et comparées. Des résultats (valeurs de gradients de fonctions aérodynamiques, sensibilités d'écoulement pour la méthode linéarisée) sont présentés pour la tuyère de Déléry dite C, l'aile ONERA M6 et deux configurations d'aube isolée de turbine. Des recommandations sont formulées pour le calcul de gradients pour des configurations de machine tournante avec modélisation RANS.
24

Modélisation bayésienne des changements aux niches écologiques causés par le réchauffement climatique

Akpoué, Blache Paul 05 1900 (has links)
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche. / This thesis presents some estimation methods and algorithms to analyse count data in particular and discrete data in general. It is also part of an NSERC strategic project, named CC-Bio, which aims to assess the impact of climate change on the distribution of plant and animal species in Québec. After a brief introduction to the concepts and definitions of biogeography and those relative to the generalized linear mixed models in chapters 1 and 2 respectively, my thesis will focus on three major and new ideas. First, we introduce in chapter 3 a new form of distribution whose components have marginal distribution Poisson or Skellam. This new specification allows to incorporate relevant information about the nature of the correlations between all the components. In addition, we present some properties of this probability distribution function. Unlike the multivariate Poisson distribution initially introduced, this generalization enables to handle both positive and negative correlations. A simulation study illustrates the estimation in the two-dimensional case. The results obtained by Bayesian methods via Monte Carlo Markov chain (MCMC) suggest a fairly low relative bias of less than 5% for the regression coefficients of the mean. However, those of the covariance term seem a bit more volatile. Later, the chapter 4 presents an extension of the multivariate Poisson regression with random effects having a gamma density. Indeed, aware that the abundance data of species have a high dispersion, which would make misleading estimators and standard deviations, we introduce an approach based on integration by Monte Carlo sampling. The approach remains the same as in the previous chapter. Indeed, the objective is to simulate independent latent variables to transform the multivariate problem estimation in many generalized linear mixed models (GLMM) with conventional gamma random effects density. While the assumption of knowledge a priori dispersion parameters seems too strong and not realistic, a sensitivity analysis based on a measure of goodness of fit is used to demonstrate the robustness of the method. Finally, in the last chapter, we focus on the definition and construction of a measure of concordance or a correlation measure for some zeros augmented count data with Gaussian copula models. In contrast to Kendall's tau whose values lie in an interval whose bounds depend on the frequency of ties observations, this measure has the advantage of taking its values on the interval (-1, 1). Originally introduced to model the correlations between continuous variables, its extension to the discrete case implies certain restrictions and its values are no longer in the entire interval (-1,1) but only on a subset. Indeed, the new measure could be interpreted as the correlation between continuous random variables before being transformed to discrete variables considered as our discrete non negative observations. Two methods of estimation based on integration via Gaussian quadrature and maximum likelihood are presented. Some simulation studies show the robustness and the limits of our approach.
25

Contributions à la modélisation de la dépendance stochastique

Lebrun, Régis 24 May 2013 (has links) (PDF)
Dans cette thèse, nous étudions la modélisation de la dépendance stochastique entre composantes d'un vecteur aléatoire sous l'angle des copules. La première partie des travaux consiste en une exploration numérique des notions de copule et de mesure de dépendance stochastique dans le contexte de la modélisation des incertitudes en simulation numérique. La seconde partie des travaux porte sur l'étude des transformations de Nataf et de Rosenblatt. Nous montrons que la transformation de Nataf consiste à supposer que le vecteur aléatoire est muni d'une copule Gaussienne. Nous généralisons cette transformation à une distribution absolument continue à copule elliptique quelconque. Nous montrons également l'équivalence entre les transformations de Nataf et de Rosenblatt dans le cas d'une copule Gaussienne. La troisième partie étudie la notion de dépendance stochastique sous contrainte. Nous caractérisons les lois jointes de statistiques d'ordre continues en termes de lois marginales et de copules, et nous proposons une nouvelle famille de copules adaptée à cette modélisation. Nous caractérisons l'existence et l'unicité d'un élément maximal dans cette famille. La quatrième partie s'intéresse aux lois multivariées discrètes, pour lesquelles la notion de copule n'est plus en bijection avec celle de fonction de répartition jointe. Nous établissons un algorithme innovant pour le calcul de probabilités rectangulaires pour une large classe de tels modèles, surclassant les meilleurs algorithmes disponibles tant en termes de précision numérique que de temps de calcul et d'occupation mémoire.
26

Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifs

Jamain, Florian 27 June 2014 (has links) (PDF)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l'intractabilité de problèmes d'optimisation multi-objectifs.Dans un premier temps, nous essayons d'apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l'ensemble des points non dominés de toute instance de problèmes d'optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s'inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d'abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs.
27

Etude de la démarche expérimentale dans les situations de recherche pour la classe

Giroud, Nicolas 28 October 2011 (has links) (PDF)
La recherche que nous avons menée s'inscrit dans les projets de l'équipe de recherche Maths à Modeler. En particulier dans celui portant sur les situations de recherche en classe (Grenier et Payan, 2002 ; Ouvrier-Buffet, 2003 ; Godot, 2005 ; Cartier, 2008). Cette étude est centrée sur la démarche de recherche en mathématiques et plus particulièrement sur le rôle de l'expérimental. Un des postulats fondateur de notre recherche est que savoir faire des mathématiques, c'est savoir résoudre partiellement des problèmes de recherche, la résolution de tels problèmes nécessitant de passer par des phases expérimentales. Notre problématique porte donc sur la transmission aux élèves du savoir-faire " démarche expérimentale en mathématiques " et sur le rôle que celui-ci joue dans la résolution de problèmes de recherche. Considérant que ce savoir-faire ne peut s'apprendre qu'à travers sa pratique en situation de résolution de problèmes, l'objectif de notre recherche a été la détermination de conditions épistémologiques et didactiques favorisant la mise en pratique de la " démarche expérimentale ". En plus de la construction d'un modèle de situation pour la " démarche expérimentale ", nous avons construit, analysé et expérimenté des situations se référant à ce modèle. Pour mener à bien notre étude, nous avons utilisé le modèle de situation de recherche pour la classe (Grenier et Payan, 2002 ; Godot, 2005), ainsi que des éléments de la théorie des situtions didactiques de Brousseau (1998), en particulier validation a-didactique, contrat didactique et milieu. Nous avons aussi défini un modèle de " démarche expérimentale en mathématiques " qui a servi de référant à notre recherche. Après avoir observé que la " démarche expérimentale en mathématiques ", telle que nous l'entendons, n'est pas proposée par l'institution scolaire, les expérimentations et les analyses, que nous avons menées, ont montré que, dans une certaine mesure, il est possible de la faire pratiquer à des élèves. De plus, cette pratique a permis aux élèves de progresser dans la résolution grâce à un enrichissement des conceptions qu'ils portaient sur le problème à résoudre. Ces expérimentations nous ont aussi permis d'affiner les situations que nous avons construites.
28

Identification de sommets dans les graphes

Moncel, Julien 03 July 2012 (has links) (PDF)
Les travaux présentés dans ce document traitent des codes identifiants dans les graphes. Cette notion, introduite à la fin des années 1990, modélise des problèmes de détection de défaillance dans les réseaux. Un code identifiant peut être vu comme une variante du problème de domination, avec une contrainte supplémentaire d'identification des sommets. La recherche de la cardinalité minimum d'un tel code est un problème NP-difficile. Les résultats obtenus sont regroupés en quatre grands thèmes. Le premier thème concerne les structures régulières (grilles, cycles, hypercubes, produits de cliques, graphes de Sierpiński), pour lesquels des résultats sur la cardinalité minimum d'un code sont présentés (bornes et valeurs exactes). Ensuite, les aspects algorithmiques sont développés, que ce soit au sujet de la recherche d'algorithmes polynomiaux pour des classes de graphes particulières (arbres, fasciagraphes) ou concernant l'approximabilité du problème. Quelques questions structurelles sont ensuite discutées, notamment la construction de graphes extrémaux pour le problème, la construction de familles de graphes admettant un code identifiant de faible cardinalité, et la structure (degrés, sous-graphes, etc.) des graphes admettant un tel code. Enfin, une nouvelle variante de ces codes est présentée, les codes identifiants adaptatifs. Cette variante permet de modéliser une situation où nous pouvons tirer parti de l'aspect dynamique du problème, et espérer interroger un nombre de sommets bien moins grand que dans le cas statique. Nous explicitons en particulier dans ce document les liens qu'entretiennent les codes identifiants avec d'autres types de structures, tels les ensembles dominants, les codes superposés, les plans projectifs, ou les jeux de Rényi.
29

Families of orthogonal functions defined by the Weyl groups of compact Lie groups

Hakova, Lenka 08 1900 (has links)
Plusieurs familles de fonctions spéciales de plusieurs variables, appelées fonctions d'orbites, sont définies dans le contexte des groupes de Weyl de groupes de Lie simples compacts/d'algèbres de Lie simples. Ces fonctions sont étudiées depuis près d'un siècle en raison de leur lien avec les caractères des représentations irréductibles des algèbres de Lie simples, mais également de par leurs symétries et orthogonalités. Nous sommes principalement intéressés par la description des relations d'orthogonalité discrète et des transformations discrètes correspondantes, transformations qui permettent l'utilisation des fonctions d'orbites dans le traitement de données multidimensionnelles. Cette description est donnée pour les groupes de Weyl dont les racines ont deux longueurs différentes, en particulier pour les groupes de rang $2$ dans le cas des fonctions d'orbites du type $E$ et pour les groupes de rang $3$ dans le cas de toutes les autres fonctions d'orbites. / Several families of multivariable special functions, called orbit functions, are defined in the context of Weyl groups of compact simple Lie groups/Lie algebras. These functions have been studied for almost a century now because of their relation to characters of irreducible representations of Lie algebras, their symmetries and orthogonalities. Our main interest is the description of discrete orthogonality relations and their corresponding discrete transforms which allow the applications of orbit functions in the processing of multidimensional data. This description is provided for the Weyl group of different lengths of root, in particular groups of rank 2 for so-called $E-$orbit functions and of rank 3 for all the other families of special functions.
30

Investigation of pore closure during polar firn densification / Etude de la fermeture des pores lors de la densification du névé polaire

Burr, Alexis 29 November 2017 (has links)
.La densification du névé en glace est un processus essentiel à comprendre pour interpréter les enregistrements climatiques. Une bonne connaissance des mécanismes permet une datation précise de l'air capturé dans la glace lors de la fermeture des pores. Celle-ci est plus vieille que l'air capturé à cause du transport des gaz dans la colonne de névé plus rapide que la densification de celui-ci. Cette différence d'âge entre la glace et le gaz est généralement appelé le Δage. La densification de la neige consiste en un processus complexe de réarrangement de grains, de frittage et de déformation viscoplastique. Bien que le comportement viscoplastique du cristal de glace soit fortement anisotrope, les modèles de densification actuels ne tiennent pas compte de cette anisotropie. De plus, le caractère granulaire du névé affecte aussi sa densification. La relation entre la fermeture des pores et les mécanismes microstructuraux sous-jacents est encore méconnue. Le but de cette thèse est d'incorporer l'aspect granulaire ainsi que l'anisotropie du cristal de glace dans une approche de modélisation innovante de la densification. Des expériences sur l'indentation viscoplastique de cylindres monocristallins de glace ont été réalisées pour proposer une loi de contact basée sur la théorie de l'indentation, et prenant en compte la déformation préférentielle du cristal de glace sur les plans basaux. Cette loi de contact a été implémentée dans un code utilisant la méthode des éléments discrets pour prédire la densification du névé.La micro-tomographie aux rayons X a été utilisée pour caractériser ex situ le névé polaire en trois dimensions à différentes étapes de la densification (ρ= 0.55-0.88 g/cm3), i.e. pour différentes profondeurs (~23 à 130m). Une étude fine de la fermeture des pores et de différentes caractéristiques morphologiques et physiques a été réalisée pour les sites polaires Dome C et Lock In. Des essais mécaniques ont aussi été réalisés in situ sur du névé extrait de Dome C dans le but de modéliser la densification du névé. Les observations microstructurales des expériences ex situ et in situ révèlent d'importantes différences dues aux vitesses relativement importantes utilisées lors des essais mécaniques. Ces vitesses rapides permettent de découpler la contribution des cinétiques de diffusion de la contribution viscoplastique de la déformation. Les effets de ces contributions sur la morphologie des pores et leurs fermetures sont discutés. Pour caractériser la fermeture des pores, cette thèse propose un indice de connectivité définit par le ratio entre le volume du plus gros pore sur la porosité totale. En effet, cet indice est plus approprié lors de l'utilisation de la tomographie aux rayons X que le ratio de pores fermés pour prédire la densité au close-off. / Densification from firn to ice is an essential phenomenon to understand for the interpretation of the climate record. A good knowledge of this mechanism enables the precise dating of the air embedded in the ice. The step at which the air becomes entrapped is the pore closure (or close-off). Because of gas flow in the firn column, the ice is older than the entrapped air. The difference between ice and gas is generally defined as Δage.Snow densification consists of grain rearrangements, sintering and viscoplastic deformation. Although the viscoplastic behaviour of the ice crystal is strongly anisotropic, densification models do not take into account this anisotropy. Firn also bears some granular characteristics that may affect its densification. The interactions between pore closure and microstructural mechanisms in the firn are still misunderstood.The aim of this PhD thesis is to incorporate both the granular aspect of firn and its anisotropy into an innovating approach of firn densification modelling. The mutual indentation of viscoplastic monocrystalline ice cylinders was experimentally carried out to propose a contact law that is based on indentation theory and that takes into account the preferential viscoplastic deformation on the basal plane. We have integrated this contact law into a DEM (Discrete Element Method) code for the prediction of firn densification.3D X-ray micro-tomography was performed on polar firn at different stages of the densification (ρ= 0.55-0.88 g/cm3) and depths (~23 to 130m). A thorough investigation of pore closure and of different morphological and physical parameters was achieved for the Dome C and the newly drilled Lock In polar sites. In addition to these ex situ analyses, in situ X-ray micro-mechanical experiments were carried out on firn extracted from Dome C in order to model its densification. Ex situ and in situ microstructural observations indicate significant differences that can be explained by the relatively large strain-rates imposed to the firn during in situ tests. These large strain rates allow for a decoupling of the effects of diffusion kinetics and of viscoplastic deformation. Their relative weights on the morphology of pores and on their closure are discussed. To measure pore closure, we propose a connectivity index, which is the ratio of the largest pore volume over the total pore volume. We show that this index is better suited for X-ray tomography analysis than the classic closed porosity ratio to predict the close-off density

Page generated in 0.0633 seconds