• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 65
  • 20
  • 1
  • Tagged with
  • 205
  • 93
  • 62
  • 61
  • 54
  • 52
  • 42
  • 39
  • 33
  • 28
  • 27
  • 26
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Ejection de gaz et de grains suite à la rupture d'un crayon de combustible nucléaire : modélisation de la dynamique / Models for grains and gas ejection dynamics following the rupture of a nuclear fuel rod

Zhou, Yixian 02 November 2016 (has links)
En condition accidentelle,le combustible nucléaire d’un réacteur peut entrer en contact avec le fluide caloporteur.Les conséquences de l’interaction qui en résulte sont étudiées par l’IRSN. La violence de l’interaction dépend notamment fortement de la cinétique de cette mise en contact. L’observation expérimentale directe du phénomène étant inenvisageable. Ce travail de thèse a consisté en l’étude de cette dynamique. Nous avons étudié le débit de vidange d’un milieu granulaire monodisperse en fonction de plusieurs paramètres prépondérants (géométrie du réservoir,taille,forme et position de l’orifice,débit gazeux,taille des grains). Ces études ont été réalisées sur un banc expérimental dédié et ont mis en évidence plusieurs lois d’échelle pour le régime stationnaire. En support à l’interprétation de ces expériences, différentes hypothèses de modélisation de l’écoulement (population discrète de particules, rhéologie d’un milieu continu) ont été confrontées aux résultats expérimentaux à l’aide de simulations numériques. Ainsi la loi de dépendance classique du débit de vidange d’un silo avec un orifice en bas a été étendue aux silos avec un orifice latéral notamment en clarifiant les contributions relatives aux dimensions verticale et horizontale. Par ailleurs, il a été établi qu’un écoulement de gaz augmente significativement le débit de vidange du granulaire. Ceci peut être modélisé en prenant en compte le gradient de pression imposé par le gaz sur les grains dans la zone de l’orifice en plus de la gravité. Les éléments fondateurs de la modélisation d’une vidange de grains et de gaz au sein d’un réservoir avec un orifice latéral ont pu ainsi être mis en place. / In the hypothetical conditions of a reactivity initiated accident in a nuclear power plant, some of the cylindrical rods, that contain the fuel, could break. If fuel fragmentation occurs, hot fuel particles and pressurized gas could be ejected out of the rod and then interact with the surrounding fluid. The consequences of this interaction are studied by IRSN . The violence of this interaction depends particularly on the discharge rate of the fuel particles. The aim of this thesis, was to study this dynamics. We simulated the fuel particles and gas ejection dynamics by the flow of a dense granular material and a gas from a confined space toward an open space. We focused on the experimental study of the stationary discharge of a silo composed of monodisperse spherical glass beads, with an orifice either lateral or at the bottom of the silo, with or without air flow. The measured parameters were the mass flow rate and the pressure along the silo, whereas the controlled parameters were the size of particles, the size of orifices, and the flow rate of air. To understand the underlying physical mechanism, discrete and continuous numerical simulations were also performed and compared to the experimental results. For the case of a lateral orifice, when the form of the orifice is rectangular, we identified two regimes that depend on the ratio of width to height. For the case with air flow, we found that the flow rate increases significantly with the air flow. We used a simple physical model to describe the grains and gas ejection taking into account the pressure gradient imposed by the fluid on the particles around the orifice.
92

Une étude du bien-composé en dimension n. / A Study of Well-composedness in n-D.

Boutry, Nicolas 14 December 2016 (has links)
Le processus de discrétisation faisant inévitablement appel à des capteurs, et ceux-ci étant limités de par leur nature, de nombreux effets secondaires apparaissent alors lors de ce processus; en particulier, nous perdons la propriété d'être "bien-composé" dans le sens où deux objects discrétisés peuvent être connectés ou non en fonction de la connexité utilisée dans l'image discrète, ce qui peut amener à des ambigüités. De plus, les images discrétisées sont des tableaux de valeurs numériques, et donc ne possèdent pas de topologie par nature, contrairement à notre modélisation usuelle du monde en mathématiques et en physique. Perdre toutes ces propriétés rend difficile l'élaboration d'algorithmes topologiquement corrects en traitement d'images: par exemple, le calcul de l'arbre des formes nécessite que la representation d'une image donnée soit continue et bien-composée; dans le cas contraire, nous risquons d'obtenir des anomalies dans le résultat final. Quelques representations continues et bien-composées existent déjà, mais elles ne sont pas simultanément n-dimensionnelles et auto-duales. La n-dimensionalité est cruciale sachant que les signaux usuels sont de plus en plus tridimensionnels (comme les vidéos 2D) ou 4-dimensionnels (comme les CT-scans). L'auto-dualité est nécéssaire lorsqu'une même image contient des objets a contrastes divers. Nous avons donc développé une nouvelle façon de rendre les images bien-composées par interpolation de façon auto-duale et en n-D; suivie d'une immersion par l'opérateur span, cette interpolation devient une représentation auto-duale continue et bien-composée du signal initial n-D. Cette représentation bénéficie de plusieurs fortes propriétés topologiques: elle vérifie le théorème de la valeur intermédiaire, les contours de chaque coupe de la représentation sont déterminés par une union disjointe de surfaces discrète, et ainsi de suite / Digitization of the real world using real sensors has many drawbacks; in particular, we loose ``well-composedness'' in the sense that two digitized objects can be connected or not depending on the connectivity we choose in the digital image, leading then to ambiguities. Furthermore, digitized images are arrays of numerical values, and then do not own any topology by nature, contrary to our usual modeling of the real world in mathematics and in physics. Loosing all these properties makes difficult the development of algorithms which are ``topologically correct'' in image processing: e.g., the computation of the tree of shapes needs the representation of a given image to be continuous and well-composed; in the contrary case, we can obtain abnormalities in the final result. Some well-composed continuous representations already exist, but they are not in the same time n-dimensional and self-dual. n-dimensionality is crucial since usual signals are more and more 3-dimensional (like 2D videos) or 4-dimensional (like 4D Computerized Tomography-scans), and self-duality is necessary when a same image can contain different objects with different contrasts. We developed then a new way to make images well-composed by interpolation in a self-dual way and in n-D; followed with a span-based immersion, this interpolation becomes a self-dual continuous well-composed representation of the initial n-D signal. This representation benefits from many strong topological properties: it verifies the intermediate value theorem, the boundaries of any threshold set of the representation are disjoint union of discrete surfaces, and so on
93

Discrete shape modeling for geometrical product specification : contributions and applications to skin model simulation / Shape modeling discrets pour la spécification géométrique des produits : contributions et applications à la simulation sur le skin model

Zhang, Min 17 October 2011 (has links)
La gestion et le contrôle des variations géométriques des produits pendant les processus de développement représentent une préoccupation importante pour la réduction des coûts, l’amélioration de la qualité et la compétitivité des entreprises dans un contexte de mondialisation. Pendant la phase de conception, les exigences fonctionnelles et les tolérances géométriques sont issues de l'intention de conception. La modélisation des formes et le dimensionnement des produits sont aujourd'hui largement supportés par des outils de modélisation géométrique. Toutefois, les variations géométriques ne peuvent pas être évaluées en utilisant intuitivement les outils de modélisation existants. En outre, les étapes de fabrication et de mesure sont les deux principaux générateurs de variations géométriques desquels découlent les deux axiomes bien connus de l'imprécision de la fabrication et de l'incertitude de la mesure. Une vision globale des spécifications géométriques des produits (GPS) devrait considérer non seulement le processus complet de tolérancement, la modélisation des tolérances, et la représentation des tolérances mais aussi les représentations des formes géométriques et les techniques de traitement appropriées ainsi que les algorithmes associés. GeoSpelling, solution considérée comme fondement des normes ISO GPS, offre un langage non ambigu et un cadre complet pour la modélisation et la description des variations géométriques sur le cycle de vie des produits. GeoSpelling s’appuie sur un ensemble de concepts forts dont celui du "Skin Model". Cependant, l’«opérationnalisation» de GeoSpelling n'a pas été réalisée et peu de recherches ont porté sur la génération du Skin Model. Le Skin Model, vu comme un modèle de forme discrète est l'objectif principal de cette thèse. Dans ce travail, les fondamentaux de la géométrie discrète sont appliqués à GeoSpelling, les techniques de simulation de Monte Carlo et les méthodes statistiques d'analyse de formes sont développées pour simuler et analyser les "formes réalistes" prenant en compte, les contraintes géométriques dérivées de spécifications fonctionnelles et de considérations de fabrication. En plus de cartographier les concepts fondamentaux et les opérations de GeoSpelling avec la géométrie discrète, ce travail propose un modèle de forme discrète intégrant les erreurs aléatoires et systématiques approchées du second ordre. Le concept d'un Skin Model moyen et ses statistiques robustes sont également développés. Une étude de cas plus complète, basée sur un embouti de tôle en forme de croix pour lequel le processus de fabrication est simulé avec des variations stochastiques, permet d’illustrer les résultats des simulations du skin model. Les performances de la méthode sont ensuite évaluées. / The management and the control of product geometrical variations during the whole development process is an important issue for cost reduction, quality improvement and company competitiveness in the global manufacturing era. During the design phase, geometric functional requirements and tolerances are derived from the design intent. Geometric modeling tools, now largely support the modeling of product shapes and dimensions. However, permissible geometrical variations cannot be intuitively assessed using existing modeling tools. In addition, the manufacturing and measurement stages are two main geometrical variations generators according to the two well know axioms of manufacturing imprecision and measurement uncertainty. A comprehensive view of Geometrical Product Specifications should consider not only the complete tolerancing process, tolerance modeling and tolerance representation but also shape geometric representations, and suitable processing techniques and algorithms. GeoSpelling as the basis of the GPS standard enables a comprehensive modeling framework and an unambiguous language to describe geometrical variations covering the overall product life cycle thanks to a set of concepts and operations based on the fundamental concept of the “Skin Model”. However, the “operationalization” of GeoSpelling has not been successfully completed and few research studies have focused on the skin model simulation. The skin model as a discrete shape model is the main focus of this dissertation. We investigate here discrete geometry fundamentals of GeoSpelling, Monte Carlo Simulation Techniques and Statistical Shape Analysis methods to simulate and analyze “realistic shapes” when considering geometrical constraints requirements (derived from functional specifications and manufacturing considerations). In addition to mapping fundamental concepts and operations to discrete geometry one’s, the work presented here investigates a discrete shape model for both random and systematic errors when taking into account second order approximation of shapes. The concept of a mean skin model and its robust statistics are also developed. The results of the skin model simulations and visualizations are reported. By means of a case study based on a cross-shaped sheet metal part where the manufacturing process is simulated using Finite Element Analysis considering stochastic variations, the results of the skin model simulations are shown, and the performances of the method are described.
94

Estimation des moindres carrés d'une densité discrète sous contrainte de k-monotonie et bornes de risque. Application à l'estimation du nombre d'espèces dans une population. / Least-squares estimation of a discrete density under constraint of k-monotonicity and risk bounds. Application for the estimation of the number of species in a population.

Giguelay, Jade 27 September 2017 (has links)
Cette thèse est une contribution au domaine de l'estimation non-paramétrique sous contrainte de forme. Les fonctions sont discrètes et la forme considérée, appelée k-monotonie, k désignant un entier supérieur à 2, est une généralisation de la convexité. L'entier k constitue un indicateur du degré de creux d'une fonction convexe. Le manuscrit est structuré en trois parties en plus de l'introduction, de la conclusion et d'une annexe.Introduction :L'introduction comprend trois chapitres. Le premier présente un état de l'art de l'estimation de densité sous contrainte de forme. Le second est une synthèse des résultats obtenus au cours de la thèse, disponible en français et en anglais. Enfin, le Chapitre 3 regroupe quelques notations et des résultats mathématiques utilisés au cours du manuscrit.Partie I : Estimation d'une densité discrète sous contrainte de k-monotonieDeux estimateurs des moindres carrés d'une distribution discrète p* sous contrainte de k-monotonie sont proposés. Leur caractérisation est basée sur la décomposition en base de spline des suites k-monotones, et sur les propriétés de leurs primitives. Les propriétés statistiques de ces estimateurs sont étudiées. Leur qualité d'estimation, en particulier, est appréciée. Elle est mesurée en terme d'erreur quadratique, les deux estimateurs convergent à la vitesse paramétrique. Un algorithme dérivé de l'Algorithme de Réduction de Support est implémenté et disponible au R-package pkmon. Une étude sur jeux de données simulés illustre les propriétés de ces estimateurs. Ce travail a été publié dans Electronic Journal of Statistics (Giguelay, 2017).Partie II : Calculs de bornes de risqueDans le premier chapitre de la Partie II, le risque quadratique de l'estimateur des moindres carrés introduit précédemment est borné. Cette borne est adaptative en le sens qu'elle dépend d'un compromis entre la distance de p* à la frontière de l'ensemble des densités k-monotones à support fini, et de la complexité (en terme de décomposition dans la base de spline) des densités appartenant à cet ensemble qui sont suffisamment proches de p*. La méthode est basée sur une formulation variationnelle du risque proposée par Chatterjee (2014) etgénéralisée au cadre de l'estimation de densité. Par la suite, les entropies à crochet des espaces fonctionnels correspondants sont calculées afin de contrôler le supremum de processus empiriques impliqué dans l'erreur quadratique. L'optimalité de la borne de risque est ensuite discutée au regard des résultats obtenus dans le cas continu et dans le cadre de la régression.Dans le second chapitre de la Partie II, des résultats complémentaires sur les entropies à crochet pour les espaces de fonctions k-monotones sont donnés.Partie III : Estimation du nombre d'espèces dans une population et tests de k-monotonieLa dernière partie traite du problème de l'estimation du nombre d'espèces dans une population. La modélisation choisie est celle d'une distribution d'abondance commune à toutes les espèces et définie comme un mélange. La méthode proposée repose sur l'hypothèse de k-monotonie d'abondance. Cette hypothèse permet de rendre le problème de l'estimation du nombre d'espèces identifiable. Deux approches sont proposées. La première est basée sur l'estimateur des moindres carrés sous contrainte de k-monotonie, tandis que la seconde est basée sur l'estimateur empirique. Les deux estimateurs sont comparés sur une étude sur données simulées. L'estimation du nombre d'espèces étant fortement dépendante du degré de k-monotonie choisi dans le modèle, trois procédures de tests multiples sont ensuite proposées pour inférer le degré k directement sur la base des observations. Le niveau et la puissance de ces procédures sont calculés, puis évalués au moyen d'une étude sur jeux de données simulés et la méthode est appliquée sur des jeux de données réels issus de la littérature. / This thesis belongs to the field of nonparametric density estimation under shape constraint. The densities are discrete and the form is k-monotonicity, k>1, which is a generalization of convexity. The integer k is an indicator for the hollow's degree of a convex function. This thesis is composed of three parts, an introduction, a conclusion and an appendix.Introduction :The introduction is structured in three chapters. First Chapter is a state of the art of the topic of density estimation under shape constraint. The second chapter of the introduction is a synthesis of the thesis, available in French and in English. Finally Chapter 3 is a short chapter which summarizes the notations and the classical mathematical results used in the manuscript.Part I : Estimation of a discrete distribution under k-monotonicityconstraintTwo least-square estimators of a discrete distribution p* under constraint of k-monotonicity are proposed. Their characterisation is based on the decomposition on a spline basis of k-monotone sequences, and on the properties of their primitives. Their statistical properties are studied, and in particular their quality of estimation is measured in terms of the quadratic error. They are proved to converge at the parametric rate. An algorithm derived from the support reduction algorithm is implemented in the R-package pkmon. A simulation study illustrates the properties of the estimators. This piece of works, which constitutes Part I of the manuscript, has been published in ElectronicJournal of Statistics (Giguelay, 2017).Part II : Calculation of risks boundsIn the first chapter of Part II, a methodology for calculating riskbounds of the least-square estimator is given. These bounds are adaptive in that they depend on a compromise between the distance of p* on the frontier of the set of k-monotone densities with finite support, and the complexity (linked to the spline decomposition) of densities belonging to this set that are closed to p*. The methodology based on the variational formula of the risk proposed by Chatterjee (2014) is generalized to the framework of discrete k-monotone densities. Then the bracketting entropies of the relevant functionnal space are calculating, leading to control the empirical process involved in the quadratic risk. Optimality of the risk bound is discussed in comparaison with the results previously obtained in the continuous case and for the gaussian regression framework. In the second chapter of Part II, several results concerningbracketting entropies of spaces of k-monotone sequences are presented.Part III : Estimating the number of species in a population and tests of k-monotonicityThe last part deals with the problem of estimating the number ofpresent species in a given area at a given time, based on theabundances of species that have been observed. A definition of ak-monotone abundance distribution is proposed. It allows to relatethe probability of observing zero species to the truncated abundancedistribution. Two approaches are proposed. The first one is based on the Least-Squares estimator under constraint of k-monotonicity, the second oneis based on the empirical distribution. Both estimators are comparedusing a simulation study. Because the estimator of the number ofspecies depends on the value of the degree of monotonicity k, we proposea procedure for choosing this parameter, based on nested testingprocedures. The asymptotic levels and power of the testing procedureare calculated, and the behaviour of the method in practical cases isassessed on the basis of a simulation study.
95

Compression et transmission d'images avec énergie minimale application aux capteurs sans fil

Mammeri, Abdelhamid January 2010 (has links)
Un réseau de capteurs d'images sans fil (RCISF) est un réseau ad hoc formé d'un ensemble de noeuds autonomes dotés chacun d'une petite caméra, communiquant entre eux sans liaison filaire et sans l'utilisation d'une infrastructure établie, ni d'une gestion de réseau centralisée. Leur utilité semble majeure dans plusieurs domaines, notamment en médecine et en environnement. La conception d'une chaîne de compression et de transmission sans fil pour un RCISF pose de véritables défis. L'origine de ces derniers est liée principalement à la limitation des ressources des capteurs (batterie faible , capacité de traitement et mémoire limitées). L'objectif de cette thèse consiste à explorer des stratégies permettant d'améliorer l'efficacité énergétique des RCISF, notamment lors de la compression et de la transmission des images. Inéluctablement, l'application des normes usuelles telles que JPEG ou JPEG2000 est éner- givore, et limite ainsi la longévité des RCISF. Cela nécessite leur adaptation aux contraintes imposées par les RCISF. Pour cela, nous avons analysé en premier lieu, la faisabilité d'adapter JPEG au contexte où les ressources énergétiques sont très limitées. Les travaux menés sur cet aspect nous permettent de proposer trois solutions. La première solution est basée sur la propriété de compactage de l'énergie de la Transformée en Cosinus Discrète (TCD). Cette propriété permet d'éliminer la redondance dans une image sans trop altérer sa qualité, tout en gagnant en énergie. La réduction de l'énergie par l'utilisation des régions d'intérêts représente la deuxième solution explorée dans cette thèse. Finalement, nous avons proposé un schéma basé sur la compression et la transmission progressive, permettant ainsi d'avoir une idée générale sur l'image cible sans envoyer son contenu entier. En outre, pour une transmission non énergivore, nous avons opté pour la solution suivante. N'envoyer fiablement que les basses fréquences et les régions d'intérêt d'une image. Les hautes fréquences et les régions de moindre intérêt sont envoyées""infiablement"", car leur pertes n'altèrent que légèrement la qualité de l'image. Pour cela, des modèles de priorisation ont été comparés puis adaptés à nos besoins. En second lieu, nous avons étudié l'approche par ondelettes (wavelets ). Plus précisément, nous avons analysé plusieurs filtres d'ondelettes et déterminé les ondelettes les plus adéquates pour assurer une faible consommation en énergie, tout en gardant une bonne qualité de l'image reconstruite à la station de base. Pour estimer l'énergie consommée par un capteur durant chaque étape de la 'compression, un modèle mathématique est développé pour chaque transformée (TCD ou ondelette). Ces modèles, qui ne tiennent pas compte de la complexité de l'implémentation, sont basés sur le nombre d'opérations de base exécutées à chaque étape de la compression.
96

Développement d'outils de conception de Machines polyphasées à aimants utilisant l'Approche multimachine.

Scuiller, Franck 13 December 2006 (has links) (PDF)
Cette thèse a pour objet le développement d'outils de conception de machines polyphasées à pôles lisses alimentées par onduleur de tension à modulation de largeur d'impulsion. Basée sur la décomposition multimachine de la machine polyphasée en une somme de machines fictives magnétiquement découplées et mécaniquement couplées, l'approche adoptée consiste à étudier le problème de l'adaptation convertisseur-machine en reportant les objectifs sur les machines fictives. Une représentation matricielle du bobinage polyphasé, le développement d'un modèle de calcul analytique du champ et l'introduction de la Transformée de Fourier Discrète permettent d'associer aux machines fictives un bobinage et une couche d'aimants. Les objectifs et contraintes liés à la réduction des courants arasites et à l'amélioration de la qualité du couple peuvent alors être formulés directement sur des grandeurs fictives, ce qui permet de déduire des démarches de conception optimale.
97

Simulation de la propagation des ondes radio en environnement multi-trajets pour l'étude des réseaux sans fil.

De La Roche, Guillaume 12 December 2007 (has links) (PDF)
Le but de cette thèse est d'implémenter une méthode déterministe pour modéliser le canal radio des réseaux wifi. Pour cela la méthode MR-FDPF (Multi Resolution Frequency Domain ParFlow) a été adaptée, Le paramétrage et la calibration du modèle sont présentés, donnant une erreur inférieure a 4dB. Nous montrons comment prendre en compte les autres étages d'un bâtiment en développant la méthode 2.5D. De plus pour bien prendre en compte les diagrammes d'antennes des points d'accès un nouveau procédé est présenté. Enfin l'implémentation de la méthode MR-FDPF en 3D est développée ainsi que les optimisations nécessaires Enfin trois extensions sont proposées: la première concerne une extension de la méthode en milieu urbain, la deuxième présente une méthode de prédiction des évanouissements, et la troisième explique comment le modèle a été intégré dans un logiciel de planification de réseau WiFi.
98

Influence de la fissuration sur le transfert de fluides dans les structures en béton : stratégies de modélisation probabiliste et étude expérimentale

Rastiello, Giuseppe 06 May 2013 (has links) (PDF)
Une structure en béton doit assurer des fonctions structurales qui vont au delà de la simple résistance. Dans ce cadre, la fissuration du béton armé joue un rôle primordial sur la durabilité, l'étanchéité et même la sûreté des structures. La structure poreuse du béton rend naturellement possible la pénétration au cours du temps d'espèces délétères. En outre, sous l'effet des chargements mécaniques et des conditions environnementales au sens large, le béton se fissure. Les fissures constituent, elles aussi, des voies préférentielles pour la pénétration de fluides ou d'agents agressifs et ajoutent de manière significative leur contribution à la dégradation des performances structurelles. Dans la thèse une stratégie de modélisation macroscopique probabiliste du couplage entre fissuration et transferts de fluides dans les structures en béton est présentée. Le béton est modélisé comme un milieu poreux saturé d'eau tandis que la fissuration (mécanique) est modélisée au travers d'une approche numérique probabiliste tenant compte de l'hétérogénéité naturelle du matériau et des effets d'échelle qu'elle induit. L'hypothèse physique de base du modèle de fissuration est que chaque élément fini peut être considéré comme représentatif d'un volume de matière hétérogène dont le comportement est géré par son degré d'hétérogénéité, défini comme le rapport entre le volume élémentaire et un volume représentatif de l'hétérogénéité du matériau. Dans la formulation développée, les propriétés mécaniques du matériau sont considérées comme des variables aléatoires (non corrélés) distribuées dans les éléments du maillage selon des distributions statistiques validées expérimentalement. Une approche par analyse inverse permet d'accéder aux paramètres de fonctions de distribution qui, selon les hypothèses du modèle, varient en fonction de la dimension des éléments finis. Le couplage fissuration-transfert est traité de manière faible, sous l'hypothèse d'absence d'interaction entre les deux processus (à savoir que la fissuration de l'élément fini, d'origine mécanique, induit une variation locale de sa perméabilité). L'utilisation d'une loi de Poiseuille modifiée et adaptée expérimentalement selon un protocole développé dans le cadre de la thèse permet de mettre en relation une telle variation avec l'ouverture de fissure et de prendre en compte, de manière macroscopique, les principales causes d'écart entre l'écoulement idéalisé, représenté par la loi de Pouiselle, et l'écoulement dans des fissures réelles. Une approche de type Monte-Carlo permet de valider les résultats des simulations mécaniques et hydriques. Les capacités de la stratégie de modélisation proposée en termes de prédiction des débits d'eau en milieu fissuré sont explorées au travers de la simulation d'essais de perméabilité sous charge sur des éprouvettes cylindriques soumises à du fendage. Ces essais sont utilisés dans le cadre du protocole expérimentale. Une première validation à l'échelle d'un élément structurel multifissuré est presentée. Elle consiste en la simulation d'un essai (récemment proposé dans la littérature) developpé pour l'étude de l'impact de la fissuration sur les propriétés de transfert de tirants en béton armé
99

Contribution aux traitements des incertitudes : application à la métrologie des nanoparticules en phase aérosol.

Coquelin, Loïc 04 October 2013 (has links) (PDF)
Cette thèse a pour objectif de fournir aux utilisateurs de SMPS (Scanning Mobility Particle Sizer) une méthodologie pour calculer les incertitudes associées à l'estimation de la granulométrie en nombre des aérosols. Le résultat de mesure est le comptage des particules de l'aérosol en fonction du temps. Estimer la granulométrie en nombre de l'aérosol à partir des mesures CNC revient à considérer un problème inverse sous incertitudes.Une revue des modèles existants est présentée dans le premier chapitre. Le modèle physique retenu fait consensus dans le domaine d'application.Dans le deuxième chapitre, un critère pour l'estimation de la granulométrie en nombre qui couple les techniques de régularisation et de la décomposition sur une base d'ondelettes est décrit.La nouveauté des travaux présentés réside dans l'estimation de granulométries présentant à la fois des variations lentes et des variations rapides. L'approche multi-échelle que nous proposons pour la définition du nouveau critère de régularisation permet d'ajuster les poids de la régularisation sur chaque échelle du signal. La méthode est alors comparée avec la régularisation classique. Les résultats montrent que les estimations proposées par la nouvelle méthode sont meilleures (au sens du MSE) que les estimations classiques.Le dernier chapitre de cette thèse traite de la propagation de l'incertitude à travers le modèle d'inversiondes données. C'est une première dans le domaine d'application car aucune incertitude n'est associée actuellement au résultat de mesure. Contrairement à l'approche classique qui utilise un modèle fixe pour l'inversion en faisant porter l'incertitude sur les entrées, nous proposons d'utiliser un modèle d'inversion aléatoire (tirage Monte-Carlo) afin d'intégrer les erreurs de modèle. Une estimation moyenne de la granulométrie en nombre de l'aérosol et une incertitude associée sous forme d'une région de confiance à 95 % est finalement présentée sur quelques mesures réelles.
100

« Resolution Search » et problèmes d’optimisation discrète

Posta, Marius 02 1900 (has links)
Thèse réalisée en cotutelle avec l'Université d'Avignon. / Les problèmes d’optimisation discrète sont pour beaucoup difficiles à résoudre, de par leur nature combinatoire. Citons par exemple les problèmes de programmation linéaire en nombres entiers. Une approche couramment employée pour les résoudre exactement est l’approche de Séparation et Évaluation Progressive. Une approche différente appelée « Resolution Search » a été proposée par Chvátal en 1997 pour résoudre exactement des problèmes d’optimisation à variables 0-1, mais elle reste mal connue et n’a été que peu appliquée depuis. Cette thèse tente de remédier à cela, avec un succès partiel. Une première contribution consiste en la généralisation de Resolution Search à tout problème d’optimisation discrète, tout en introduisant de nouveaux concepts et définitions. Ensuite, afin de confirmer l’intérêt de cette approche, nous avons essayé de l’appliquer en pratique pour résoudre efficacement des problèmes bien connus. Bien que notre recherche n’ait pas abouti sur ce point, elle nous a amené à de nouvelles méthodes pour résoudre exactement les problèmes d’affectation généralisée et de localisation simple. Après avoir présenté ces méthodes, la thèse conclut avec un bilan et des perspectives sur l’application pratique de Resolution Search. / The combinatorial nature of discrete optimization problems often makes them diffi- cult to solve. Consider for instance integer linear programming problems, which are commonly solved using a Branch-and-Bound approach. An alternative approach, Resolution Search, was proposed by Chvátal in 1997 for solving 0-1 optimization problems, but remains little known to this day and as such has seen few practical applications. This thesis attempts to remedy this state of affairs, with partial success. Its first contribution consists in the generalization of Resolution Search to any discrete optimization problem, while introducing new definitions and concepts. Next, we tried to validate this approach by attempting to solve well-known problems efficiently with it. Although our research did not succeed in this respect, it lead us to new methods for solving the generalized assignment and uncapacitated facility location problems. After presenting these methods, this thesis concludes with a summary of our attempts at practical application of Resolution Search, along with further perspectives on this matter.

Page generated in 0.0546 seconds