• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1365
  • 600
  • 162
  • 4
  • 2
  • 1
  • Tagged with
  • 2105
  • 768
  • 461
  • 296
  • 296
  • 237
  • 226
  • 205
  • 200
  • 196
  • 195
  • 184
  • 160
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Graph based approaches for image segmentation and object tracking / Méthodes de graphe pour la segmentation d'images et le suivi d'objets dynamiques

Wang, Xiaofang 27 March 2015 (has links)
Cette thèse est proposée en deux parties. Une première partie se concentre sur la segmentation d’image. C’est en effet un problème fondamental pour la vision par ordinateur. En particulier, la segmentation non supervisée d’images est un élément important dans de nombreux algorithmes de haut niveau et de systèmes d’application. Dans cette thèse, nous proposons trois méthodes qui utilisent la segmentation d’images se basant sur différentes méthodes de graphes qui se révèlent être des outils puissants permettant de résoudre ces problèmes. Nous proposons dans un premier temps de développer une nouvelle méthode originale de construction de graphe. Nous analysons également différentes méthodes similaires ainsi que l’influence de l’utilisation de divers descripteurs. Le type de graphe proposé, appelé graphe local/global, encode de manière adaptative les informations sur la structure locale et globale de l’image. De plus, nous réalisons un groupement global en utilisant une représentation parcimonieuse des caractéristiques des superpixels sur le dictionnaire de toutes les caractéristiques en résolvant un problème de minimisation l0. De nombreuses expériences sont menées par la suite sur la base de données <Berkeley Segmentation>, et la méthode proposée est comparée avec des algorithmes classiques de segmentation. Les résultats démontrent que notre méthode peut générer des partitions visuellement significatives, mais aussi que des résultats quantitatifs très compétitifs sont obtenus en comparaison des algorithmes usuels. Dans un deuxième temps, nous proposons de travailler sur une méthode reposant sur un graphe d’affinité discriminant, qui joue un rôle essentiel dans la segmentation d’image. Un nouveau descripteur, appelé patch pondéré par couleur, est développé pour calculer le poids des arcs du graphe d’affinité. Cette nouvelle fonctionnalité est en mesure d’intégrer simultanément l’information sur la couleur et le voisinage en représentant les pixels avec des patchs de couleur. De plus, nous affectons à chaque pixel une pondération à la fois local et globale de manière adaptative afin d’atténuer l’effet trop lisse lié à l’utilisation de patchs. Des expériences approfondies montrent que notre méthode est compétitive par rapport aux autres méthodes standards à partir de plusieurs paramètres d’évaluation. Finalement, nous proposons une méthode qui combine superpixels, représentation parcimonieuse, et une nouvelle caractéristisation de mi-niveau pour décrire les superpixels. Le nouvelle caractérisation de mi-niveau contient non seulement les mêmes informations que les caractéristiques initiales de bas niveau, mais contient également des informations contextuelles supplémentaires. Nous validons la caractéristisation de mi-niveau proposée sur l’ensemble de données MSRC et les résultats de segmentation montrent des améliorations à la fois qualitatives et quantitatives par rapport aux autres méthodes standards. Une deuxième partie se concentre sur le suivi d’objets multiples. C’est un domaine de recherche très actif, qui est d’une importance majeure pour un grand nombre d’applications, par exemple la vidéo-surveillance de piétons ou de véhicules pour des raisons de sécurité ou l’identification de motifs de mouvements animaliers. / Image segmentation is a fundamental problem in computer vision. In particular, unsupervised image segmentation is an important component in many high-level algorithms and practical vision systems. In this dissertation, we propose three methods that approach image segmentation from different angles of graph based methods and are proved powerful to address these problems. Our first method develops an original graph construction method. We also analyze different types of graph construction method as well as the influence of various feature descriptors. The proposed graph, called a local/global graph, encodes adaptively the local and global image structure information. In addition, we realize global grouping using a sparse representation of superpixels’ features over the dictionary of all features by solving a l0-minimization problem. Extensive experiments are conducted on the Berkeley Segmentation Database, and the proposed method is compared with classical benchmark algorithms. The results demonstrate that our method can generate visually meaningful partitions, but also that very competitive quantitative results are achieved compared with state-of-the-art algorithms. Our second method derives a discriminative affinity graph that plays an essential role in graph-based image segmentation. A new feature descriptor, called weighted color patch, is developed to compute the weight of edges in an affinity graph. This new feature is able to incorporate both color and neighborhood information by representing pixels with color patches. Furthermore, we assign both local and global weights adaptively for each pixel in a patch in order to alleviate the over-smooth effect of using patches. The extensive experiments show that our method is competitive compared to the other standard methods with multiple evaluation metrics. The third approach combines superpixels, sparse representation, and a new midlevel feature to describe superpixels. The new mid-level feature not only carries the same information as the initial low-level features, but also carries additional contextual cue. We validate the proposed mid-level feature framework on the MSRC dataset, and the segmented results show improvements from both qualitative and quantitative viewpoints compared with other state-of-the-art methods. Multi-target tracking is an intensively studied area of research and is valuable for a large amount of applications, e.g. video surveillance of pedestrians or vehicles motions for sake of security, or identification of the motion pattern of animals or biological/synthetic particles to infer information about the underlying mechanisms. We propose a detect-then-track framework to track massive colloids’ motion paths in active suspension system. First, a region based level set method is adopted to segment all colloids from long-term videos subject to intensity inhomogeneity. Moreover, the circular Hough transform further refines the segmentation to obtain colloid individually. Second, we propose to recover all colloids’ trajectories simultaneously, which is a global optimal problem that can be solved efficiently with optimal algorithms based on min-cost/max flow. We evaluate the proposed framework on a real benchmark with annotations on 9 different videos. Extensive experiments show that the proposed framework outperforms standard methods with large margin.
302

Caractérisation de la performance et validation des méthodes de dépistage des résidus d’antibiotiques dans les denrées alimentaires / Performance characterization and validation of screening methods for antibiotic residues in food of animal origin

Gaudin, Valérie 08 June 2016 (has links)
L’usage des antibiotiques en médecine vétérinaire peut entrainer la présence de résidus d’antibiotiques dans les denrées alimentaires d’origine animale. Ces résidus peuvent présenter des risques (eg. toxicologiques, allergies, antibiorésistance) pour la santé du consommateur. La fixation de limites réglementaires pour ces résidus et un contrôle adapté sont primordiaux pour garantir la sécurité des consommateurs. Les méthodes de dépistage sont utilisées en première intention et représentent donc l’étape critique du contrôle. La validation d’une méthode va permettre de garantir qu’elle est adaptée à l’usage souhaité, aux attentes réglementaires et attester de sa performance. La validation constitue une exigence normative (ie. ISO 17025) et réglementaire (ie. Décision européenne 2002/657/CE). Dans une première partie, la diversité des méthodes de dépistage est présentée. Les méthodes dites conventionnelles de type microbiologique ou immunologique, développées dans les années 1980, sont toujours couramment utilisées, en raison de leur faible coût. Des méthodes innovantes, appelées biocapteurs, sont constituées d’un biorécepteur (eg. anticorps, aptamère) et d’un transducteur (eg. électrochimique, optique, massique, calorimétrique) pour la détection du signal. Ces méthodes sont en développement permanent et les progrès technologiques permettent de développer des méthodes de plus en plus sensibles, portables, parfois économiques. Dans une deuxième partie, différentes approches de validation, sous forme de réglementations, de lignes directrices ou de normes, sont discutées. La validation d’une méthode comporte deux étapes : tout d’abord la caractérisation des performances, puis la validation proprement dite par rapport à des critères préétablis. Les approches peuvent être absolue (une seule méthode) ou relative (comparaison de méthodes), globale (combinaison de plusieurs caractéristiques en une seule) ou critère par critère. L’objet de cette thèse est de comparer ces différentes approches de validation, afin de statuer sur leur application possible aux différentes méthodes de dépistage des résidus et déterminer si leurs conclusions sont équivalentes ou non. Différentes approches ont été testées en les appliquant pour valider des méthodes de dépistage de différents types : conventionnelles microbiologique et immunologique, innovantes par biocapteurs optiques. L’approche par comparaison de méthodes n’est pas adaptée aux méthodes de dépistage des résidus d’antibiotiques. En effet, le choix de la méthode de référence est compliqué car il n’existe pas de méthodes normalisées. De plus, les méthodes de référence choisies ont souvent des principes très différents de la méthode alternative et sont le plus souvent moins performantes. L’approche globale, telle que la Probabilité de détection (POD) et le profil d’exactitude sont applicables aux méthodes de dépistage. Ces approches récentes sont de plus en plus utilisées dans d’autres domaines et présentent un intérêt à être développées pour les méthodes de dépistage des résidus d’antibiotiques. Enfin, l’approche critère par critère de la décision européenne 20002/657/CE et du guide de validation européen de 2010, couramment appliquée aux résidus d’antibiotiques, comporte une caractéristique majeure et une avancée dans la validation qui est la capacité de détection (CCβ). En conclusion, les méthodes de dépistage sont en constante évolution, grâce au développement des biocapteurs. L’amélioration de leurs performances permet de répondre de mieux en mieux à la problématique du contrôle des résidus d’antibiotiques dans les denrées alimentaires. La validation des méthodes est primordiale pour garantir un contrôle efficace. Nous avons pu observer l’évolution de la validation ces 20 dernières années, à travers les travaux de cette thèse. Cette évolution doit continuer et des perspectives d’évolution des référentiels de validation sont présentées dans cette thèse. / The use of antibiotic residues for animal treatment could lead to the presence of antibiotic residues in food of animal origin. The consumer could face some risks (eg. toxicological, allergies, bacterial resistance), due to these residues. The setting of regulatory limits or these residues and an adapted control of food products are thus essential to guarantee the safety of the consumers. Screening methods are used in first intention and represent the critical stage of the control. The validation of a method will guarantee that the method if fitted for purpose, adapted to the regulatory expectations and give evidence of its performance. The validation is mandatory due to international standards (ie. ISO 17025) and regulatory requirements (ie. European decision 2002/657/EC). In a first part, the diversity of screening methods is presented. The conventional methods, microbiological or immunological types, developed in the 1980s, are always used, because of their moderate cost. Innovative methods, called biosensors, consist of a bioreceptor (eg. antibody, aptamer) and a transducer (eg. electrochemical, optical, mass sensitive, calorimetric) for the detection of the signal. These methods are in continuous development and the technological progress allows developing more, more sensitive, portable and sometimes economic methods. In a second part, various approaches of validation, in the form of regulations, guidelines or standards, are discussed. The validation of a method contains two stages: first of all the characterization of the performances, then the validation itself with regard to preestablished criteria. The approaches can be absolute (a single method) or relative (comparison of methods), global (combination of several characteristics in only one) or criterion by criterion. The object of this thesis is to compare these various approaches of validation, to conclude on their potential application for different residue screening methods and to determine if their conclusions are equivalent or not. Various approaches have been tested by applying them to the validation of screening methods of various types: conventional methods (microbiological and immunological) and innovative optical biosensors. The approach by comparison of methods is not fitted to screening methods for antibiotic residues. Indeed, the choice of the reference method is complicated because there are no standardized methods. Furthermore, the chosen reference methods often have very different principles from the alternative method and are less sensitive most of the time. The global approach, such as the Probability of detection (POD) and the accuracy profile are applicable to the screening methods. These recent approaches are more and more used in other fields and present an interest to be developed for the screening methods for antibiotic residues. Finally, the criterion by criterion approach of the European decision 20002/657/EC and the European guideline for the validation of screening methods of 2010, usually applied to the screening methods for antibiotic residues, introduced a major characteristic and an improvement in the validation which is the detection capability (CCß). In conclusion, the screening methods are constantly evolving, thanks to the development of new biosensors. The improvement of their performances allows answering better and better to the issue of the control of antibiotic residues in foodstuffs. The validation of the methods is essential to guarantee an effective control. We were able to observe the evolution of the validation these last 20 years, through the works of this thesis. This evolution has to continue and perspectives of evolution of guidelines, regulations and standards of validation are presented in this thesis.
303

Simulations des effets des bras spiraux sur la dynamique stellaire dans la Voie Lactée / Simulation of the effects of the spiral arms on the stellar within the Milky Way

Faure, Carole 29 September 2014 (has links)
Dans un disque axisymétrique en équilibre, les vitesses galactocentriques radiales et verticales sont théoriquement nulles. Pourtant, de grands relevés spectroscopiques ont révélé que les étoiles du disque de la Voie Lactée sont animées de vitesses non nulles dans les directions radiale et verticale. Les structures en vitesse radiale sont généralement associées aux composantes non-axisymétriques du potentiel. Celles en vitesse verticale non nulle sont souvent associées à des excitations externes. Nous avons montré que la réponse stellaire à une perturbation spirale produit un déplacement radial et des mouvements verticaux non nuls. La structure du champ moyen de vitesse obtenue est cohérente avec les observations. De plus un modèle simple reposant sur une linéarisation des équations d'Euler reproduit naturellement ce résultat. Nous concluons que ces structures observées pourraient aussi être engendrées par des perturbations internes non-axisymétriques. / In an equilibrium axisymmetric galactic disc, the mean galactocentric radial and vertical velocities are expected to be zero everywhere. Recent spectroscopic surveys have however shown that stars of the Milky Way disc exhibit non-zero mean velocities outside of the Galactic plane in both the radial and vertical velocity components. While radial velocity structures have already often been assumed to be linked with non-axisymmetric components of the potential, non-zero vertical velocity structures are usually rather attributed to excitations by external sources. We show that the stellar response to a spiral perturbation induces both a radial velocity flow and non-zero vertical motions. The resulting structure of the mean velocity field is qualitatively similar to the observations. Such a pattern also emerges from an analytic toy model based on linearized Euler equations. In conclusion, non-axisymmetric internal perturbations can also be the source of the observed mean velocity patterns.
304

Dans l'atelier de Claude Debussy. Processus créateur et méthodes de composition dans les esquisses des dernières oeuvres,1915-1917 / From Debussy’s Workshop. Creative Process and Methods of Composition in the Sketches of the Late Works, 1915-1917

Delecluse, Francois 02 October 2018 (has links)
L’objet de cette thèse consiste à décrire le processus et les techniques de composition utilisées par Claude Debussy à la fin de sa vie. À partir d’une réflexion préliminaire sur la situation et les conditions des pratiques compositionnelles de Debussy, plusieurs éléments du processus créateur et un certain nombre de techniques de composition peuvent être illustrés, en se fondant sur une analyse des esquisses qui conservent la trace du travail créateur. Ces dernières prennent la forme de ratures, interprétables grâce aux outils que fournit la critique génétique. Le corpus considéré embrasse plusieurs avant-textes d’œuvres composées durant l’été 1915, En blanc et noir pour deux pianos, les Douze études pour piano et la Sonate pour violoncelle piano, auxquelles s’ajoute la Sonate pour violon et piano, composée entre 1916 et 1917. Les documents les plus intéressants des dossiers génétiques, porteurs de traces abondantes du processus créateur, ont fait l’objet de transcriptions diplomatiques. Ces dernières ne constituent pas des facsimilés normalisés, mais offrent une représentation du manuscrit dans sa dimension à la fois spatiale et temporelle, tout en le reliant au devenir de l’œuvre. Ces transcriptions sont au fondement des analyses par lesquelles sont envisagés trois grands angles d’approche que la lecture des esquisses a fait émerger : la genèse des idées, les techniques de composition appliquées au matériau et la gestation de la forme musicale. La notion d’idée musicale permet d’explorer d’abord la constitution du projet musical, souvent cristallisé autour d’un élément extra-musical, puis le rapport entre l’invention mélodique et le processus de composition et, enfin, la construction des phrases musicales. Les techniques de composition mises en lumière se structurent par couples complémentaires : l’ellipse et l’interpolation, l’harmonie et le rythme, la duplication et la variation. La forme musicale est abordée selon deux problèmes apparents dans les esquisses : premièrement, la relation entre les fonctions formelles et leur mobilité, propre à l’œuvre in statu nascendi ; deuxièmement, la difficulté spécifique des zones conclusives. Cette « visite » de l’atelier de Debussy permet de faire l’hypothèse d’une méthode de composition reposant sur les catégories dégagées par l’analyse que d’autres travaux pourront étayer, nuancer ou préciser. / This dissertation describes the compositional process and the techniques used by Claude Debussy at the end of his life. Starting from a preliminary thought on the status of Debussy’s compositional practices, several features of the creative process and some compositional techniques may be highlighted, by analysing the sketches which record the traces of the creative work. These traces appear as crossings-out, which can be interpreted with the tools given by the genetic criticism. The corpus includes several avant-textes from works composed during the summer 1915, En blanc et noir for two pianos, the etudes for the piano, and the cello sonata plus the violin sonata, composed between 1916 and 1917. From the most pertinent documents, that are part of the genetic files and carry many traces of the creative process, diplomatic transcriptions have been realised. They do not constitute facsimile, nor normalised transcriptions; they rather represent the manuscript in terms of time and space, linking it also to the achieved work. These transcriptions form the basis of the analysis through which three perspectives are considered: the genesis of the ideas, the compositional techniques applied to the material, and the gestation of the musical shape. The notion of musical idea allows exploring first the constitution of a musical project, often focused on an extra-musical element, then the relationship between the melodic invention and the compositional process, and, lastly, the building of musical phrases. The compositional techniques go in complementary pairs: the ellipse and the interpolation, the harmony and the rhythm, the duplication and the variation. The musical shape is approached from two points of view: first, the relationship between the formal functions and their mobility, peculiar to the work in progress; second, the specific difficulty located in the conclusion areas. This ‘guide tour’ from Debussy’s studio leads up to hypothesise that there is a compositional method, relying on the categories identified by the analysis, and that further studies can support, moderate and precise.
305

Apport des méthodes cinétiques à la simulation d'écoulements dans les milieux poreux / Contribution of kinetic methods for the simulation of flows in porous media

Izarra, Léonard De 13 January 2012 (has links)
Les méthodes de Boltzmann sur réseaux (LBM) ont été appliquées avec beaucoup de succès aux écoulements hydrodynamiques en milieux poreux. Cependant, la limitation de ces méthodes aux écoulements hydrodynamiques et isothermes, les rendent insuffisantes pour simuler des écoulements de gaz dans des milieux micro-poreux. Dans ce cas, il est en effet fréquent que le libre parcours moyen des molécules du gaz, soit du même ordre de grandeur que la taille des pores dans lesquels il s’écoule. De tels écoulements ne seront alors plus en régime hydrodynamique, mais dans des régimes qualifiés de glissement et de transitionnel ; régimes pour lesquels les LBM standards ne sont plus valides. D’autre part, le caractère isotherme des LBM les rendent inutilisables, par exemple dans le cas où le gaz subit une détente à travers le milieu. Il est nécessaire, pour décrire de tels écoulements et phénomènes, de se placer au niveau cinétique. La démarche proposée repose sur la décomposition de la fonction de distribution sur la base des polynômes d’Hermite et l’emploi de la quadrature de Gauss-Hermite associée à cette projection. L’aspect systématique de ce développement amène naturellement à considérer divers ordres d’approximation de l’équation de Boltzmann-BGK sous diverses quadratures. Il résulte alors de ces différentes approximations toute une famille de discrétisations de l’équation de Boltzmann-BGK, dont les LBM classiques ne sont qu’un membre. La détermination de l’approximation la plus adaptée est réalisée par analyse systématique des résultats obtenus aux différents ordres d’approximation. Ces méthodes sont testées avec succès dans des cas modèles. / The lattice Boltzmann method (LBM) have been applied very successfully to hydrodynamic flows in porous media. However, the limitation of these methods to isothermal and hydrodynamic flows, make them inadequate to simulate gas flows in micro-porous media. Indeed, in these conditions, the mean free path of the molecules could be of the same magnitude order as the pore size in which gas flows. Such flows will not be in hydrodynamic regime, but in regimes qualified of, slip or transitional ; for which the LBM are no longer valid. On the other hand, the isothermal character of LBM make them unusable, for example, in the case where the gas undergoes expansion through the media. It is then necessary, to take the kinetic point of view to describe such flows and phenomena. The proposed approach is based on the decomposition of the distribution function on the Hermite polynomials basis and the use of Gauss-Hermite quadrature associated with this projection. The systematic nature of this development naturally leads to consider different order of approximation of the Boltzmann-BGK equation in various quadratures. It then follows from these various approximations, a family of discretizations of the Boltzmann-BGK equation, whose classical LBM are a member. Determining the most suitable approximation is achieved by systematic analysis of the results obtained with different approximation orders. These methods are successfully tested in model cases.
306

Quantification des processus responsables de l’accélération des glaciers émissaires par méthodes inverses / Quantifying the processes at the root of the observed acceleration of icestreams from inverse methods

Mosbeux, Cyrille 05 December 2016 (has links)
Le réchauffement climatique actuel a une conséquence directe sur la perte de masse des calottes polaires. Reproduire les mécanismes responsables de cette perte de masse et prévoir la contribution des calottes à l’élévation du niveau des océans d’ici la fin du siècle est dès lors l’un des défis majeurs de la modélisation de l’écoulement des calottes polaires. Les modèles d’écoulement permettent de réaliser de telles prévisions mais ces simulations, à court terme, sont très sensibles à leur état initial habituellement construit à partir d’observations de terrain. Malheureusement, certains paramètres comme le frottement entre la glace et le socle rocheux ainsi que la topographie basale sont souvent méconnus à cause du manque d’observations directes ou des larges incertitudes liées à ces observations. Améliorer la connaissance de ces deux paramètres à la fois pour le Groenland et l’Antarctique est donc un pré-requis pour réaliser des projections fiables. Les méthodes d’assimilation de données et les méthodes inverses permettent alors de surmonter ce problème.Cette thèse présente deux algorithmes d’assimilation de données permettant de mieux contraindre simultanément le frottement basal et la topographie basale à partir d’observations de surface. L’un des algorithmes est entièrement basé sur la méthode adjointe tandis que le second se base sur une méthode cyclique couplant l’inversion du frottement basal avec la méthode adjointe et l’inversion de la géométrie basale à l’aide de la relaxation newtonienne. Les deux algorithmes ont été implémentés dans le modèle d’écoulement de glace éléments finis Elmer/Ice et testés dans une expérience jumelle qui montre une nette amélioration de la connaissance des deux paramètres recherchés. L’application des deux algorithmes à la région de la Terre de Wilkes réduit l’incertitude liée aux conditions basales en permettant, par exemple, d’obtenir plus de détails sur la géométrie basale en comparaison avec les modèles numériques de terrain habituels. De plus la reconstruction simultanée du frottement et de la géométrie basale permet de réduire significativement les anomalies de divergence de flux habituellement obtenues lors de l’inversion du frottement seul. Nous étudions finalement l’impact des conditions basales ainsi inversées sur des simulations pronostiques afin de comparer la capacité des deux algorithmes à mieux contraindre la contribution future des calottes polaires à l’augmentation du niveau des océans. / The current global warming has direct consequences on ice-sheet mass loss. Reproducing the responsible mechanisms and forecasting the potential ice-sheets contribution to 21st century sea level rise is one of the major challenges in ice-sheet and ice flow modelling. Ice flow models are now routinely used to forecast the potential ice-sheets contribution to sea level rise. Such short term simulations are very sensitive to model initial state, usually build from field observations. However, some parameters, such as the basal friction between icesheet and bedrock as well as the basal topography, are still badly known because of a lake of direct observations or large uncertainty on measurements. Improving the knowledge of these two parameters for Greenland and Antarctica is therefore a prerequisite for making reliable projections. Data assimilation and inverse methods have been developed in order to overcome this problem. This thesis presents two different assimilation algorithms to better constrain simulaneouslybasal friction and bedrock elevation parameters using surface observations. The first algorithm is entierly based on adjoint method while the second algorithm uses a cycling method coupling inversion of basal friction with adjoint method and inversion of bedrock topography with nudging method. Both algorithms have been implemented in the finite element ice sheet and ice flow model Elmer/Ice and tested in a twin experiment showing a clear improvement of both parameters knowledge. The application of both algorithms to regions such as the Wilkes Land in Antartica reduces the uncertainty on basal conditions, for instance providing more details to the bedrock geometry when compared to usual DEM. Moreover,the reconstruction of both bedrock elevation and basal friction significantly decreases ice flux divergence anomalies when compared to classical methods where only friction is inversed. We finaly sudy the impact of such inversion on pronostic simulation in order to compare the efficiency of the two algorithms to better constrain future ice-sheet contribution to sea level rise.
307

Initiation et propagation de la fracturation en milieu anisotrope avec prise en compte des couplages hydro-mécaniques / Initiation and propagation of fractures in anisotropic media, takin into account Hydro-Mechanical couplings

Moosavi, Sourena 07 December 2018 (has links)
L’accent mis actuellement par l’industrie pétrolière sur l’augmentation de l’efficacité des réservoirs, ainsi que sur l’intérêt grandissant pour l’exploitation d’autres sources d’énergie enfouies profondément sous terre a suscité un regain d’intérêt pour la mécanique de la fracturation des roches en général et la fracturation hydraulique en particulier. La fracturation hydraulique, appelée de manière informelle “fracturation”, est un processus qui consiste généralement à injecter de l’eau, sous haute pression dans une formation rocheuse via le puits. Ce processus vise à créer de nouvelles fractures dans la roche et à augmenter la taille, l’étendue et la connectivité des fractures existantes. Des avancées récentes dans la modélisation et la simulation de fractures hydrauliques ont eu lieu, au confluent de facteurs qui incluent une activité accrue, une tendance vers une complexité accrue et une compréhension approfondie du modèle mathématique sous-jacent et de ses défis intrinsèques. Cependant, certaines des caractéristiques très importantes de ce processus ont été négligées. Parmi les caractéristiques négligées, on peut citer l’incapacité de la grande majorité des modèles existants de s’attaquer à la fois à la propagation de fractures hydrauliques dans la roche intacte, à l’inititation de nouvelles fractures ainsi qu’à la réactivation des fractures existantes. Une autre caractéristique qui a été ignorée est sa dimension intrinsèque en trois dimensions, négligée par la plupart des modèles actuallement proposés. Parmi tous les différents types de méthodes numériques développées pour évaluer le mécanisme du phénomène de fracturation, très peu sont capables de représenter la totalité des mecanismes mis en jeu. Dans la présente thèse, l’initiation et la propagation de fissures induites par les fluides dans des roches isotropes transversales sont simulées à l’aide d’un modèle hydromécanique (HM) couplé basé la méthode XFEM (eXtended Finite Element Method) et un modèle de zones cohésives. Le HM-XFEM développé dans cette thèse est une extension des modèles précédemment développés dans l’équipe hydro-géomécanique multi échelle de GeoRessources. L’accent a été porté plus particulièrement sur la prise en compte de l’anisotropie du milieu et sur son influence sur le chemin de propagation. Ce dernier est défini à partir du le concept d’angle de bifurcation introduit auparavant dans la littérature. En complément des développements réalisés dans le modèle HM-XFEM, effort a été fait pour mieux comprendre l’initiation de la fissure en utilisant la méthode des éléments discrets (DEM) à l’aide du logiciel open source YADE Open DEM. La nature différente des deux méthodes, DEM étant une méthode discontinue et XFEM, une méthode continue, révèle les potentiels des deux méthodes et permet de comparer correctement la méthode qui convient le mieux au problème à résoudre, compte tenu des objectifs de la conception / Current emphasis in petroleom industry toward increasing the reservoirs efficiency, along with the interest in exploitation of other sources of energy buried deep underground created a renewed interest in rock fracture mechanics in general and hydraulic fracturing specifically. Hydraulic fracturing, informally referred to as “fracking,” is an oil and gas well development process that typically involves injecting water, under high pressure into a bedrock formation via the well. This process is intended to create new fractures in the rock as well as increase the size, extent, and connectivity of existing fractures. However some of the very important features of this process have been overlooked. Among these neglected features one can name of inability of the vast majority of existing models to tackle at once the propagation of hydraulic fractures in fractured rocks-masses where a competing dipole mechanism exists between fracturing of the intact rock and re-activation of exiting fracture networks. Another feature that has been ignored is its intrinsically three dimensionality which is neglected by most models. Among all different types of numerical methods that have been developed in order to assess the mechanism of fracturing phenomenon very few, if any, can handle the entire complexity of such process. In the present thesis, fluid-driven crack initiation and propagation in transverse isotropic rocks is simulated using a coupled model comprising of eXtended Finite Element Method (XFEM) and cohesive zone models. The HM XFEM developed in this thesis is an extension to previous models developed introduced in multiscale hydrogeomechanics team of GeoRessources. An emphasis is put on considering the anisotropic nature of the medium and on studying its influence on the propagation path. This latter is investigated by the concept of bifurcation angle previously introduced in literature. In complementary efforts was made to have a better understanding of crack initiation in transversely isotropic media, we also used the discrete element method (DEM) in order to gain insights into the mechanisms at stake. Both methods exhibit their advantages and disadvantages in modeling fracturing phenomenon. The different nature of two methods, DEM being a discontinuous and XFEM being a continuous method, reveals potentials of both methods and renders a good comparison of which method suits the problem in hand the best, considering the the objectives of the design
308

Analyse et développement d’un schéma de discrétisation numérique de l’équation du transport des neutrons en géométrie tridimensionnelle / Analysis and development of a numerical discretization scheme of the neutron transport equation in three-dimensional geometries

Naymeh, Laurent 05 December 2013 (has links)
La méthode des caractéristiques (méthode MOC) est une méthode efficace et flexible de résolution de l’équation de transport. Cette approche a été considérablement utilisée dans les calculs en deux dimensions car elle permet de traiter des géométries complexes et elle possède un bon ratio temps/précision. Cependant, malgré les améliorations des moyens de stockage et de calcul dans le secteur informatique, un calcul direct en trois dimensions reste encore impossible.Dans ce travail, nous introduisons et analysons plusieurs modifications de la méthode MOC dans le but de réduire la quantité requise de mémoire ainsi que la charge de calcul. Ce document se penche sur l’étude d’une approximation spatiale aux ordres supérieurs pour le flux volumique. En se démarquant de la méthode classique (la méthode MOC constante par morceaux) l’augmentation des détails de la représentation du flux volumique peut permettre de réduire la taille des mailles tout en gardant une bonne précision. Les résultats numériques effectués sur des benchmarks confirment les gains en ratio temps/précision. En ce qui concerne le stockage mémoire, le nombre de trajectoires influe sur la quantité de données à stocker. De ce fait, nous explorons une méthode de traçage par traceurs locaux définis par sous domaines possédant la même géométrie. Les redondances présentes dans les coeurs des réacteurs nucléaires promettent une réduction importante de la quantité de mémoire requise. Deux méthodes de traçage ont été étudiées : la première est une méthode de traçage non-uniforme prenant en compte les discontinuités dans la maille et la deuxième est une méthode fondée sur des trajectoires périodiques et continues d’une maille à l’autre. / The method of characteristics is a flexible and efficient method solving the transport equation. It has been largely used in two dimension calculations because it enables to study complex geometries and it has a good time/precision ratio. However, despite agreat improvement in storage capacities and computing power, a direct three dimension calculation is still unreachable.In the following work, we introduce and analyze several modifications of the methodof characteristics (MOC) in order to reduce the memory usage as well as calculation burden. This document aims at studying a higher order spatial approximation for theflux. It steps away from the classical method (constant MOC) by introducing an increaseof details of the representation of the flux, which may enable to reduce the size of thegrid while keeping a good precision. Numerical results tested on benchmarks show animprovement of time/precision ratio.Regarding the memory storage, the number of trajectories has an influence on the amount of data to be stored. Hence, we study a tracking method based on local tracks defined for all subdomains having the same geometry. Redundancies happening in a reactor core suggest an important reduction of required memory. Two tracking methods have been studied, the first one being a non-uniform tracking method including subdomain discontinuities and the other being a method based on periodic and continuous trajectories for a subdomain to another.
309

Opto-Electrochemical Methods for Imaging the Reactivity of Individual Nanoparticles / Méthodes Opto-Electrochimiques pour Imager la Réactivité de Nanoparticules Individuelles

Brasiliense, Vitor 11 December 2017 (has links)
Dans ce travail, plusieurs méthodes opto-électrochimiques ont été développées et appliquées à l’étude de systèmes chimiques à l’échelle de l’objet individuel. Du coté optique,l’holographie et la spectroscopie visible ont été associées à la super localisation pour pousser l’applicabilité de ces techniques au-delà de la limité imposée par la diffraction.Des techniques nanoélectrochimiques, comme les impacts stochastiques et l’utilisation de nanoelectrodes, complètent cette étude en renseignant sur la réactivité et sur les étapes de transfert d’électrons. Ces études couplées caractérisent ainsi les phénomènes chimiques de façon bien plus complète. Il est montré que cette caractérisation à la fois chimique et optique est en fait essentielle pour pouvoir comprendre le fonctionnement des systèmes nano chimiques in loco.En démarrant par des réactions modèle, comme l’oxydation de l’argent, la complexité des systèmes étudiés est progressivement augmentée, éclairant des phénomènes de transport,d’agrégation, ainsi que des transformation redox et de catalyse sur des matériaux complexes et mal définis tel que les oxydes de métaux de transition (cobalt) / A number of coupled optical and electrochemical single particle techniques are employed for investigating a variety of chemical systems at the level of individual objects.On the optical side, holography and visible spectroscopy are imbued with superlocalization principles pushing the applicability of these techniques down to sub-diffraction levels. Nanoelectrochemical techniques such as stochastic impacts and nanoelectrodes are used to complement this information, providing a much more complete characterization of the phenomena.It is shown that this dual optical and electrochemical single particle characterizationis actually crucial to understand complex nano chemical systems in loco. Starting frommodel reactions, such as Ag oxidation, the complexity of the studied phenomena and systems is progressively increased, as light is shed on transport phenomena, aggregation,as well as redox transformations and catalysis on complicated materials such as ill-defined transition metal (cobalt) oxides
310

Modeling wave propagation in nonlinear solids with slow dynamics / Modélisation de la propagation d'ondes dans les solides non linéaires à dynamique lente

Berjamin, Harold 29 November 2018 (has links)
Les géomatériaux tels les roches et le béton ont la particularité de s’amollir sous chargement dynamique, c.-à-d. que la vitesse du son diminue avec l’amplitude de forçage. Afin de reproduire ce comportement, un modèle de milieu continu à variables internes est proposé. Il est composé d’une loi de comportement donnant l’expression de la contrainte, et d’une équation d’évolution pour la variable interne. La viscoélasticité non linéaire de type Zener est prise en compte par l’ajout de variables internes supplémentaires. Les équations du mouvement forment un système de lois de conservation non linéaire et non homogène. Le système d’équations aux dérivées partielles est résolu numériquement à l’aide de la méthode des volumes finis. Une solution analytique du problème de Riemann de l’élastodynamique non linéaire est explicitée. Elle est utilisée pour évaluer les performances des méthodes numériques. Les résultats numériques sont en accord qualitatif avec les résultats expérimentaux d’expériences de résonance (NRUS) et d’acousto-élasticité dynamique (DAET). Des méthodes similaires sont développées en 2D pour réaliser des simulations de propagation d’ondes. Dans le cadre des méthodes de continuation reposant sur la décomposition en harmoniques, une méthode numérique est développée pour le calcul de solutions périodiques. Sur la base d’une discrétisation éléments finis des équations du mouvement, cette méthode fréquentielle donne des simulations de résonance rapides, ce qui est utile pour mener des validations expérimentales. / Geomaterials such as rocks and concrete are known to soften under a dynamic loading, i.e., the speed of sound diminishes with forcing amplitudes. To reproduce this behavior, an internal-variable model of continuum is proposed. It is composed of a constitutive law for the stress and an evolution equation for the internal variable. Nonlinear viscoelasticity of Zener type is accounted for by using additional internal variables. The equations of motion write as a nonlinear and nonhomogeneous system of conservation laws. This system of partial differential equations is solved numerically using finite-volume methods. An analytical solution to the Riemann problem of nonlinear elastodynamics is provided, which is used to benchmark the performances of the numerical methods. Numerical results are in qualitative agreement with experimental results from resonance experiments (NRUS) and dynamic acousto-elastic testing (DAET). Similar methods are developed in 2D to perform wave propagation simulations. In the framework of harmonic-based continuation methods, a numerical method is developed for the computation of periodic solutions. Based on a finite element discretization of the equations of motion, this frequency-domain method provides fast resonance simulations, which is useful to carry out experimental validations.

Page generated in 0.0739 seconds