• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1365
  • 599
  • 155
  • 4
  • 2
  • 1
  • Tagged with
  • 2097
  • 768
  • 461
  • 296
  • 296
  • 237
  • 226
  • 204
  • 200
  • 196
  • 195
  • 183
  • 160
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Méthodes statistiques d'ajustement pour les facteurs confondants en évaluation économique

Julmiste, Gaetane Raymonde 14 November 2024 (has links)
Ajuster adéquatement pour les variables confondantes est une problématique majeure en économie de la santé. Différentes méthodes ont été proposées. Les études qui ont comparé ces méthodes l'ont rarement fait à partir de données simulées, mais plutôt sur la base d'arguments conceptuels. Notre étude visait ainsi à réaliser des simulations de Monte-Carlo pour comparer les méthodes les plus recommandées dans la littérature telles que la régression par le bénéfice monétaire net et les régressions apparemment indépendantes, en générant des données pour les réponses en log-linéaire et linéaire. Nous avons estimé l'effet causal sous la forme d'un rapport de coût-efficacité différentiel et d'un bénéfice monétaire net, soit pour la population générale, soit chez les traités, afin de déterminer les méthodes qui contrôlent le mieux le biais en utilisant divers scénarios où la taille d'échantillon et les corrélations variaient. Seul la méthode d'appariement complet sur le score de propension ajusté pour tous les confondants permettait d'obtenir un biais faible. Des analyses supplémentaires ont permis de déterminer que lorsque les réponses sont générées selon des modèles log-linéaires, la modélisation linéaire de ces réponses induit un biais. Ce biais n'était pas atténué par la modélisation des confondants à l'aide de splines cubiques, alors qu'il était résorbé en utilisant l'estimation ciblée par maximum de vraisemblance couplé à l'apprentissage machine, d'autant que les coûts soient ajustés pour leurs propres confondants ainsi que les confondants simultanés des coûts et de l'efficacité, et que l'efficacité soit ajustée pour ses propres confondants et les confondants simultanés des coûts et de l'efficacité. Puisque les réponses en évaluation économique sont potentiellement souvent log-linéaires, nous recommandons l'utilisation de l'appariement complet en ajustant pour tous les confondants, ou l'utilisation d'apprentissage machine pour modéliser les réponses où chaque réponse est ajustée pour ses confondants et les confondants simultanés du coût et de l'efficacité. / Adjusting for confounding variables is a major issue in health economics. Various methods have been proposed. Studies that have compared these methods have rarely done so on the basis of simulated data, but rather on the basis of conceptual arguments. The aim of our study was therefore to carry out Monte Carlo simulations to compare the methods most recommended in the literature, such as regression by net monetary benefit and seemingly unrelated regressions, by generating log-linear or linear outcome data. We estimated the causal effect in the form of incremental cost-effectiveness ratio and net monetary benefit, either for the general population or among the treated, to determine which methods best controlled for bias using various scenarios where sample size and correlations varied. Only the full matching on a propensity score adjusted for all confounders achieved a low bias. Further analysis determined that when outcomes were generated according to log-linear models, linear modeling of these outcomes induced bias. This bias was not mitigated by modeling confounders using cubic splines, whereas it was removed using targeted maximum likelihood estimation coupled with machine learning, provided that costs were adjusted for their own confounders as well as simultaneous cost and effictiveness confounders, and effectiveness was adjusted for its own confounders and simultaneous cost and effectiveness confounders. Since outcomes in economic evaluation are potentially often log-linear, we recommend the use of full matching by adjusting for all confounders, or the use of machine learning to model outcomes where each outcome is adjusted for its confounders and the simultaneous confounders of cost and effectiveness.
152

Les pratiques enseignantes pour soutenir le langage oral des enfants selon les contextes de classe à l'éducation préscolaire 5 ans

Parent, Anne-Sophie 02 February 2024 (has links)
Ce mémoire par insertion d’un article consiste à étudier les pratiques enseignantes pour soutenir le langage oral de l’enfant en fonction des différents contextes de classe à l’éducation préscolaire 5 ans. Pour ce faire, les pratiques de neuf enseignantes et un enseignant ont été observées à l’aide d’une grille d’observation par intervalle, la Grille d’observation des pratiques éducatives pour le soutien de la Communication, du Langage et de l’Émergence de l’Écrit (CLÉÉ) (Bergeron-Morin et al., 2019). Puis, ces pratiques ont été étudiées en fonction de cinq contextes de classe (p. ex. activité en grand groupe initiée par l’adulte ou collation) identifiés à partir des définitions de l’outil Emerging Academic Snapshot (EAS ; Ritchie et al., 2001). Les résultats montrent que les enseignantes et l’enseignant utilisent plus de pratiques pour se centrer sur l’enfant, de pratiques pour promouvoir les interactions verbales en classe et de pratiques de modelage langagier dans les activités initiées par l’enfant que dans tous les autres contextes de classe à l’ÉP 5 ans. Toutefois, ce contexte de classe ne représente que 24 % du temps observé dans une matinée, une proportion moins importante que d’autres contextes de classe, comme l’activité en grand groupe initiée par l’adulte (28 %). Ces résultats sont discutés au regard des objectifs de recherche poursuivis. Ils soulèvent notamment le besoin de recherche sur le développement professionnel des enseignantes et des enseignants1 quant au soutien qu’ils offrent relativement au langage oral des enfants lors des activités initiées par eux.
153

Intervalles de confiance pour une différence de deux proportions

Gagnon, Patrick 12 April 2018 (has links)
L'intervalle de confiance le plus connu pour une différence de deux proportions est l'intervalle de Wald. Cet intervalle a l'avantage d'être simple à construire, mais il est anti-conservateur. Il existe plusieurs intervalles alternatifs à l'intervalle deWald qui performent beaucoup mieux. Dans ce mémoire, on s'intéressera particulièrement à l'intervalle d'Agresti-Coull et à l'intervalle bayésien approximatif. Ces intervalles performent très bien tout en étant simples à construire. On regardera d'abord la performance de ces intervalles lorsqu'on a deux échantillons indépendants de tailles fixées au départ. On regardera aussi leur performance lorsque le nombre d'observations dépend des vraies proportions, soit dans une expérience à étapes multiples, soit dans une expérience à allocations séquentielles ou un plan adaptatif est utilisé.
154

Méthodes directes hors-mémoire (out-of-core) pour la résolution de systèmes linéaires creux de grande taille

Agullo, Emmanuel 28 November 2008 (has links) (PDF)
La factorisation d'une matrice creuse est une approche robuste pour la résolution de systèmes linéaires creux de grande taille. Néanmoins, une telle factorisation est connue pour être coûteuse aussi bien en temps de calcul qu'en occupation mémoire. Quand l'espace mémoire nécessaire au traitement d'une matrice est plus grand que la quantité de mémoire disponible sur la plate-forme utilisée, des approches dites hors-mémoire (out-of-core) doivent être employées : les disques étendent la mémoire centrale pour fournir une capacité de stockage suffisante. Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et pratiques de telles factorisations hors-mémoire. Les environnements logiciel MUMPS et SuperLU sont utilisés pour illustrer nos discussions sur des matrices issues du monde industriel et académique. Tout d'abord, nous proposons et étudions dans un cadre séquentiel différents modèles hors-mémoire qui ont pour but de limiter le surcoût dû aux transferts de données entre la mémoire et les disques. Pour ce faire, nous revisitons les algorithmes qui ordonnancent les opérations de la factorisation et proposons de nouveaux schémas de gestion mémoire s'accommodant aux contraintes hors-mémoire. Ensuite, nous nous focalisons sur une méthode de factorisation particulière, la méthode multifrontale, que nous poussons aussi loin que possible dans un contexte parallèle hors-mémoire. Suivant une démarche pragmatique, nous montrons que les techniques hors-mémoire permettent de résoudre efficacement des systèmes linéaires creux de grande taille. Quand seuls les facteurs sont stockés sur disque, une attention particulière doit être portée aux données temporaires, qui restent en mémoire centrale. Pour faire décroître efficacement l'occupation mémoire associée à ces données temporaires avec le nombre de processeurs, nous repensons l'ordonnancement de la factorisation parallèle hors-mémoire dans son ensemble.
155

Fluid Queues: Building Upon the Analogy with QBD processes

da Silva Soares, Ana 11 March 2005 (has links)
Les files d'attente fluides sont des processus markoviens à deux dimensions, où la première composante, appelée le niveau, représente le contenu d'un réservoir et prend des valeurs continues, et la deuxième composante, appelée la phase, est l'état d'un processus markovien dont l'évolution contrôle celle du niveau. Le niveau de la file fluide varie linéairement avec un taux qui dépend de la phase et qui peut prendre n'importe quelle valeur réelle. Dans cette thèse, nous explorons le lien entre les files fluides et les processus QBD, et nous appliquons des arguments utilisés en théorie des processus de renouvellement pour obtenir la distribution stationnaire de plusieurs modèles fluides. Nous commençons par l'étude d'une file fluide avec un réservoir de taille infinie; nous déterminons sa distribution stationnaire, et nous présentons un algorithme permettant de calculer cette distribution de manière très efficace. Nous observons que la distribution stationnaire de la file fluide de capacité infinie est très semblable à celle d'un processus QBD avec une infinité de niveaux. Nous poursuivons la recherche des similarités entre les files fluides et les processus QBD, et nous étudions ensuite la distribution stationnaire d'une file fluide de capacité finie. Nous montrons que l'algorithme valable pour le cas du réservoir infini permet de calculer toutes les quantités importantes du modèle avec un réservoir fini. Nous considérons ensuite des modèles fluides plus complexes, de capacité finie ou infinie, où le comportement du processus markovien des phases peut changer lorsque le niveau du réservoir atteint certaines valeurs seuils. Nous montrons que les méthodes développées pour des modèles classiques s'étendent de manière naturelle à ces modèles plus complexes. Pour terminer, nous étudions les conditions nécessaires et suffisantes qui mènent à l'indépendance du niveau et de la phase d'une file fluide de capacité infinie en régime stationnaire. Ces résultats s'appuient sur des résultats semblables concernant des processus QBD. Markov modulated fluid queues are two-dimensional Markov processes, of which the first component, called the level, represents the content of a buffer or reservoir and takes real values; the second component, called the phase, is the state of a Markov process which controls the evolution of the level in the following manner: the level varies linearly at a rate which depends on the phase and which can take any real value. In this thesis, we explore the link between fluid queues and Quasi Birth-and-Death (QBD) processes, and we apply Markov renewal techniques in order to derive the stationary distribution of various fluid models. To begin with, we study a fluid queue with an infinite capacity buffer; we determine its stationary distribution and we present an algorithm which performs very efficiently in the determination of this distribution. We observe that the equilibrium distribution of the fluid queue is very similar to that of a QBD process with infinitely many levels. We further exploit the similarity between the two processes, and we determine the stationary distribution of a finite capacity fluid queue. We show that the algorithm available in the infinite case allows for the computation of all the important quantities entering in the expression of this distribution. We then consider more complex models, of either finite or infinite capacities, in which the behaviour ff the phase process may change whenever the buffer is empty or full, or when it reaches certain thresholds. We show that the techniques that we develop for the simpler models can be extended quite naturally in this context. Finally, we study the necessary and sufficient conditions that lead to the independence between the level and the phase of an infinite capacity fluid queue in the stationary regime. These results are based on similar developments for QBD processes.
156

Sur la résolution des équations intégrales singulières à noyau de Cauchy / [For solving Cauchy singular integral equations]

Mennouni, Abdelaziz 27 April 2011 (has links)
L'objectif de ce travail est la résolution des équations intégrales singulières à noyau Cauchy. On y traite les équations singulières de Cauchy de première espèce par la méthode des approximations successives. On s'intéresse aussi aux équations intégrales à noyau de Cauchy de seconde espèce, en utilisant les polynômes trigonométriques et les techniques de Fourier. Dans la même perspective, on utilise les polynômes de Tchebychev de quatrième degré pour résoudre une équation intégro différentielle à noyau de Cauchy. Ensuite, on s'intéresse à une autre équation intégro-différentielle à noyau de Cauchy, en utilisant les polynômes de Legendre, ce qui a donné lieu à développer deux méthodes basées sur une suite de projections qui converge simplement vers l'identité. En outre, on exploite les méthodes de projection pour les équations intégrales avec des opérateurs intégraux bornés non compacts et on a appliqué ces méthodes à l'équation intégrale singulière à noyau de Cauchy de deuxième espèce / The purpose of this thesis is to develop and illustrate various new methods for solving many classes of Cauchy singular integral and integro-differential equations. We study the successive approximation method for solving Cauchy singular integral equations of the first kind in the general case, then we develop a collocation method based on trigonometric polynomials combined with a regularization procedure, for solving Cauchy integral equations of the second kind. In the same perspective, we use a projection method for solving operator equation with bounded noncompact operators in Hilbert spaces. We apply a collocation and projection methods for solving Cauchy integro-differential equations, using airfoil and Legendre polynomials
157

Three essays in applied macroeconometrics / Trois essais en macroéconométrie appliquée

Lhuissier, Stéphane 23 October 2014 (has links)
Cette thèse présente trois essais en macroéconométrie appliquée. Leur dénominateur commun est l’emploi conjoint de méthodes non-linéaires et bayesiennes afin de rendre compte de cycles économiques. Le choix de ces méthodes s’appuie sur deux constats fondamentaux. Premièrement, la plupart des séries temporelles macroéconomiques et financières présentent de soudains changements dans leur comportement résultant d’évènements tels que les crises financières, les changements brutaux de politiques fiscales et monétaires, l’alternance de phases d’expansion et de récession, etc. La prise en compte de ces changements discontinus et occasionnels nécessite une modélisation non-linéaire, c’est-à-dire la conception de modèles dont les paramètres évoluent au cours du temps. Deuxièmement, l’analyse économétrique moderne des modèles à vecteur autorégressif (VAR) et des modèles dynamiques et stochastiques d’équilibre général (DSGE) soulève de nombreux problèmes auxquels peut répondre un cadre bayesien. Tout d’abord, les modèles DSGE correspondent à une représentation partielle et simplifiée de la réalité, cette dernière étant généralement trop compliquée pour être formalisée ou trop coûteuse en termes de ressources computationnelles ou intellectuelles. Cette mauvaise spécification, inhérente aux modèles DSGE, s’ajoute en général à une pénurie de données informatives nécessaires à l’obtention de réponses précises. Dans un cadre bayesien, le praticien introduit une information supplémentaire, une distribution a priori, qui rend l’inférence des paramètres du modèle plus accessible aux macroéconomistes. S’agissant des modèles DSGE, la distribution a priori, construite à partir d’informations microéconomiques telles que les élasticités agrégées ou les taux de croissance moyens des variables macroéconomiques à long terme, permet de déplacer la fonction de vraisemblance du modèle dans les régions économiquement interprétables de l’espace de paramètres. Ceci, en vue de parvenir à une interprétation raisonnable des paramètres structurels du modèle, rendant ainsi l’inférence beaucoup plus précise. [...] / This dissertation presents three essays in applied macroeconometrics. Their common denominator is the use of Bayesian and non-linear methods to study of business cycle fluctuations. The first chapter of this dissertation revisits the issue of whether business cycles with financial crises are different, in the euro area since 1999. To do so, I fit a vector autoregression in which equation coefficients and structural disturbance variances are allowed to change over time according to Markov-switching processes. I show that financial crises have been characterized by changes not only in the variances of structural shocks, but also in the predictable and systematic part of the financial sector. By predictable and systematic part of the financial sector, I mean equation coefficients that describe the financial behavior of the system. I then examine the role of financial sector in financial crises and standard business-cycle fluctuations. The evidence indicates that the relative importance of financial shocks (“non-systematic part”) is significantly higher in periods of financial distress than in non-distress periods, but the transmission of these shocks to the economy appears linear over time. Counterfactual analyses suggest that the systematic part of financial sector accounted for up to 2 and 4 percentage points of output growth drops during the downturn in 2001-2003 and the two recessions, respectively. The second chapter examines the quantitative sources of changes in the macroeconomic volatility of the euro area since 1985. To do so, I estimate a variety of large-scale Dynamic Stochastic General Equilibrium (DSGE) models in which structural disturbance variances are allowed to change according to a Markov-switching process. The empirical results show that the best-fit model is one in which all shock variances are allowed to switch between a low- and a high-volatility regime, where regime changes in the volatilities of structural shocks are synchronized. The highvolatility regime was in place during the pre-euro period, while the low-volatility regime has been prevailed since the euro introduction. Although the size of different types of shock differs between the two shock regimes, their relative importance remains unchanged. Neutral technology shocks and shocks to the marginal efficiency of investment are the dominant sources of business cycle fluctuations. Moreover, the decline in the variance of investment shocks coincide remarkably well with the development of the European financial market that has increased access to credit by firms and households, suggesting that investment shocks reflect shocks originating in the financial system. [...]
158

Développement de méthodes d'estimation modale de signaux multidimensionnels. Application à la spectroscopie RMN multidimensionnelle / Methods for multidimensional modal retrieval. Application to multidimensional NMR spectroscopy

Sahnoun, Souleymen 27 November 2012 (has links)
La thèse porte sur le développement d'algorithmes d'estimation rapides pour l'analyse modale de signaux multidimensionnels (R-D) présentant des problèmes de résolution et de complexité numérique. Un signal multidimensionnel de dimension R est la superposition de produits de R sinusoïdes. L'application visée est la spectroscopie RMN.Dans un premier temps, après un état de l'art des méthodes d'estimation dites « algébriques », nous proposons une méthode paramétrique basée sur les tenseurs. Celle-ci utilise le treillis multidimensionnel du tenseur du signal R-D et exploite la structure des vecteurs propres du sous-espace signal obtenus en utilisant la décomposition en valeurs singulières d'ordre supérieur. Contrairement à la plupart des approches tensorielles, la méthode proposée permet d'éviter la phase d'appariement des coordonnées des modes dans chacune des dimensions ou d'une diagonalisation conjointe. Dans un deuxième temps, le problème d'estimation modale multidimensionnelle est présenté comme un problème d'approximation parcimonieuse dans lequel le dictionnaire est obtenu par la discrétisation de fonctions exponentielles complexes. Afin d'atteindre une bonne résolution spectrale, il est nécessaire de choisir une grille très fine, ce qui conduit à la manipulation d'un dictionnaire de grande taille avec tous les problèmes calculatoires sous-jacents. Nous proposons alors une méthode originale qui consiste à combiner une approximation parcimonieuse et une approche multigrille sur plusieurs niveaux de résolution. L'approche est validée au travers de plusieurs exemples 1-D et 2-D. En outre, une étude sur l'influence du choix du dictionnaire initial sur la convergence est également menée. Les méthodes développées sont ensuite appliquées à l'estimation des paramètres de signaux de spectroscopie RMN 1-D et 2-D. Afin de réduire le coût de calcul dans le cas de signaux bidimensionnels de grande taille, nous proposons également une approche exploitant la notion de parcimonie simultanée, pour estimer les coordonnées des modes sur chacune des dimensions. La procédure consiste à effectuer deux approximations parcimonieuses 1-D suivies d'une phase de reformation des paires de modes 2-D / This thesis aims at the developpement of modal analysis algorithms for multidimensional signals (R-D) presenting resolution and numerical complexity problems. A multidimensional signal of dimension R is the superimposition of products of R monodimensional sinusoids. The intended application is NMR spectroscopy. Firstly, after a state-of-the-art on the so-called ''algebraic'' estimation methods, we propose a parametric method based on tensors. It uses the multidimensional tensor lattice of the R-D modal signal and exploits the eigenvectors structure of the signal subspace obtained using a higher-order singular value decomposition (HOSVD). Unlike most tensor-based eigenvalue approaches, modes estimated by the proposed method are automatically paired, thus it avoids a separate pairing step and joint diagonalization. Secondly, the multidimensional modal estimation problem is formulated as a sparse approximation problem in which the dictionary is obtained by the discretization of complex exponential functions. To achieve good spectral resolution, it is necessary to choose a very fine grid, which leads to handling a large dictionary with all the underlying computational problems. Hence, we propose a novel method that consists in combining a sparse approximation and a multigrid approach on several levels of resolution. The approach is demonstrated using several 1-D and 2-D examples. In addition, the influence of the initial dictionary on the algorithm convergence is also studied. The developed methods are then applied to estimate 1-D and 2-D NMR signal parameters. To reduce the computation cost in the case of large bidimensional signals, we also propose an approach exploiting the simultaneous sparsity principle to estimate the coordinates of the modes on each dimension. The procedure involves two 1-D sparse approximations followed by a 2-D modes painring step.
159

Logiques de ressources dynamiques : modèles, propriétés et preuves / Dynamic Resource Logic : Models, Properties et Proofs

Courtault, Jean-René 15 April 2015 (has links)
En informatique, la notion de ressource est une notion centrale. Nous considérons comme ressource toute entité pouvant être composée ou décomposée en sous-entités. Plusieurs logiques ont été proposées afin de modéliser et d’exprimer des propriétés sur celles-ci, comme la logique BI exprimant des propriétés de partage et de séparation. Puisque les systèmes informatiques manipulent des ressources, la proposition de nouveaux modèles capturant la dynamique de ces ressources, ainsi que la vérification et la preuve de propriétés sur ces modèles, sont des enjeux cruciaux. Dans ce contexte, nous définissons de nouvelles logiques permettant la modélisation logique de la dynamique des ressources, proposant de nouveaux modèles et permettant l’expression de nouvelles propriétés sur cette dynamique. De plus, pour ces logiques, nous proposons des méthodes des tableaux et d’extraction de contre-modèles. Dans un premier temps, nous définissons de nouveaux réseaux de Petri, nommés ß-PN, et proposons une nouvelle sémantique à base de ß-PN pour BI. Puis nous proposons une première extension modale de BI, nommée DBI, permettant la modélisation de ressources ayant des propriétés dynamiques, c’est-à-dire évoluant en fonction de l’état courant d’un système. Ensuite, nous proposons une logique, nommée DMBI, modélisant des systèmes manipulant/produisant/consommant des ressources. Par ailleurs, nous proposons une nouvelle logique (LSM) possédant de nouvelles modalités multiplicatives (en lien avec les ressources). Pour finir, nous introduisons la séparation au sein des logiques épistémiques, obtenant ainsi une nouvelle logique ESL, exprimant de nouvelles propriétés épistémiques / In computer science, the notion of resource is a central concern. We consider as a resource, any entity that can be composed or decomposed into sub-entities. Many logics were proposed to model and express properties on these resources, like BI logic, a logic about sharing and separation of resources. As the computer systems manipulate resources, a crucial issue consists in providing new models that capture the dynamics of resources, and also in verifying and proving properties on these models. In this context, we define new logics with new models and new languages allowing to respectively capture and express new properties on the dynamics of resources. Moreover, for all these logics, we also study the foundations of proof search and provide tableau methods and counter-model extraction methods. After defining new Petri nets, called ß-PN, we propose a new semantics based on ß-PN for BI logic, that allows us to show that BI is able to capture a kind of dynamics of resources. After observing that it is necessary to introduce new modalities in BI logic, we study successively different modal extensions of BI. We define a logic, called DBI, that allows us to model resources having dynamic properties, meaning that they evolve during the iterations of a system. Then, we define a logic, called DMBI, that allows us to model systems that manipulate/produce/consume resources. Moreover, we define a new modal logic, called LSM, having new multiplicative modalities, that deals with resources. Finally, we introduce the notion of separation in Epistemic Logic, obtaining a new logic, called ESL, that models and expresses new properties on agent knowledge
160

Continuous formulation of implicit structural modeling discretized with mesh reduction methods / Formulation continue du problème de modélisation implicite de structures géologiques discrétisée avec des méthodes de réduction de maillage

Renaudeau, Julien 24 April 2019 (has links)
La modélisation structurale consiste à approximer les structures géologiques du sous-sol en un modèle numérique afin d'en visualiser la géométrie et d'y effectuer des calculs d'estimation et de prédiction. L'approche implicite de la modélisation structurale utilise des données de terrain interprétées pour construire une fonction volumétrique sur le domaine d'étude qui représente la géologie. Cette fonction doit honorer les observations, interpoler entre ces dernières, et extrapoler dans les zones sous-échantillonnées tout en respectant les concepts géologiques. Les méthodes actuelles portent cette interpolation soit sur les données, soit sur un maillage. Ensuite, le problème de modélisation est posé selon la discrétisation choisie : par krigeage dual sur les points de donnée ou en définissant un critère de rugosité sur les éléments du maillage. Dans cette thèse, nous proposons une formulation continue de la modélisation structurale par méthodes implicites. Cette dernière consiste à minimiser une somme de fonctionnelles arbitraires. Les contraintes de donnée sont imposées avec des fonctionnelles discrètes, et l'interpolation est contrôlée par des fonctionnelles continues. Cette approche permet de (i) développer des liens entre les méthodes existantes, (ii) suggérer de nouvelles discrétisations d'un même problème de modélisation, et (iii) modifier le problème de modélisation pour mieux honorer certains cas géologiques sans dépendre de la discrétisation. Nous portons également une attention particulière à la gestion des discontinuités telles que les failles et les discordances. Les méthodes existantes nécessitent soit la création de zones volumétriques avec des géométries complexes, soit la génération d'un maillage volumétrique dont les éléments sont conformes aux surfaces de discontinuité. Nous montrons, en explorant des méthodes sans maillage locales et des concepts de réduction de maillage, qu'il est possible d'assurer l'interpolation des structures tout en réduisant les contraintes liées à la gestion des discontinuités. Deux discrétisations de notre problème de minimisation sont suggérées : l'une utilise les moindres carrés glissants avec des critères optiques pour la gestion des discontinuités, et l'autre utilise des fonctions issues de la méthode des éléments finis avec le concept de nœuds fantômes pour les discontinuités. Une étude de sensibilité et une comparaison des deux méthodes sont proposées en 2D, ainsi que quelques exemples en 3D. Les méthodes développées dans cette thèse ont un grand impact en termes d'efficacité numérique et de gestion de cas géologiques complexes. Par exemple, il est montré que notre problème de minimisation au sens large apporte plusieurs solutions pour la gestion de cas de plis sous-échantillonnés et de variations d'épaisseur dans les couches stratigraphiques. D'autres applications sont également présentées tels que la modélisation d'enveloppe de sel et la restauration mécanique. / Implicit structural modeling consists in approximating geological structures into a numerical model for visualization, estimations, and predictions. It uses numerical data interpreted from the field to construct a volumetric function on the domain of study that represents the geology. The function must fit the observations, interpolate in between, and extrapolate where data are missing while honoring the geological concepts. Current methods support this interpolation either with the data themselves or using a mesh. Then, the modeling problem is posed depending on these discretizations: performing a dual kriging between data points or defining a roughness criterion on the mesh elements. In this thesis, we propose a continuous formulation of implicit structural modeling as a minimization of a sum of generic functionals. The data constraints are enforced by discrete functionals, and the interpolation is controlled by continuous functionals. This approach enables to (i) develop links between the existing methods, (ii) suggest new discretizations of the same modeling problem, and (iii) modify the minimization problem to fit specific geological issues without any dependency on the discretization. Another focus of this thesis is the efficient handling of discontinuities, such as faults and unconformities. Existing methods require either to define volumetric zones with complex geometries, or to mesh volumes with conformal elements to the discontinuity surfaces. We show, by investigating local meshless functions and mesh reduction concepts, that it is possible to reduce the constraints related to the discontinuities while performing the interpolation. Two discretizations of the minimization problem are then suggested: one using the moving least squares functions with optic criteria to handle discontinuities, and the other using the finite element method functions with the concept of ghost nodes for the discontinuities. A sensitivity analysis and a comparison study of both methods are performed in 2D, with some examples in 3D. The developed methods in this thesis prove to have a great impact on computational efficiency and on handling complex geological settings. For instance, it is shown that the minimization problem provides the means to manage under-sampled fold structures and thickness variations in the layers. Other applications are also presented such as salt envelope surface modeling and mechanical restoration.

Page generated in 0.068 seconds