• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1363
  • 599
  • 154
  • 4
  • 2
  • 1
  • Tagged with
  • 2092
  • 768
  • 461
  • 296
  • 294
  • 237
  • 226
  • 203
  • 200
  • 196
  • 195
  • 183
  • 159
  • 153
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

L'audio-vision et l'enseignement des langues vivantes

Pervy, Adolphe 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
152

Estimation de la taille de la population dans les expériences de capture-recapture

Yauck, Mamadou 03 May 2019 (has links)
La thèse présentée ici traite du problème de l'estimation de la taille de la population dans les modèles de capture-recapture. Elle s'intéresse, en particulier, à la question de l'estimation de la taille de la population dans le cadre d'une expérience de capture-recapture à structure d'échantillonnage imbriquée, qui combine les méthodes de population fermée à l'intérieur des périodes primaires (PP) et de population ouverte d'une PP à une autre : le design robuste. Cette thèse propose une méthodologie d'estimation de la taille de la population et de l'incertitude associée aux estimateurs obtenus dans le contexte du design robuste. Dans un premier temps, on aborde le problème de l'estimation des paramètres du design robuste dans le cas d'un nombre suffisamment élevé d'occasions de capture. On généralise le papier fondamental de Jolly (1965) au design robuste en proposant une procédure séquentielle d'estimation des paramètres pour la classe des modèles de design robuste présentés dans Rivest and Daigle (2004) et un estimateur de la variance des paramètres par bootstrap paramétrique. Ces résultats théoriques ont été appliqués à des données d'activation d'applications sur les téléphones intelligents. Les données sont recueillies sur une période d'un an et demi et concernent des utilisateurs de téléphones intelligents qui ont visité un grand concessionnaire automobile basé aux États-Unis. Dans un deuxième temps, on s'intéresse à l'estimation de la taille de la population à partir de deux sources d'information du design robuste: les données à l'intérieur d'une PP (ou intra-période) et les données d'une PP à une autre (ou inter-période). On démontre que les estimateurs de la taille de la population obtenus avec les informations intra-période et inter-période sont asymptotiquement indépendants pour une large classe de modèles de population fermée à l'intérieur des PP. Ainsi, l'estimateur du maximum de vraisemblance pour la taille de la population dans le cas du design robuste est asymptotiquement équivalent à un estimateur pondéré pour le modèle de population ouverte et le modèle de population fermée. On montre que l'estimateur pondéré diffère de celui donné dans Kendall et al. (1995); on démontre que leur estimateur n'est pas efficace, puis on donne une formule explicite pour son efficacité comparativement à l'estimateur pondéré. La perte d'efficacité est ensuite évaluée dans une étude de simulation, puis à travers un exemple tiré de Santostasi et al. (2016) et qui traite de l'estimation de la taille de la population d'une espèce de dauphins vivant dans le Golfe de Corinthe (Grèce). Enfin, on se propose d'étendre les résultats du problème précédent aux modèles de design robuste présentés dans Kendall et al. (1995) et implémentés dans MARK (White and Burnham, 1999). Dans le contexte du design robuste, on dérive l'estimateur du maximum de vraisemblance pour la taille de la population; on propose également trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur. On démontre ensuite que l'estimateur du maximum de vraisemblance pour la taille de la population est plus efficace que l'estimateur des moments proposé par Kendall et al. (1995); la perte d'efficacité de l'estimateur de Kendall ainsi que la performance des trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur du maximum de vraisemblance sont évaluées via une étude de simulation. / This thesis deals with the capture-recapture estimation of population sizes under a hierarchical study design where a capture-recapture experiment, involving secondary capture occasions, is carried out within each sampling period (SP) of an open population model: the robust design. This thesis proposes a methodology for the estimation of population sizes under the robust design and the uncertainty associated with the estimators. The first problem deals with the estimation of the parameters of a robust design with an arbitrary large number of capture occasions. To do so, we generalize the seminal paper of Jolly (1965) to the robust design and propose a sequential estimation procedure for the class of robust design models presented in Rivest and Daigle (2004). A simple parametric bootstrap variance estimator for the model parameters is also proposed. These results are used to analyze a data set about the mobile devices that visited the auto-dealerships of a major auto brand in a US metropolitan area over a period of one year and a half. The second problem deals with the estimation of population sizes using two sources of information for the robust design: the within and the between primary period data. We prove that the population size estimators derived from the two sources are asymptotically independent for a large class of closed population models. In this context, the robust design maximum likelihood estimator of population size is shown to be asymptotically equivalent to a weighted sum of the estimators for the open population Jolly-Seber model (Jolly 1965; Seber 1965) and for the closed population model. This article shows that the weighted estimator is more efficient than the moment estimator of Kendall et al.(1995). A closed form expression for the efficiency associated with this estimator is given and the loss of precision is evaluated in a MonteCarlo study and in a numerical example about the estimation of the size of dolphin populations living in the Gulf of Corinth (Greece) and discussed by Santostasi et al. (2016). The third problem deals with the estimation of population sizes under the robust design models presented in Kendall et al. (1995) and implemented in MARK (White and Burnham, 1999). We derive the maximum likelihood estimator for the population size and propose three methods of estimation for its uncertainty. We prove that the derived maximum likelihood estimator is more efficient than the moment estimator provided in Kendall et al. (1995). The loss of precision associated with the Kendall estimator and the performance of the three methods of estimation for the variance of the maximum likelihood estimator are evaluated in a MonteCarlo study.
153

Méthodes directes hors-mémoire (out-of-core) pour la résolution de systèmes linéaires creux de grande taille

Agullo, Emmanuel 28 November 2008 (has links) (PDF)
La factorisation d'une matrice creuse est une approche robuste pour la résolution de systèmes linéaires creux de grande taille. Néanmoins, une telle factorisation est connue pour être coûteuse aussi bien en temps de calcul qu'en occupation mémoire. Quand l'espace mémoire nécessaire au traitement d'une matrice est plus grand que la quantité de mémoire disponible sur la plate-forme utilisée, des approches dites hors-mémoire (out-of-core) doivent être employées : les disques étendent la mémoire centrale pour fournir une capacité de stockage suffisante. Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et pratiques de telles factorisations hors-mémoire. Les environnements logiciel MUMPS et SuperLU sont utilisés pour illustrer nos discussions sur des matrices issues du monde industriel et académique. Tout d'abord, nous proposons et étudions dans un cadre séquentiel différents modèles hors-mémoire qui ont pour but de limiter le surcoût dû aux transferts de données entre la mémoire et les disques. Pour ce faire, nous revisitons les algorithmes qui ordonnancent les opérations de la factorisation et proposons de nouveaux schémas de gestion mémoire s'accommodant aux contraintes hors-mémoire. Ensuite, nous nous focalisons sur une méthode de factorisation particulière, la méthode multifrontale, que nous poussons aussi loin que possible dans un contexte parallèle hors-mémoire. Suivant une démarche pragmatique, nous montrons que les techniques hors-mémoire permettent de résoudre efficacement des systèmes linéaires creux de grande taille. Quand seuls les facteurs sont stockés sur disque, une attention particulière doit être portée aux données temporaires, qui restent en mémoire centrale. Pour faire décroître efficacement l'occupation mémoire associée à ces données temporaires avec le nombre de processeurs, nous repensons l'ordonnancement de la factorisation parallèle hors-mémoire dans son ensemble.
154

Fluid Queues: Building Upon the Analogy with QBD processes

da Silva Soares, Ana 11 March 2005 (has links)
Les files d'attente fluides sont des processus markoviens à deux dimensions, où la première composante, appelée le niveau, représente le contenu d'un réservoir et prend des valeurs continues, et la deuxième composante, appelée la phase, est l'état d'un processus markovien dont l'évolution contrôle celle du niveau. Le niveau de la file fluide varie linéairement avec un taux qui dépend de la phase et qui peut prendre n'importe quelle valeur réelle. Dans cette thèse, nous explorons le lien entre les files fluides et les processus QBD, et nous appliquons des arguments utilisés en théorie des processus de renouvellement pour obtenir la distribution stationnaire de plusieurs modèles fluides. Nous commençons par l'étude d'une file fluide avec un réservoir de taille infinie; nous déterminons sa distribution stationnaire, et nous présentons un algorithme permettant de calculer cette distribution de manière très efficace. Nous observons que la distribution stationnaire de la file fluide de capacité infinie est très semblable à celle d'un processus QBD avec une infinité de niveaux. Nous poursuivons la recherche des similarités entre les files fluides et les processus QBD, et nous étudions ensuite la distribution stationnaire d'une file fluide de capacité finie. Nous montrons que l'algorithme valable pour le cas du réservoir infini permet de calculer toutes les quantités importantes du modèle avec un réservoir fini. Nous considérons ensuite des modèles fluides plus complexes, de capacité finie ou infinie, où le comportement du processus markovien des phases peut changer lorsque le niveau du réservoir atteint certaines valeurs seuils. Nous montrons que les méthodes développées pour des modèles classiques s'étendent de manière naturelle à ces modèles plus complexes. Pour terminer, nous étudions les conditions nécessaires et suffisantes qui mènent à l'indépendance du niveau et de la phase d'une file fluide de capacité infinie en régime stationnaire. Ces résultats s'appuient sur des résultats semblables concernant des processus QBD. Markov modulated fluid queues are two-dimensional Markov processes, of which the first component, called the level, represents the content of a buffer or reservoir and takes real values; the second component, called the phase, is the state of a Markov process which controls the evolution of the level in the following manner: the level varies linearly at a rate which depends on the phase and which can take any real value. In this thesis, we explore the link between fluid queues and Quasi Birth-and-Death (QBD) processes, and we apply Markov renewal techniques in order to derive the stationary distribution of various fluid models. To begin with, we study a fluid queue with an infinite capacity buffer; we determine its stationary distribution and we present an algorithm which performs very efficiently in the determination of this distribution. We observe that the equilibrium distribution of the fluid queue is very similar to that of a QBD process with infinitely many levels. We further exploit the similarity between the two processes, and we determine the stationary distribution of a finite capacity fluid queue. We show that the algorithm available in the infinite case allows for the computation of all the important quantities entering in the expression of this distribution. We then consider more complex models, of either finite or infinite capacities, in which the behaviour ff the phase process may change whenever the buffer is empty or full, or when it reaches certain thresholds. We show that the techniques that we develop for the simpler models can be extended quite naturally in this context. Finally, we study the necessary and sufficient conditions that lead to the independence between the level and the phase of an infinite capacity fluid queue in the stationary regime. These results are based on similar developments for QBD processes.
155

Sur la résolution des équations intégrales singulières à noyau de Cauchy / [For solving Cauchy singular integral equations]

Mennouni, Abdelaziz 27 April 2011 (has links)
L'objectif de ce travail est la résolution des équations intégrales singulières à noyau Cauchy. On y traite les équations singulières de Cauchy de première espèce par la méthode des approximations successives. On s'intéresse aussi aux équations intégrales à noyau de Cauchy de seconde espèce, en utilisant les polynômes trigonométriques et les techniques de Fourier. Dans la même perspective, on utilise les polynômes de Tchebychev de quatrième degré pour résoudre une équation intégro différentielle à noyau de Cauchy. Ensuite, on s'intéresse à une autre équation intégro-différentielle à noyau de Cauchy, en utilisant les polynômes de Legendre, ce qui a donné lieu à développer deux méthodes basées sur une suite de projections qui converge simplement vers l'identité. En outre, on exploite les méthodes de projection pour les équations intégrales avec des opérateurs intégraux bornés non compacts et on a appliqué ces méthodes à l'équation intégrale singulière à noyau de Cauchy de deuxième espèce / The purpose of this thesis is to develop and illustrate various new methods for solving many classes of Cauchy singular integral and integro-differential equations. We study the successive approximation method for solving Cauchy singular integral equations of the first kind in the general case, then we develop a collocation method based on trigonometric polynomials combined with a regularization procedure, for solving Cauchy integral equations of the second kind. In the same perspective, we use a projection method for solving operator equation with bounded noncompact operators in Hilbert spaces. We apply a collocation and projection methods for solving Cauchy integro-differential equations, using airfoil and Legendre polynomials
156

Three essays in applied macroeconometrics / Trois essais en macroéconométrie appliquée

Lhuissier, Stéphane 23 October 2014 (has links)
Cette thèse présente trois essais en macroéconométrie appliquée. Leur dénominateur commun est l’emploi conjoint de méthodes non-linéaires et bayesiennes afin de rendre compte de cycles économiques. Le choix de ces méthodes s’appuie sur deux constats fondamentaux. Premièrement, la plupart des séries temporelles macroéconomiques et financières présentent de soudains changements dans leur comportement résultant d’évènements tels que les crises financières, les changements brutaux de politiques fiscales et monétaires, l’alternance de phases d’expansion et de récession, etc. La prise en compte de ces changements discontinus et occasionnels nécessite une modélisation non-linéaire, c’est-à-dire la conception de modèles dont les paramètres évoluent au cours du temps. Deuxièmement, l’analyse économétrique moderne des modèles à vecteur autorégressif (VAR) et des modèles dynamiques et stochastiques d’équilibre général (DSGE) soulève de nombreux problèmes auxquels peut répondre un cadre bayesien. Tout d’abord, les modèles DSGE correspondent à une représentation partielle et simplifiée de la réalité, cette dernière étant généralement trop compliquée pour être formalisée ou trop coûteuse en termes de ressources computationnelles ou intellectuelles. Cette mauvaise spécification, inhérente aux modèles DSGE, s’ajoute en général à une pénurie de données informatives nécessaires à l’obtention de réponses précises. Dans un cadre bayesien, le praticien introduit une information supplémentaire, une distribution a priori, qui rend l’inférence des paramètres du modèle plus accessible aux macroéconomistes. S’agissant des modèles DSGE, la distribution a priori, construite à partir d’informations microéconomiques telles que les élasticités agrégées ou les taux de croissance moyens des variables macroéconomiques à long terme, permet de déplacer la fonction de vraisemblance du modèle dans les régions économiquement interprétables de l’espace de paramètres. Ceci, en vue de parvenir à une interprétation raisonnable des paramètres structurels du modèle, rendant ainsi l’inférence beaucoup plus précise. [...] / This dissertation presents three essays in applied macroeconometrics. Their common denominator is the use of Bayesian and non-linear methods to study of business cycle fluctuations. The first chapter of this dissertation revisits the issue of whether business cycles with financial crises are different, in the euro area since 1999. To do so, I fit a vector autoregression in which equation coefficients and structural disturbance variances are allowed to change over time according to Markov-switching processes. I show that financial crises have been characterized by changes not only in the variances of structural shocks, but also in the predictable and systematic part of the financial sector. By predictable and systematic part of the financial sector, I mean equation coefficients that describe the financial behavior of the system. I then examine the role of financial sector in financial crises and standard business-cycle fluctuations. The evidence indicates that the relative importance of financial shocks (“non-systematic part”) is significantly higher in periods of financial distress than in non-distress periods, but the transmission of these shocks to the economy appears linear over time. Counterfactual analyses suggest that the systematic part of financial sector accounted for up to 2 and 4 percentage points of output growth drops during the downturn in 2001-2003 and the two recessions, respectively. The second chapter examines the quantitative sources of changes in the macroeconomic volatility of the euro area since 1985. To do so, I estimate a variety of large-scale Dynamic Stochastic General Equilibrium (DSGE) models in which structural disturbance variances are allowed to change according to a Markov-switching process. The empirical results show that the best-fit model is one in which all shock variances are allowed to switch between a low- and a high-volatility regime, where regime changes in the volatilities of structural shocks are synchronized. The highvolatility regime was in place during the pre-euro period, while the low-volatility regime has been prevailed since the euro introduction. Although the size of different types of shock differs between the two shock regimes, their relative importance remains unchanged. Neutral technology shocks and shocks to the marginal efficiency of investment are the dominant sources of business cycle fluctuations. Moreover, the decline in the variance of investment shocks coincide remarkably well with the development of the European financial market that has increased access to credit by firms and households, suggesting that investment shocks reflect shocks originating in the financial system. [...]
157

Développement de méthodes d'estimation modale de signaux multidimensionnels. Application à la spectroscopie RMN multidimensionnelle / Methods for multidimensional modal retrieval. Application to multidimensional NMR spectroscopy

Sahnoun, Souleymen 27 November 2012 (has links)
La thèse porte sur le développement d'algorithmes d'estimation rapides pour l'analyse modale de signaux multidimensionnels (R-D) présentant des problèmes de résolution et de complexité numérique. Un signal multidimensionnel de dimension R est la superposition de produits de R sinusoïdes. L'application visée est la spectroscopie RMN.Dans un premier temps, après un état de l'art des méthodes d'estimation dites « algébriques », nous proposons une méthode paramétrique basée sur les tenseurs. Celle-ci utilise le treillis multidimensionnel du tenseur du signal R-D et exploite la structure des vecteurs propres du sous-espace signal obtenus en utilisant la décomposition en valeurs singulières d'ordre supérieur. Contrairement à la plupart des approches tensorielles, la méthode proposée permet d'éviter la phase d'appariement des coordonnées des modes dans chacune des dimensions ou d'une diagonalisation conjointe. Dans un deuxième temps, le problème d'estimation modale multidimensionnelle est présenté comme un problème d'approximation parcimonieuse dans lequel le dictionnaire est obtenu par la discrétisation de fonctions exponentielles complexes. Afin d'atteindre une bonne résolution spectrale, il est nécessaire de choisir une grille très fine, ce qui conduit à la manipulation d'un dictionnaire de grande taille avec tous les problèmes calculatoires sous-jacents. Nous proposons alors une méthode originale qui consiste à combiner une approximation parcimonieuse et une approche multigrille sur plusieurs niveaux de résolution. L'approche est validée au travers de plusieurs exemples 1-D et 2-D. En outre, une étude sur l'influence du choix du dictionnaire initial sur la convergence est également menée. Les méthodes développées sont ensuite appliquées à l'estimation des paramètres de signaux de spectroscopie RMN 1-D et 2-D. Afin de réduire le coût de calcul dans le cas de signaux bidimensionnels de grande taille, nous proposons également une approche exploitant la notion de parcimonie simultanée, pour estimer les coordonnées des modes sur chacune des dimensions. La procédure consiste à effectuer deux approximations parcimonieuses 1-D suivies d'une phase de reformation des paires de modes 2-D / This thesis aims at the developpement of modal analysis algorithms for multidimensional signals (R-D) presenting resolution and numerical complexity problems. A multidimensional signal of dimension R is the superimposition of products of R monodimensional sinusoids. The intended application is NMR spectroscopy. Firstly, after a state-of-the-art on the so-called ''algebraic'' estimation methods, we propose a parametric method based on tensors. It uses the multidimensional tensor lattice of the R-D modal signal and exploits the eigenvectors structure of the signal subspace obtained using a higher-order singular value decomposition (HOSVD). Unlike most tensor-based eigenvalue approaches, modes estimated by the proposed method are automatically paired, thus it avoids a separate pairing step and joint diagonalization. Secondly, the multidimensional modal estimation problem is formulated as a sparse approximation problem in which the dictionary is obtained by the discretization of complex exponential functions. To achieve good spectral resolution, it is necessary to choose a very fine grid, which leads to handling a large dictionary with all the underlying computational problems. Hence, we propose a novel method that consists in combining a sparse approximation and a multigrid approach on several levels of resolution. The approach is demonstrated using several 1-D and 2-D examples. In addition, the influence of the initial dictionary on the algorithm convergence is also studied. The developed methods are then applied to estimate 1-D and 2-D NMR signal parameters. To reduce the computation cost in the case of large bidimensional signals, we also propose an approach exploiting the simultaneous sparsity principle to estimate the coordinates of the modes on each dimension. The procedure involves two 1-D sparse approximations followed by a 2-D modes painring step.
158

Logiques de ressources dynamiques : modèles, propriétés et preuves / Dynamic Resource Logic : Models, Properties et Proofs

Courtault, Jean-René 15 April 2015 (has links)
En informatique, la notion de ressource est une notion centrale. Nous considérons comme ressource toute entité pouvant être composée ou décomposée en sous-entités. Plusieurs logiques ont été proposées afin de modéliser et d’exprimer des propriétés sur celles-ci, comme la logique BI exprimant des propriétés de partage et de séparation. Puisque les systèmes informatiques manipulent des ressources, la proposition de nouveaux modèles capturant la dynamique de ces ressources, ainsi que la vérification et la preuve de propriétés sur ces modèles, sont des enjeux cruciaux. Dans ce contexte, nous définissons de nouvelles logiques permettant la modélisation logique de la dynamique des ressources, proposant de nouveaux modèles et permettant l’expression de nouvelles propriétés sur cette dynamique. De plus, pour ces logiques, nous proposons des méthodes des tableaux et d’extraction de contre-modèles. Dans un premier temps, nous définissons de nouveaux réseaux de Petri, nommés ß-PN, et proposons une nouvelle sémantique à base de ß-PN pour BI. Puis nous proposons une première extension modale de BI, nommée DBI, permettant la modélisation de ressources ayant des propriétés dynamiques, c’est-à-dire évoluant en fonction de l’état courant d’un système. Ensuite, nous proposons une logique, nommée DMBI, modélisant des systèmes manipulant/produisant/consommant des ressources. Par ailleurs, nous proposons une nouvelle logique (LSM) possédant de nouvelles modalités multiplicatives (en lien avec les ressources). Pour finir, nous introduisons la séparation au sein des logiques épistémiques, obtenant ainsi une nouvelle logique ESL, exprimant de nouvelles propriétés épistémiques / In computer science, the notion of resource is a central concern. We consider as a resource, any entity that can be composed or decomposed into sub-entities. Many logics were proposed to model and express properties on these resources, like BI logic, a logic about sharing and separation of resources. As the computer systems manipulate resources, a crucial issue consists in providing new models that capture the dynamics of resources, and also in verifying and proving properties on these models. In this context, we define new logics with new models and new languages allowing to respectively capture and express new properties on the dynamics of resources. Moreover, for all these logics, we also study the foundations of proof search and provide tableau methods and counter-model extraction methods. After defining new Petri nets, called ß-PN, we propose a new semantics based on ß-PN for BI logic, that allows us to show that BI is able to capture a kind of dynamics of resources. After observing that it is necessary to introduce new modalities in BI logic, we study successively different modal extensions of BI. We define a logic, called DBI, that allows us to model resources having dynamic properties, meaning that they evolve during the iterations of a system. Then, we define a logic, called DMBI, that allows us to model systems that manipulate/produce/consume resources. Moreover, we define a new modal logic, called LSM, having new multiplicative modalities, that deals with resources. Finally, we introduce the notion of separation in Epistemic Logic, obtaining a new logic, called ESL, that models and expresses new properties on agent knowledge
159

Continuous formulation of implicit structural modeling discretized with mesh reduction methods / Formulation continue du problème de modélisation implicite de structures géologiques discrétisée avec des méthodes de réduction de maillage

Renaudeau, Julien 24 April 2019 (has links)
La modélisation structurale consiste à approximer les structures géologiques du sous-sol en un modèle numérique afin d'en visualiser la géométrie et d'y effectuer des calculs d'estimation et de prédiction. L'approche implicite de la modélisation structurale utilise des données de terrain interprétées pour construire une fonction volumétrique sur le domaine d'étude qui représente la géologie. Cette fonction doit honorer les observations, interpoler entre ces dernières, et extrapoler dans les zones sous-échantillonnées tout en respectant les concepts géologiques. Les méthodes actuelles portent cette interpolation soit sur les données, soit sur un maillage. Ensuite, le problème de modélisation est posé selon la discrétisation choisie : par krigeage dual sur les points de donnée ou en définissant un critère de rugosité sur les éléments du maillage. Dans cette thèse, nous proposons une formulation continue de la modélisation structurale par méthodes implicites. Cette dernière consiste à minimiser une somme de fonctionnelles arbitraires. Les contraintes de donnée sont imposées avec des fonctionnelles discrètes, et l'interpolation est contrôlée par des fonctionnelles continues. Cette approche permet de (i) développer des liens entre les méthodes existantes, (ii) suggérer de nouvelles discrétisations d'un même problème de modélisation, et (iii) modifier le problème de modélisation pour mieux honorer certains cas géologiques sans dépendre de la discrétisation. Nous portons également une attention particulière à la gestion des discontinuités telles que les failles et les discordances. Les méthodes existantes nécessitent soit la création de zones volumétriques avec des géométries complexes, soit la génération d'un maillage volumétrique dont les éléments sont conformes aux surfaces de discontinuité. Nous montrons, en explorant des méthodes sans maillage locales et des concepts de réduction de maillage, qu'il est possible d'assurer l'interpolation des structures tout en réduisant les contraintes liées à la gestion des discontinuités. Deux discrétisations de notre problème de minimisation sont suggérées : l'une utilise les moindres carrés glissants avec des critères optiques pour la gestion des discontinuités, et l'autre utilise des fonctions issues de la méthode des éléments finis avec le concept de nœuds fantômes pour les discontinuités. Une étude de sensibilité et une comparaison des deux méthodes sont proposées en 2D, ainsi que quelques exemples en 3D. Les méthodes développées dans cette thèse ont un grand impact en termes d'efficacité numérique et de gestion de cas géologiques complexes. Par exemple, il est montré que notre problème de minimisation au sens large apporte plusieurs solutions pour la gestion de cas de plis sous-échantillonnés et de variations d'épaisseur dans les couches stratigraphiques. D'autres applications sont également présentées tels que la modélisation d'enveloppe de sel et la restauration mécanique. / Implicit structural modeling consists in approximating geological structures into a numerical model for visualization, estimations, and predictions. It uses numerical data interpreted from the field to construct a volumetric function on the domain of study that represents the geology. The function must fit the observations, interpolate in between, and extrapolate where data are missing while honoring the geological concepts. Current methods support this interpolation either with the data themselves or using a mesh. Then, the modeling problem is posed depending on these discretizations: performing a dual kriging between data points or defining a roughness criterion on the mesh elements. In this thesis, we propose a continuous formulation of implicit structural modeling as a minimization of a sum of generic functionals. The data constraints are enforced by discrete functionals, and the interpolation is controlled by continuous functionals. This approach enables to (i) develop links between the existing methods, (ii) suggest new discretizations of the same modeling problem, and (iii) modify the minimization problem to fit specific geological issues without any dependency on the discretization. Another focus of this thesis is the efficient handling of discontinuities, such as faults and unconformities. Existing methods require either to define volumetric zones with complex geometries, or to mesh volumes with conformal elements to the discontinuity surfaces. We show, by investigating local meshless functions and mesh reduction concepts, that it is possible to reduce the constraints related to the discontinuities while performing the interpolation. Two discretizations of the minimization problem are then suggested: one using the moving least squares functions with optic criteria to handle discontinuities, and the other using the finite element method functions with the concept of ghost nodes for the discontinuities. A sensitivity analysis and a comparison study of both methods are performed in 2D, with some examples in 3D. The developed methods in this thesis prove to have a great impact on computational efficiency and on handling complex geological settings. For instance, it is shown that the minimization problem provides the means to manage under-sampled fold structures and thickness variations in the layers. Other applications are also presented such as salt envelope surface modeling and mechanical restoration.
160

Elaboration et validation de Critères Ergonomiques pour les Interactions Homme-Environnements Virtuels

BACH, Cédric 28 October 2004 (has links) (PDF)
Le manque d'utilisabilité des Environnements Virtuels (EVs) est un obstacle majeur à leur utilisation à grande échelle dans de nombreux domaines d'activités professionnels. Ces environnements informatisés présentent plusieurs spécificités (i.e., recours à la 3D, à la multimodalité, etc.) non prises en compte par les méthodes classiques d'évaluation de l'utilisabilité. Il est pourtant nécessaire de disposer de méthodes permettant d'apprécier leur qualité ergonomique. Cette thèse développe les différentes étapes d'élaboration et de validation des Critères Ergonomiques (C.E.) adaptés aux Interactions Homme-Environnements Virtuels. Une première étape a consisté à définir les C.E. à partir de l'élaboration et de la classification de recommandations ergonomiques, dédiées aux EVs, issues de la littérature du domaine. Sur la base de 170 recommandations, 20 critères élémentaires ont été identifiés, définis, justifiés et illustrés. Cette étape est le fondement de l'adaptation des C.E. aux EVs. Une seconde étape a permis de valider les C.E. lors d'une tâche d'affectation où 10 spécialistes de l'ergonomie des logiciels ont affecté correctement aux critères principaux 68% des difficultés d'interactions qui leur ont été présentées. Cette étape a également permis de mettre en lumière les C.E. bien compris et ceux qui nécessitent des améliorations. Une troisième étape a comparé expérimentalement les performances dans trois situations d'évaluations ergonomiques de 2 EVs : tests utilisateurs, inspection à l'aide des C.E. et inspection libre. Les résultats de cette expérimentation montrent que les C.E. offrent une performance d'évaluation significativement plus élevée que celle des inspections libres, ils montrent également que les C.E. et les tests utilisateurs permettent des performances d'évaluations équivalentes. D'autres aspects des méthodes tels que le type de problèmes identifiés, l'homogénéité interne et les recouvrements entre chaque méthode sont comparés.

Page generated in 0.0367 seconds