• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 75
  • 11
  • 2
  • Tagged with
  • 209
  • 89
  • 46
  • 33
  • 33
  • 32
  • 32
  • 32
  • 31
  • 30
  • 26
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Résolution de problèmes inverses en géodésie physique / On solving some inverse problems in physical geodesy

Abdelmoula, Amine 20 December 2013 (has links)
Ce travail traite de deux problèmes de grande importances en géodésie physique. Le premier porte sur la détermination du géoïde sur une zone terrestre donnée. Si la terre était une sphère homogène, la gravitation en un point, serait entièrement déterminée à partir de sa distance au centre de la terre, ou de manière équivalente, en fonction de son altitude. Comme la terre n'est ni sphérique ni homogène, il faut calculer en tout point la gravitation. A partir d'un ellipsoïde de référence, on cherche la correction à apporter à une première approximation du champ de gravitation afin d'obtenir un géoïde, c'est-à-dire une surface sur laquelle la gravitation est constante. En fait, la méthode utilisée est la méthode de collocation par moindres carrés qui sert à résoudre des grands problèmes aux moindres carrés généralisés. Le seconde partie de cette thèse concerne un problème inverse géodésique qui consiste à trouver une répartition de masses ponctuelles (caractérisées par leurs intensités et positions), de sorte que le potentiel généré par eux, se rapproche au maximum d'un potentiel donné. Sur la terre entière une fonction potentielle est généralement exprimée en termes d'harmoniques sphériques qui sont des fonctions de base à support global la sphère. L'identification du potentiel cherché se fait en résolvant un problème aux moindres carrés. Lorsque seulement une zone limitée de la Terre est étudiée, l'estimation des paramètres des points masses à l'aide des harmoniques sphériques est sujette à l'erreur, car ces fonctions de base ne sont plus orthogonales sur un domaine partiel de la sphère. Le problème de la détermination des points masses sur une zone limitée est traitée par la construction d'une base de Slepian qui est orthogonale sur le domaine limité spécifié de la sphère. Nous proposons un algorithme itératif pour la résolution numérique du problème local de détermination des masses ponctuelles et nous donnons quelques résultats sur la robustesse de ce processus de reconstruction. Nous étudions également la stabilité de ce problème relativement au bruit ajouté. Nous présentons quelques résultats numériques ainsi que leurs interprétations. / This work focuses on the study of two well-known problems in physical geodesy. The first problem concerns the determination of the geoid on a given area on the earth. If the Earth were a homogeneous sphere, the gravity at a point would be entirely determined from its distance to the center of the earth or in terms of its altitude. As the earth is neither spherical nor homogeneous, we must calculate gravity at any point. From a reference ellipsoid, we search to find the correction to a mathematical approximation of the gravitational field in order to obtain a geoid, i.e. A surface on which gravitational potential is constant. The method used is the method of least squares collocation which is the best for solving large generalized least squares problems. In the second problem, We are interested in a geodetic inverse problem that consists in finding a distribution of point masses (characterized by their intensities and positions), such that the potential generated by them best approximates a given potential field. On the whole Earth a potential function is usually expressed in terms of spherical harmonics which are basis functions with global support. The identification of the two potentials is done by solving a least-squares problem. When only a limited area of the Earth is studied, the estimation of the point-mass parameters by means of spherical harmonics is prone to error, since they are no longer orthogonal over a partial domain of the sphere. The point-mass determination problem on a limited region is treated by the construction of a Slepian basis that is orthogonal over the specified limited domain of the sphere. We propose an iterative algorithm for the numerical solution of the local point mass determination problem and give some results on the robustness of this reconstruction process. We also study the stability of this problem against added noise. Some numerical tests are presented and commented.
52

Introducing complex dependency structures into supervised components-based models / Structures de dépendance complexes pour modèles à composantes supervisées

Chauvet, Jocelyn 19 April 2019 (has links)
Une forte redondance des variables explicatives cause de gros problèmes d'identifiabilité et d'instabilité des coefficients dans les modèles de régression. Même lorsque l'estimation est possible, l'interprétation des résultats est donc extrêmement délicate. Il est alors indispensable de combiner à leur vraisemblance un critère supplémentaire qui régularise l'estimateur. Dans le sillage de la régression PLS, la stratégie de régularisation que nous considérons dans cette thèse est fondée sur l'extraction de composantes supervisées. Contraintes à l'orthogonalité entre elles, ces composantes doivent non seulement capturer l'information structurelle des variables explicatives, mais aussi prédire autant que possible les variables réponses, qui peuvent être de types divers (continues ou discrètes, quantitatives, ordinales ou nominales). La régression sur composantes supervisées a été développée pour les GLMs multivariés, mais n'a jusqu'alors concerné que des modèles à observations indépendantes.Or dans de nombreuses situations, les observations sont groupées. Nous proposons une extension de la méthode aux GLMMs multivariés, pour lesquels les corrélations intra-groupes sont modélisées au moyen d'effets aléatoires. À chaque étape de l'algorithme de Schall permettant l'estimation du GLMM, nous procédons à la régularisation du modèle par l'extraction de composantes maximisant un compromis entre qualité d'ajustement et pertinence structurelle. Comparé à la régularisation par pénalisation de type ridge ou LASSO, nous montrons sur données simulées que notre méthode non seulement permet de révéler les dimensions explicatives les plus importantes pour l'ensemble des réponses, mais fournit souvent une meilleure prédiction. La méthode est aussi évaluée sur données réelles.Nous développons enfin des méthodes de régularisation dans le contexte spécifique des données de panel (impliquant des mesures répétées sur différents individus aux mêmes dates). Deux effets aléatoires sont introduits : le premier modélise la dépendance des mesures relatives à un même individu, tandis que le second modélise un effet propre au temps (possédant donc une certaine inertie) partagé par tous les individus. Pour des réponses Gaussiennes, nous proposons d'abord un algorithme EM pour maximiser la vraisemblance du modèle pénalisée par la norme L2 des coefficients de régression. Puis nous proposons une alternative consistant à donner une prime aux directions les plus "fortes" de l'ensemble des prédicteurs. Une extension de ces approches est également proposée pour des données non-Gaussiennes, et des tests comparatifs sont effectués sur données Poissonniennes. / High redundancy of explanatory variables results in identification troubles and a severe lack of stability of regression model estimates. Even when estimation is possible, a consequence is the near-impossibility to interpret the results. It is then necessary to combine its likelihood with an extra-criterion regularising the estimates. In the wake of PLS regression, the regularising strategy considered in this thesis is based on extracting supervised components. Such orthogonal components must not only capture the structural information of the explanatory variables, but also predict as well as possible the response variables, which can be of various types (continuous or discrete, quantitative, ordinal or nominal). Regression on supervised components was developed for multivariate GLMs, but so far concerned models with independent observations.However, in many situations, the observations are grouped. We propose an extension of the method to multivariate GLMMs, in which within-group correlations are modelled with random effects. At each step of Schall's algorithm for GLMM estimation, we regularise the model by extracting components that maximise a trade-off between goodness-of-fit and structural relevance. Compared to penalty-based regularisation methods such as ridge or LASSO, we show on simulated data that our method not only reveals the important explanatory dimensions for all responses, but often gives a better prediction too. The method is also assessed on real data.We finally develop regularisation methods in the specific context of panel data (involving repeated measures on several individuals at the same time-points). Two random effects are introduced: the first one models the dependence of measures related to the same individual, while the second one models a time-specific effect (thus having a certain inertia) shared by all the individuals. For Gaussian responses, we first propose an EM algorithm to maximise the likelihood penalised by the L2-norm of the regression coefficients. Then, we propose an alternative which rather gives a bonus to the "strongest" directions in the explanatory subspace. An extension of these approaches is also proposed for non-Gaussian data, and comparative tests are carried out on Poisson data.
53

Recalage non rigide d'images médicales volumiques : contributions aux approches iconiques et géométriques

Cachier, Pascal 29 January 2002 (has links) (PDF)
Le recalage non rigide d'images est un problème classique en vision par ordinateur qui revient à déformer une image afin qu'elle ressemble à une autre. Les techniques existantes, très nombreuses, sont généralement répertoriées selon l'information utilisée pour le recalage. D'un côté les algorithmes iconiques utilisent l'intensité des images. De l'autre, les algorithmes géométiques utilisent des amers géométriques extraits des images, comme les bords d'un objet. Dans cette thèse, nous montrons d'abord que cette classification n'est pas assez fine pour expliquer certaines différences fondamentales dans le comportement de certains algorithmes. Nous proposons de ce fait de diviser la classe des algorithmes iconiques en deux : nous distinguons d'une part les algorithmes iconiques standard, et d'autre part les algorithmes de recalage d'amers iconiques. Nous introduisons une énergie générale de recalage d'amers iconiques, puis nous développons des instances particulières de cette énergie ayant des propriétés spéciales selon l'application visée : ajout de contraintes géométriques supplémentaires, invariance au biais non uniforme, régularisation vectorielle avec des effets croisés, invariance par échange des images. Nous montrons des applications de nos algorithmes en suivi du mouvement dans des séquences échographiques tridimensionnelles, en relage intersujet de cerveaux, et en interpolation de formes et d'intensités.
54

Rayonnement acoustique dans un fluide en écoulement : analyse mathématique et numérique de l'équation de Galbrun

Legendre, Guillaume 29 September 2003 (has links) (PDF)
Les travaux de cette thèse concernent la simulation numérique de la propagation acoustique dans un fluide en écoulement, en régime périodique établi. Le modèle retenu est l'équation de Galbrun, qui modélise la propagation linéaire d'ondes en présence d'un écoulement de fluide parfait en évolution adiabatique et porte sur le déplacement lagrangien. L'analyse mathématique montre qu'une méthode d'éléments finis nodaux ne permet pas, en général, d'approcher la solution de l'équation, les résultats étant alors fortement pollués par des modes numériques "parasites". Dans la première partie de la thèse, nous proposons une méthode de régularisation de l'équation pour laquelle nous prouvons la convergence d'une approximation par éléments finis nodaux pour des problèmes de diffraction dans un conduit en présence d'écoulements subsoniques uniforme ou cisaillé. La deuxième partie du document est consacrée à la construction et l'étude de couches absorbantes parfaitement adaptées, dites PML, pour le rayonnement d'une source localisée en présence d'un écoulement uniforme et dans un conduit. Nous traitons successivement le cas d'une source irrotationnelle, qui conduit à un problème scalaire, et celui d'une source quelconque. Un principe d'absorption limite est établi dans le cas général et nous démontrons un résultat de convergence exponentielle de la méthode de PML en fonction de la longueur des couches. Des résultats numériques illustrant ces approches sont présentés.
55

Sur un problème inverse de type Cauchy en théorie des plaques minces élastiques

Eyimi Mintoo Ebang, Azariel Paul 20 January 2011 (has links) (PDF)
Dans cette thèse, nous résolvons un problème inverse de type Cauchy associé à l'opérateur biharmonique. Pour des données compatibles, comme ce problème est mal posé au sens d'Hadamard, nous utilisons la méthode de régularisation évanescente. Elle est itérative. Son originalité est de faire intervenir, à chaque itération, un problème d'optimisation bien posé qui dépend d'un terme de régularisation dont les effets se dissipent à la limite du processus itératif. Cette limite n'est autre que la solution du problème de Cauchy. Pour adapter des algorithmes élaborés pour les problèmes de Cauchy associés au laplacien, nous factorisons le problème initial en deux problèmes inverses de Cauchy pour l'opérateur harmonique. Les résultats principaux sont la convergence de la solution discrète vers la solution continue et l'efficacité de la méthode à gérer numériquement, via les éléments finis, le problème factorisé sur différents domaines, même lorsque les données sont bruitées.
56

Application de l'apprentissage artificiel à la prévision des crues éclair

Toukourou, Mohamed Samir 10 December 2009 (has links) (PDF)
L'objet de cette thèse est d'appliquer l'apprentissage statistique à la prévision des crues éclair cévenoles qui ont occasionné des pertes humaines et des dégâts considérables durant ces 20 dernières années. Les travaux s'inscrivent dans le cadre du projet Bassin Versant Numérique Expérimental Gardons. Dans ce contexte, ce mémoire se propose de présenter les travaux effectués pour réaliser la prévision des crues du Gardon d'Anduze à Anduze, jusqu'à un horizon de prévision de l'ordre de grandeur du temps de concentration, en l'absence de prévision de pluie, par des méthodes d'apprentissage statistique. La première partie de ce mémoire s'attache donc à présenter la famille de fonctions choisies pour réaliser cette tâche - les réseaux de neurones utilisés pour la prévision du comportement d'un processus dynamique non linéaire -, les propriétés fondamentales qui justifient leur utilisation de ces réseaux de neurones (l'approximation universelle et la parcimonie), ainsi que les méthodes connues pour éviter le surajustement. La deuxième partie de ce mémoire présente le cours d'eau qui constitue l'objet de l'étude : le Gardon d'Anduze et ses Gardonnades ainsi que les études hydrologiques qui y sont consacrées. La troisième partie s'intéresse à la mise en œuvre de méthodes de régularisation connues : la modération des poids et l'arrêt précoce. L'efficacité de ces méthodes est connue, mais il a fallu les adapter dans ce travail pour parvenir à estimer le comportement très intense d'un événement extrême. Le mémoire montre comment éviter les phénomènes de spécialisation observés en fonction de l'ensemble d'arrêt, et il introduit la validation croisée partielle, qui est en fait spécialisée sur les événements intenses. C'est grâce à l'établissement d'une typologie des événements, et grâce à une distribution judicieuse de ceux-ci dans les différents sous-ensembles d'apprentissage, de validation, d'arrêt et de test, qu'une procédure générale a pu être établie pour définir ces sous-ensembles et concevoir le modèle de prévision. Les performances du modèle obtenu en prévision permettent d'envisager qu'une alerte fiable soit disponible sur Internet par l'intermédiaire du SCHAPI et de son site vigicrues, rendant ainsi une aide précieuse aux populations. Ainsi, ce mémoire établit que, contrairement à ce que l'on peut lire dans de nombreuses publications sur les réseaux de neurones appliqués à la prévision des crues, il n'est pas impossible de généraliser à un événement plus intense que ceux de l'ensemble d'apprentissage et il n'est pas non plus impossible d'éviter le surajustement au bruit dans les mesures. C'est également pour cela que les perspectives ouvertes par ce travail sont particulièrement importantes, tant pour intégrer de l'adaptativité dans le modèle que pour généraliser leur application à des bassins versants non jaugés.
57

Imagerie par résonance magnétique du tenseur de diffusion (IRM-TD) en imagerie cardiaque humaine : traitements et premi`eres interprétations

Frindel, Carole 04 December 2009 (has links) (PDF)
Cette thèse a pour cadre l'étude de l'organisation spatiale des fibres du muscle cardiaque à partir de séries d'images tridimensionnelles acquises par IRM du Tenseur de Diffusion (IRMTD). Cette organisation constitue une propriété fondamentale du coeur sous-tendant la fonction contractile. Néanmoins elle est très complexe à obtenir au vu des difficultés inhérentes au mouvements cardiaque et respiratoire. Notre objectif consiste à développer de nouvelles approches, basées sur la prise en compte du mouvement du coeur et de la sensibilité au bruit de l'acquisition, pour l'estimation, l'analyse et la visualisation des fibres du myocarde. Dans ce cadre, mes travaux se déclinent selon trois axes principaux. Le premier compare, dans le contexte d'études cliniques ex vivo, les principales approches de régularisation opérant soit sur les images pondérées en diffusion soit sur les champs de tenseurs de diffusion. Les différences sont suffisamment faibles pour conclure que la qualité de nos données IRMTD est suffisante pour considérer toutes les méthodes de régularisation comme équivalentes. Partant de ce constat, une méthode de régularisation simple et rapide apparaî satisfaisante. Le second concerne la mise en place d'une méthode de tractographie spécialement conçue pour la spécificité cardiaque. Celle-ci est guidée par une fonctionnelle de coût globale qui permet l'estimation automatique des fibres cardiaques en une seule fois pour l'ensemble des données, et ce sans l'utilisation de points d'initialisation. Le dernier axe consiste en la distinction d'une population de fibres cardiaques en sous-groupes. Celle-ci s'appuie sur la comparaison de méthodes de classification de type géométrique et de type topologique exploitant toutes trois modes différents de représentation des fibres. Les résultats établissent que la classification pourrait permettre l'identification automatique de régions spécialisées dans le myocarde, ce qui pourrait grandement faciliter l'analyse et la comparaison des données IRMTD cardiaques pour la conception de thérapies patient-spécifiques.
58

Imagerie par résonance magnétique à haute résolution temporelle: Développement d'une méthode d'acquisition parallèle tridimensionnelle pour l'imagerie fonctionnelle cérébrale

Rabrait, Cécile 16 November 2007 (has links) (PDF)
La séquence d'Imagerie Echo Planaire est largement utilisée pour l'acquisition des séries temporelles d'images nécessaires aux études d'imagerie fonctionnelle cérébrale. Cette séquence permet d'acquérir une trentaine de coupes couvrant le cerveau entier, avec une résolution spatiale de 2 à 4 mm et une résolution temporelle de 1 à 2 s. Elle est donc bien adaptée à l'analyse exploratoire des aires cérébrales activées, mais ne permet pas d'étudier précisément la dynamique temporelle de l'activation. Par ailleurs, une interpolation temporelle des données est nécessaire pour tenir compte des délais inter-coupes et l'acquisition 2D est source d'artéfacts d'origine vasculaire, en particulier à bas champs magnétiques. Afin d'améliorer l'estimation de la réponse cérébrale, cette thèse a eu pour objet le développement d'une séquence d'acquisition 3D à haute résolution temporelle, à 1.5T. Pour cela, la séquence d'Imagerie Echo Volume (EVI) a été combinée avec l'utilisation de l'imagerie parallèle et l'acquisition de champs de vue réduits. L'EVI permet l'acquisition d'un volume de l'espace de Fourier après une unique impulsion d'excitation, mais requiert des trains d'échos très longs. L'imagerie parallèle et la réduction des champs de vue permettent de réduire la durée des trains d'échos et de réaliser l'acquisition d'un volume de cerveau, avec peu de distorsions géométriques et de pertes de signal, en 200 ms. Tous les paramètres d'acquisition ont été optimisés afin de maximiser le rapport signal sur bruit de l'EVI localisé parallèle et de pouvoir détecter les activations cérébrales de manière robuste. La détection des activations cérébrales a été mise en évidence avec des paradigmes de stimulation visuels et auditifs, et des fonctions de réponses hémodynamiques à haute résolution temporelle ont pu être extraites. Afin d'améliorer le rapport signal sur bruit, les inversions matricielles nécessaires à la reconstruction parallèle ont été régularisées et l'influence du niveau de régularisation sur la détection des activations a été étudiée. Finalement, quelques applications potentielles de l'EVI parallèle ont été expérimentées, telles que l'étude des non-stationnarités de la réponse BOLD.
59

Approximation du temps local et intégration par régularisation

Berard Bergery, Blandine 16 October 2007 (has links) (PDF)
Cette thèse s'inscrit dans la théorie de l'intégration par régularisation de Russo et Vallois. La première partie est consacrée à l'approximation du temps local des semi-martingales continues. On montre que, si $X$ est une diffusion réversible, alors $ \frac{1}{\epsilon}\int_0^t \left( \indi_{\{ y < X_{s+\epsilon}\}} - \indi_{\{ y < X_{s}\}} \right) \left( X_{s+\epsilon}-X_{s} \right)ds$ converge vers $L_t^y(X)$, en probabilité uniformément sur les compacts, quand $\epsilon \to 0$. De ce premier schéma, on tire deux autres schémas d'approximation du temps local, l'un valable pour les semi-martingales continues, l'autre pour le mouvement Brownien standard. Dans le cas du mouvement Brownien, une vitesse de convergence dans $L^2(\Omega)$ et un résultat de convergence presque sûre sont établis. La deuxième partie de la thèse est consacrée à l'intégrale "forward" et à la variation quadratique généralisée, définies par des limites en probabilité de famille d'intégrales. Dans le cas Höldérien, la convergence presque sûre est établie. Enfin, on montre la convergence au second ordre pour une série de processus particuliers.
60

Etude du traitement de données gravimétriques acquises lors de levés aériens

Abbasi, Madjid 10 July 2006 (has links) (PDF)
La méthode classique de traitement des données aérogravimétriques par filtrage fréquentiel ne prend pas en compte les propriétés statistiques des mesures, telles les corrélations, et ne permet pas une estimation aisée des erreurs sur le champ de gravité. Nous avons donc développé une nouvelle méthode de réduction par inversion régularisée au sens des moindres carrés, basée sur la transformation de l'équation différentielle du gravimètre en équation intégrale, qui permet cette estimation. Nous avons appliqué cette nouvelle méthode avec succès à la modélisation du champ de gravité dans le domaine des moyennes longueurs d'ondes sur la partie Sud-Ouest des Alpes avec une précision interne de 3 mGal. Les données utilisées ont été acquises avec un gravimètre « LaCoste & Romberg modèle Air/Sea » lors d'un levé gravimétrique aéroporté réalisé en 1998 dans le cadre du programme national de recherche « GéoFrance 3D ».

Page generated in 0.0992 seconds