• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 515
  • 218
  • 51
  • 3
  • 1
  • 1
  • Tagged with
  • 787
  • 286
  • 190
  • 137
  • 127
  • 98
  • 97
  • 91
  • 88
  • 86
  • 80
  • 77
  • 76
  • 74
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

La créativité en réseau : une expérience collaborative d'écriture libre sur Internet

Boaca, Maura January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
42

Apprentissage en résolution de problèmes : influence du mode d'instruction / Learning and problem solving : instructional design

Dupays, Aurore 06 January 2011 (has links)
Face à des situations d’apprentissage de nombreux processus cognitifs peuvent être mis en œuvre par les apprenants en vue de créer de nouvelles traces mnésiques (mémorisation d'exemplaires ou abstraction de connaissances notamment). Depuis plusieurs décennies de nombreuses recherches ont mis en évidence que la mise en œuvre privilégiée de l’un ou l’autre de ces processus est fonction de différents paramètres : particularités interindividuelles, niveaux des apprenants, oucaractéristiques de la tâche. Notre thèse porte sur ce dernier point : sur les liens entre certaines caractéristiques du matériel à apprendre et les processus cognitifs des apprenants. Plus particulièrement, nous nous intéressons à la question de l'impact du mode de présentation de problèmes, étudiés par des apprenants en vue de progresser. Si de nombreux travaux ont déjà porté sur la structuration interne des problèmes et leur lien avec les mécanismes cognitifs (cf. Sweller et al, 2000), très peu de recherches ont porté sur les effets du mode de présentation et d'organisation de plusieurs problèmes de difficultés similaires ou différentes. C'est pourquoi nous avons mené ce travail de recherche. Afin de mieux comprendre les interrelations entre la résolution de problèmes et l'apprentissage de connaissances qui peut en découler. / No english summary
43

Image restoration in the presence of Poisson-Gaussian noise / Restauration d'images dégradées par un bruit Poisson-Gauss

Jezierska, Anna Maria 13 May 2013 (has links)
Cette thèse porte sur la restauration d'images dégradées à la fois par un flou et par un bruit. Une attention particulière est portée aux images issues de la microscopie confocale et notamment celles de macroscopie. Dans ce contexte, un modèle de bruit Poisson-Gauss apparaît bien adapté car il permet de prendre en compte le faible nombre de photons et le fort bruit enregistrés simultanément par les détecteurs. Cependant, ce type de modèle de bruit a été peu exploité car il pose de nombreuses difficultés tant théoriques que pratiques. Dans ce travail, une approche variationnelle est adoptée pour résoudre le problème de restauration dans le cas où le terme de fidélité exact est considéré. La solution du problème peut aussi être interprétée au sens du Maximum A Posteriori (MAP). L'utilisation d'algorithmes primaux-duaux récemment proposés en optimisation convexe permet d'obtenir de bons résultats comparativement à plusieurs approches existantes qui considèrent des approximations variées du terme de fidélité. En ce qui concerne le terme de régularisation de l'approche MAP, des approximations discrète et continue de la pseudo-norme $ell_0$ sont considérées. Cette mesure, célèbre pour favoriser la parcimonie, est difficile à optimiser car elle est, à la fois, non convexe et non lisse. Dans un premier temps, une méthode basée sur les coupures de graphes est proposée afin de prendre en compte des à priori de type quadratique tronqué. Dans un second temps, un algorithme à mémoire de gradient de type Majoration-Minimisation, dont la convergence est garantie, est considéré afin de prendre en compte des a priori de type norme $ell_2-ell_0$. Cet algorithme permet notamment d'obtenir de bons résultats dans des problèmes de déconvolution. Néanmoins, un inconvénient des approches variationnelles est qu'elles nécessitent la détermination d'hyperparamètres. C'est pourquoi, deux méthodes, reposant sur une approche Espérance-Maximisation (EM) sont proposées, dans ce travail, afin d'estimer les paramètres d'un bruit Poisson-Gauss: (1) à partir d'une série temporelle d'images (dans ce cas, des paramètres de « bleaching » peuvent aussi être estimés) et (2) à partir d'une seule image. De manière générale, cette thèse propose et teste de nombreuses méthodologies adaptées à la prise en compte de bruits et de flous difficiles, ce qui devrait se révéler utile pour des applications variées, au-delà même de la microscopie / This thesis deals with the restoration of images corrupted by blur and noise, with emphasis on confocal microscopy and macroscopy applications. Due to low photon count and high detector noise, the Poisson-Gaussian model is well suited to this context. However, up to now it had not been widely utilized because of theoretical and practical difficulties. In view of this, we formulate the image restoration problem in the presence of Poisson-Gaussian noise in a variational framework, where we express and study the exact data fidelity term. The solution to the problem can also be interpreted as a Maximum A Posteriori (MAP) estimate. Using recent primal-dual convex optimization algorithms, we obtain results that outperform methods relying on a variety of approximations. Turning our attention to the regularization term in the MAP framework, we study both discrete and continuous approximation of the $ell_0$ pseudo-norm. This useful measure, well-known for promoting sparsity, is difficult to optimize due to its non-convexity and its non-smoothness. We propose an efficient graph-cut procedure for optimizing energies with truncated quadratic priors. Moreover, we develop a majorize-minimize memory gradient algorithm to optimize various smooth versions of the $ell_2-ell_0$ norm, with guaranteed convergence properties. In particular, good results are achieved on deconvolution problems. One difficulty with variational formulations is the necessity to tune automatically the model hyperparameters. In this context, we propose to estimate the Poisson-Gaussian noise parameters based on two realistic scenarios: one from time series images, taking into account bleaching effects, and another from a single image. These estimations are grounded on the use of an Expectation-Maximization (EM) approach.Overall, this thesis proposes and evaluates various methodologies for tackling difficult image noise and blur cases, which should be useful in various applicative contexts within and beyond microscopy
44

Simulation-inversion des diagraphies / Simulation-inversion of logs

Vandamme, Thibaud 12 November 2018 (has links)
L’évaluation des formations géologiques consiste en l’analyse et la synthèse de données de différentes sources, de différentes échelles (microscopique à kilométrique) et acquises à des dates très variables. Le processus conventionnel de caractérisation des formations relève alors de l’interprétation physique spécialisée de chacune de ces sources de données et leur mise en cohérence par des processus de synthèse essentiellement d’ordre statistique (corrélation, apprentissage, up-scaling…). Il s’avère cependant qu’une source de données présente un caractère central : les diagraphies. Ces mesures physiques de différentes natures (nucléaires, acoustiques, électromagnétiques…) sont réalisées le long de la paroi d’un puits à l’aide de différentes sondes. Elles sont sensibles aux propriétés in situ des roches, et ce, sur une gamme d’échelle centimétrique à métrique intermédiaire aux carottes et données de test de production. De par leur profondeur d’investigation, les données diagraphiques sont particulièrement sensibles au phénomène d’invasion de boue se produisant lors du forage dans l’abord puits. Traditionnellement, l’invasion est modélisée de façon frustre au moment de l’interprétation diagraphiques par un simple effet piston. Ce modèle simple permet d’honorer le bilan de volume mais ne prend aucunement en compte la physique réelle d’invasion et prive, de fait, les diagraphies de toute portée dynamique. Des essais de modélisation de l’historique d’invasion couplés aux données diagraphiques ont déjà été élaborés par différents laboratoires et une abondante littérature sur le sujet est disponible. Les limitations majeures de ces approches résident dans le caractère sous déterminé des problèmes inverses issus de ces modèles physiques et dans le fait que la donnée diagraphique est réalisée en général sur un intervalle de temps inadaptée au regard du développement de l’invasion. Nous proposons une approche différente qui s’attèle non pas à décrire la physique de l’écoulement mais celle de l’équilibre radial des fluides dans le domaine envahi lorsque les diagraphies sont acquises. Nous montrons qu’en introduisant quelques contraintes pétrophysiques supplémentaires, il est possible d’inverser efficacement la distribution des propriétés dynamiques pour chaque faciès géologique. L’inversion prend en compte le phénomène d’invasion radial dans la zone à eau ainsi que l’équilibre capillaire vertical caractérisant le profil de saturation dans le réservoir pour chaque facies. A chaque profondeur du puits, sont ainsi obtenues perméabilités, pressions capillaires et facteurs de cimentation avec leurs incertitudes ainsi que les lois pétrophysiques propres à chaque faciès. Cette méthode a été appliquée à deux puits réels. En guise de validation, les résultats d’inversion ont été comparés aux mesures laboratoire faites sur carotte. De plus, les perméabilités inversées ont été comparées aux transitoires de pression de mini-tests. La cohérence des résultats montre que, d’une part, les hypothèses de base du modèle sont validées et que, d’autre part, l’approche fournit une estimation fiable de grandeurs dynamiques à toute échelle pour chaque faciès réservoir, et ce, dès l’acquisition des données diagraphiques. L’approche d’inversion proposée a permis de lever une limitation majeure des précédentes tentatives de prédiction des propriétés dynamiques par les diagraphies en reconsidérant la problématique non pas sous l’angle d’une modélisation phénoménologique exacte mais en l’abordant de manière globale à l’échelle d’une chaîne d’étude complète. Cette approche permet de fait une mise en cohérence très précoce des données, d’identifier les faciès d’intérêt et de qualifier les besoins véritables en données. Cet outil s’avère très puissant pour qualifier et caractériser les hétérogénéités pétrophysiques des formations et aider ainsi à résoudre le problème de mise à l’échelle des grandeurs dynamiques / The current geological formation evaluation process is built on a workflow using data from differentsources, different scales (microscopic to kilometric) and acquired at different times. Theconventional process of formation evaluation belongs to the dedicated study of each of thesesource of data and their reconciliation through a synthesis step, often based on statisticalconsideration (correlation, learning, up-scaling …). It turns out that there exists a source of datawhich is of considerable importance: logs. These physical measurements of different nature(nuclear, acoustic, electro-magnetic…) are acquired all across the well thanks to multiple probes.They are sensitive to the in situ properties of the rock on an intermediate scale between core dataand well tests (from centimeters to several meters). Because of their depth of investigation, logsare particularly sensitive to the mud filtrate invasion, a phenomenon which occurs during thedrilling in the near well-bore environment. The invasion is conventionally modeled in a rough waywith a piston effect hypothesis. This simple model allows to ensure the volume balance but doesnot take into account the physical processes of the invasion and thus prevent any estimation ofdynamic properties from log interpretation. Several attempts of simulating the complete history ofinvasion have been made by different laboratories in the past, and a rich literature is available onthis topic. The major pitfalls of these approaches come from the under-determination of theinverse problems derived from such models. Furthermore, logs are generally made in a time lapsewhich does not allow to fully characterize the process of invasion. We propose a differentapproach which does not fully describe the physics of the invasion but considers that a radialequilibrium has been reached between the fluids in the invaded zone when logs are acquired. Weshow that it is possible to efficiently invert the distribution of dynamical properties for eachgeological facies by adding some petrophysical constraints. The inversion takes into account thephenomenon of radial invasion in the water zone and the vertical capillary equilibrium describingthe water saturation profile in the reservoir for each facies. At each depth, permeabilities, capillarypressures and cementation factors are thus obtained, along with their uncertainties and thepetrophysical laws specific to each facies. This method has been applied to two wells. Weobtained good results when comparing inverted parameters to the measurements made on coresamples in laboratory. Furthermore, inverted permeabilities have also been compared topermeabilities derived from mini-tests. The consistency of the results shows that, on the one hand,the hypothesis behind our model are valid and, on the other hand, this approach can provide areliable estimation of dynamical parameters at different scales for each reservoir facies as soon asthe logs are acquired. The proposed approach allows to overcome a major limitation of theprevious attempts of the dynamical properties estimation from log interpretation. It allows areconciliation of different data and a facies recognition at an early stage of interpretation, and canindicate the real contribution of each source of data. The technique can even help in identifying theformation heterogeneities and for the petrophysical upscaling.
45

Contributions to the hardness foundations of lattice-based cryptography / Contributions aux fondements de complexité de la cryptographie sur réseaux

Wen, Weiqiang 06 November 2018 (has links)
La cryptographie sur les réseaux est l’une des approches les plus compétitives pour protéger la confidentialité, dans les applications actuelles et l’ère post-quantique. Le problème central qui sert de fondement de complexité de la cryptographie sur réseaux est Learning with Errors (LWE). Il consiste à résoudre un système d’équations bruité, linéaire et surdéterminé. Ce problème est au moins aussi difficile que les problèmes standards portant sur les réseaux, tels que le décodage à distance bornée (BDD pour Bounded Distance Decoding) et le problème du vecteur le plus court unique (uSVP pour unique Shortest Vector Problem). Tous ces problèmes sont conjecturés difficiles à résoudre, même avec un ordinateur quantique de grande échelle. En particulier, le meilleur algorithme connu pour résoudre ces problèmes, BKZ, est très coûteux. Dans cette thèse, nous étudions les relations de difficulté entre BDD et uSVP, la difficulté quantique de LWE et les performances pratiques de l’algorithme BKZ. Tout d’abord, nous donnons une relation de difficulté plus étroite entre BDD et uSVP. Plus précisément, nous améliorons la réduction de BDD à uSVP d’un facteur √2, comparément à celle de Lyubashevsky et Micciancio. Ensuite, Nous apportons un nouvel élément à la conjecture que LWE est quantiquement difficile. Concrètement, nous considérons une version relâchée de la version quantique du problème du coset dièdral et montrons une équivalence computationnelle entre LWE et ce problème. Enfin, nous proposons un nouveau simulateur pour BKZ. Dans ce dernier travail, nous proposons le premier simulateur probabiliste pour BKZ, qui permet de prévoir le comportement pratique de BKZ très précisément. / Lattice-based cryptography is one of the most competitive candidates for protecting privacy, both in current applications and post quantum period. The central problem that serves as the hardness foundation of lattice-based cryptography is called the Learning with Errors (LWE). It asks to solve a noisy equation system, which is linear and over-determined modulo q. Normally, we call LWE problem as an average-case problem as all the coefficients in the equation system are randomly chosen modulo q. The LWE problem is conjectured to be hard even wtih a large scale quantum computer. It is at least as hard as standard problems defined in the lattices, such as Bounded Distance Decoding (BDD) and unique Shortest Vector Problem (uSVP). Finally, the best known algorithm for solving these problems is BKZ, which is very expensive. In this thesis, we study the quantum hardness of LWE, the hardness relations between the underlying problems BDD and uSVP, and the practical performance of the BKZ algorithm. First, we give a strong evidence of quantum hardness of LWE. Concretely, we consider a relaxed version of the quantum version of dihedral coset problem and show an computational equivalence between LWE and this problem. Second, we tighten the hardness relation between BDD and uSVP. More precisely, We improve the reduction from BDD to uSVP by a factor √2, compared to the one by Lyubashevsky and Micciancio. Third, we propose a more precise simulator for BKZ. In the last work, we propose the first probabilistic simulotor for BKZ, which can pridict the practical behavior of BKZ very precisely.
46

Planification en Distribution Urbaine : Optimisation des tournées dans un contexte collaboratif / Planning in Urban Distribution : Optimizing tours in a collaborative context

Al Chami, Zaher 18 July 2018 (has links)
De nos jours, le transport joue un rôle clé dans la vie des pays modernes, en particulier pour les flux de marchandises. La logistique des flux entre régions, pays et continents a bénéficié d’innovations technologiques et organisationnelles assurant efficacité et efficience. Il n’en a pas été de même à l’échelle urbaine, plus particulièrement dans les centres-villes : la gestion des flux dans un environnement caractérisé par une forte densité démographique n’a pas encore véritablement trouvé son modèle d’organisation. Aujourd’hui, la logistique urbaine ou encore la gestion "du dernier kilomètre" constitue donc un enjeu de premier plan, tant socio politique et environnemental qu’économique. La logistique urbaine est caractérisée par la présence de plusieurs acteurs (chargeurs ou propriétaires de marchandises, clients, transporteurs, autorités publiques, …) ayant chacun des priorités différentes (réduction de la pollution, amélioration de la qualité de service, minimisation de la distance totale parcourue, …). Pour relever ces défis, un des leviers possibles consiste à optimiser les tournées de distribution et/ou collecte de marchandises, dans le contexte et sous les contraintes de la ville.Le but de ce travail de thèse réside alors dans la planification de la distribution des marchandises dans un réseau logistique, abordée sous un angle de collaboration entre les chargeurs. Cette collaboration consiste à regrouper les demandes de divers chargeurs pour optimiser le taux de chargement des camions et obtenir de meilleurs prix de transport. Ici, la gestion du « dernier kilomètre » s’apparente à ce que l’on identifie dans la littérature comme le Pickup and Delivery Problem (PDP). Dans le cadre de cette thèse, nous nous intéressons à des variantes de ce problème plus adaptées au contexte urbain. Après avoir réalisé un état de l’art sur les problèmes d’optimisation combinatoire autour du transport et les méthodes utilisées pour leur résolution, nous étudions deux nouvelles variantes du problème de collecte et de livraison : le Selective PDP with Time Windows and Paired Demands et le Multi-periods PDP with Time Windows and Paired Demands. La première permet aux transporteurs de livrer le maximum de clients dans une journée par exemple ; avec la seconde, et en cas d’impossibilité de livraison dans cette période, on détermine la meilleure date de livraison en minimisant la distance parcourue. Chacune d’elles fait l’objet d’une description formelle, d’une modélisation mathématique sous forme de programme linéaire, puis d’une résolution par des méthodes exacte, heuristiques et métaheuristiques, dans des cas mono-objectif et multi-objectifs. La performance de chaque approche a été évaluée par un nombre substantiel de tests sur des instances de différentes tailles issues de la littérature et/ou que nous avons générées. Les avantages et les inconvénients de chaque approche sont analysés, notamment dans le cadre de la collaboration entre chargeurs. / Nowadays, transportation plays a key role in our modern countries’life, in particular for the goods flows. The logistics of flows between regions, countries and continents have benefited from technological and organizational innovations ensuring efficiency and effectiveness. It has not been the same at the urban scale, especially in city centers: the management of flows in a high population density environment has not yet found its organizational model. Today, urban logistics or "last mile" management is therefore a major issue, both socio-political and environmental as well as economic. Urban logistics is characterized by several actors (shippers or owners of goods, customers, carriers, public authorities, ...) each with different priorities (reduction of pollution, improvement of service quality, minimization of total distance traveled, ...). To overcome these challenges, one possible lever is to optimize the distribution and/or collection of goods in the context and under the constraints of the city.The goal of this PhD work is then to plan the distribution of goods in a logistics network, approached from a collaboration angle between shippers. This collaboration consists in grouping the demands of several shippers to optimize the loading rate of the trucks and to obtain better transport prices. Here, managing the "last mile" is similar to what is known in the literature as the Pickup and Delivery Problem (PDP). In this thesis, we are interested in variants of this problem more adapted to the urban context. After having realized a state of the art on the combinatorial optimization problems around the transport and the methods used for their resolution, we study two new variants of the problem of collection and delivery: the Selective PDP with Windows and Paired Demands and the Multi-period PDP with Windows and Paired Demands. The first allows carriers to deliver the maximum number of customers in a day for example; with the second, and in case of impossibility of delivery in this period, we determine the best delivery date by minimizing the distance traveled. Each of them is the subject of a formal description, of a mathematical modeling in the form of a linear program, then of a resolution by exact methods, heuristics and metaheuristics, in single-objective and multi-objective cases. The performance of each approach was evaluated by a substantial number of tests on instances of different sizes from the literature and / or that we generated. The advantages and drawbacks of each approach are analyzed, in particular in the context of collaboration between shippers.
47

Recherche d'inégalités oracles pour des problèmes inverses

Marteau, Clément 28 November 2007 (has links) (PDF)
Cette thèse s'intéresse aux problèmes inverses dans un cadre statistique. A partir des observations $Y=Af+\epsilon \xi$, le but est d'approximer aussi fidèlement que possible la fonction f où $A$ représente un opérateur compact, $\epsilon>0$ le niveau de bruit et $\xi$ un bruit blanc gaussien. Etant données une procédure $f^{\star}$ et une collection d'estimateurs $\Lambda$, une inégalité<br />oracle permet de comparer, sans aucune hypothèse sur la fonction cible $f$ et d'un point de vue non-asymptotique, les performances de $f^{\star}$ à celles du meilleur estimateur dans $\Lambda$<br />connaissant $f$. Dans l'optique d'obtenir de telles inégalités, cette thèse s'articule autour de deux objectifs: une meilleure compréhension des problèmes inverses lorsque l'opérateur est<br />mal-connu et l'extension de l'algorithme de minimisation de l'enveloppe du risque (RHM) à un domaine d'application plus large.<br /> La connaissance complète de l'opérateur A est en effet une hypothèse implicite dans la plupart des méthodes existantes. Il est cependant raisonnable de penser que ce dernier puisse être en partie, voire totalement inconnu. Dans un premier temps, nous généralisons donc la méthode de Stein par blocs pénalisée ainsi que l'algorithme RHM à cette situation. Ce dernier, initié par L. Cavalier et Y. Golubev, améliore considérablement les performances de la traditionnelle méthode d'estimation du risque sans biais. Cependant, cette nouvelle procédure ne concerne que les estimateurs par projection. En pratique, ces derniers sont souvent moins performants que les estimateurs de Tikhonov ou les procédures itératives, dans un certain sens beaucoup plus fines. Dans la dernière partie, nous étendons donc l'utilisation de l'enveloppe du risque à une gamme beaucoup plus large d'estimateurs.
48

Homogénéisation et Controle Optimal pour des Problèmes de Stokes et pour un Problème de Torsion Elastique

ZOUBAIRI, Hakima 13 December 2001 (has links) (PDF)
Cette thése est consacrée à l'étude du contrôle optimal et de l'homogénéisation de problèmes liés à l'équation de Stokes ainsi qu'au problème de torsion élastique. Pour chaque problème étudié, nous imposons un contrôle à l'équation d'état. Ce contrôle appartient à un ensemble appelé ``ensemble de contrôles admissibles". On se donne une fonction coût qui dépend à la fois de l'état mais aussi du contrôle. Le contrôle optimal (unique) est la fonction dans l'ensemble de contrôles admissibles qui minimise la fonction coût pour tous les contrôles dans cette ensemble. On étudie alors le comportement limite de celui-ci. S'il admet une limite, on la caractérise si possible, comme étant le contrôle optimal associé au problème limite homogénéisé. Dans un premier temps, on étudie un problème de contrôle optimal dans un mélange de deux fluides. Ces deux fluides sont répartis périodiquement l'un par rapport à l'autre dans un domaine bi ou tridimensionnel. L'écoulement des deux fluides obéit aux équations de Stokes. Par la suite, on s'intéresse encore à un mélange de deux fluides visqueux incompressibles séparés par une interface qui oscille rapidement. Ce problème est régit par les équations de Stokes. Ensuite, on étudie le contrôle optimal pour les équations de Stokes dans les domaines perforés. On suppose que les perforations sont de taille plus petite qu'une période donnée. En dernier lieu, on est amené à étudier le contrôle optimal d'un problème de torsion élastique. Dans chacune de ces parties, on caractérise la limite du contrôle optimal comme étant le contrôle optimal du problème limite.
49

Imagerie en régime temporel

Guadarrama, Lili 04 June 2010 (has links) (PDF)
L'imagerie d'élasticité, ou élastographie consiste à imager les propriétés visco-élastiques des tissus mous du corps humain en observant la réponse en déformation à une excitation mécanique. Cette problématique a donné lieu dans les dix dernières années à de nombreux travaux, motivés par la corrélation entre présence d'une pathologie et observation d'un contraste d'élasticité. Différentes techniques peuvent être mises en œuvre selon le type d'excitation choisie, et la manière d'estimer les déformations résultantes. Parmi les techniques se trouve une très intéressante qui consiste à induire dans le tissu mou une onde de déplacement et à observer la propagation de l'onde pendant sa traversée du milieu d'intéret. La résolution d'un problème inverse permet de déduire des données de déplacement une estimation de la carte d'élasticité du milieu. L'objectif du travail présenté dans ce document est de donner un cadre mathématique rigoureux à ce technique, en même temps dessiner des méthodes effectives pour la détection des anomalies à l'aide des mesures en régime temporel. On a considère le cadre acoustique et le cadre élastique. On a développé des techniques de reconstruction efficaces pour des mesures complètes sur la frontière mais aussi pour des mesures temporelles incomplètes, on a adapté ces techniques au cadre viscoélastique, ca veut dire que les ondes sont atténué ou dispersé ou le deux. On commence pour considérer une milieu sans dissipation. On a développé des méthodes de reconstruction des anomalies qui sont basé sur des développements asymptotiques de champ proche et de champ lointain, qui sont rigoureusement établis, du perturbation des mesures cause par l'anomalie. Il faut remarquer que pour approximer l'effet de l'anomalie par un dipôle il faut couper les composant de haut fréquence des mesures de champ lointain. Le développement asymptotique de champ lointain nous permet de développer une technique de type régression temporel pour localiser l'anomalie. On propose en utilisant le développement asymptotique de champ proche une problème de optimisation pour récupérer les propriétés géométriques et les paramètres physiques de l'anomalie. On justifie d'une manière théorique et numérique que la séparation des échelles permet de séparer les différentes informations codées aux différentes échelles. On montre les différences entre le cadre acoustique et l'élastique, principalement la tache focal anisotrope et l'effet de champ proche qu'on obtient en faisant le retournement temporal de la perturbation cause par l'anomalie. Ces observations ont été observé expérimentalement. En ce qui concerne le cadre des mesures partiels, on d´eveloppe des algorithmes de type Kirchhoff, back-propagation, MUSIC et arrival-time pour localiser l'anomalie. On utilise le méthode du control géométrique pour aborder la problématique des mesures partiels, comme résultat on obtient une méthode qui est robuste en ce qui concerne aux perturbations dans la partie de la frontière qui n'est pas accessible. Si on construit de manier précise le control géométrique, on obtient la même résolution d'imagerie que dans le cadre des mesures complet. On utilise les développements asymptotiques pour expliquer comment reconstruire une petite anomalie dans un milieu visco-élastique à partir des mesures du champ de déplacement. Dans le milieu visco-élastique la fréquence obéit une loi de puissance, pour simplicité on considère le modèle Voigt qui correspond à une fréquence en puissance deux. On utilise le théorème de la phase stationnaire pour exprimer le champ dans un milieu sans effet de viscosité, que on nommera champ idéal , en termes du champ dans un milieu visco-élastique. Après on généralise les techniques d'imagerie développes pour le modelé purement élastique quasi incompressible pour reconstruire les propriétés visco-élastiques et géométriques d'une anomalie a partir des mesures du champ de déplacement.
50

Problèmes faiblement bien posés : discrétisation et applications.

Petit-Bergez, Sabrina 05 December 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la discrétisation par des schémas aux différences finies de problèmes faiblement bien posés. Nous donnons de nouvelles définitions qui prennent en compte la perte de régularité apparaissant dans les problèmes faiblement bien posés et nous étendons la condition nécessaire et suffisante de convergence de Lax-Richtmyer. En utilisant la théorie des perturbations et le développement en série de Puiseux, nous calculons le taux de convergence des schémas faisant partie d'une certaine classe. Nous illustrons numériquement nos résultats. Dans un deuxième temps, nous nous intéressons à un cas particulier de problèmes faiblement bien posés: les couches parfaitement adaptées de Bérenger ou PML. Nous donnons des estimations d'énergie pour les équations de Maxwell que nous étendons au schéma de Yee. Enfin, nous étudions le comportement asymptotique en temps de la solution d'une équation PML en utilisant l'approximation de l'optique géométrique.

Page generated in 0.047 seconds