• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 5
  • 3
  • Tagged with
  • 20
  • 20
  • 8
  • 7
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Oscillations, concentration et dispersion pour des équations d'ondes et de Schrödinger

Carles, Rémi 27 May 2005 (has links) (PDF)
Nous présentons des travaux autour de trois axes : 1- Phénomène de focalisation en un point en optique géométrique non linéaire. Les équations considérées sont principalement des équations d'ondes et de Schrödinger non linéaires. 2- Rôle des oscillations quadratiques dans les équations de Schrödinger non linéaires. 3- Equations de Schrödinger non linéaire en présence d'un potentiel extérieur.
2

Utilisation pédagogique de la simulation numérique dans une perspective de développement d'un savoir signifiant d'optique géométrique au secondaire

Niang, Mamadou 28 July 2021 (has links)
Les difficultés identifiées dans l'apprentissage des sciences expérimentales au secondaire dans le monde et plus particulièrement au Sénégal nous ont conduit à mener cette étude. Nous cherchions à comprendre, d'une part, comment lier les savoirs scolaires aux savoirs non scolaires de l'élève pour générer des savoirs qui sont signifiants pour lui et pour sa communauté. Nous voulions également comprendre, dans cette quête de sens, quel serait le rôle de la simulation informatique. Ainsi, la question de recherche à laquelle nous avons tenté de répondre est : Jusqu'à quel point peut-on développer des savoirs signifiants d'optique géométrique sur l'arc-en-ciel et la couleur chez des élèves du secondaire dans un contexte d'apprentissage utilisant la simulation informatique? La présente étude, de nature exploratoire, s'est déroulée dans un établissement d'enseignement secondaire (lycée) de l'inspection d'académie de Fatick (Sénégal). Elle est qualitative et basée sur une étude de cas. La population à l'étude était constituée de 27 élèves de classe de seconde scientifique (équivalent du secondaire 4 au Québec). Ces élèves ont été répartis en deux groupes, R (15) et S (12), pour réaliser, respectivement, un apprentissage traditionnel utilisant le matériel disponible au laboratoire et un apprentissage par la simulation utilisant un simulateur informatique. Les données recueillies des productions des élèves et des deux entrevues de groupe ont été analysées selon la méthode d'analyse de contenu. Le logiciel QDA Miner a été utilisé à cet effet pour faciliter leur traitement. Ce dernier nous a permis de procéder à des opérations de codage des unités de sens et de générer des résultats suivant une grille thématique structurée en cinq rubriques inspirées de notre cadre théorique. Les résultats de la recherche ont montré que les élèves ont des connaissances de différentes natures (scolaires, culturelles, religieuses, expérientielles, etc.) sur les phénomènes étudiés et que celles-ci sont plus ou moins compatibles, parfois conflictuelles, avec le savoir scientifique. L'analyse de la signifiance des savoirs a révélé que les savoirs non scolaires sont pertinents et valides pour eux dans leur contexte propre. Ils sont signifiants pour eux et ont contribué à une compréhension plus riche et plus complète du phénomène de l'arc-en-ciel et de la couleur. Ces résultats ont aussi montré des limites de la signifiance du savoir scolaire avec l'apparition de conflits cognitifs chez certains élèves. Ces conflits se sont manifestés lorsque la perception sensible de l'élève était en contradiction avec le savoir qu'on voulait lui enseigner ou lorsque le savoir scolaire était en contradiction avec des croyances très ancrées comme les croyances religieuses. Certains élèves n'accepteraient pas la vision réductionniste de la science qui limiterait l'arc-en-ciel à un objet de lumière et occulterait toutes les croyances qu'ils ont sur le phénomène. La signifiance du savoir scolaire se heurte ainsi à un problème de validation individuelle par l'élève. Les résultats de la recherche ont aussi montré que la simulation informatique a aidé les élèves à mieux comprendre les contenus d'apprentissage. Elle leur a donné l'opportunité de valider les connaissances scientifiques, mais également de découvrir des aspects du phénomène étudié qui sont difficiles à observer ou à réaliser en situation réelle. Elle a permis un engagement et une implication plus accrus des élèves dans l'apprentissage avec l'utilisation de leurs moyens d'apprentissage ou fonctions psychologiques selon la perspective de Jung (pensée, sentiment, sensation et intuition). Elle a permis une utilisation importante de la pensée. La simulation informatique se présente ainsi comme une bonne solution de substitution pour pallier le manque de matériel ou l'inaccessibilité du phénomène étudié et un bon outil pour développer, dans une certaine mesure, des savoirs signifiants. Mais, comme le laissaient apparaître certaines productions d'élèves, son utilisation comporte des limites. En effet, devant la simulation informatique, certains élèves étaient influencés par ce qu'ils voyaient, ce qui les a empêchés d'utiliser toute leur capacité cognitive; leur réflexion était orientée; leur créativité était limitée. De même, l'intérêt de certains élèves était plus porté sur la technologie que sur le contenu d'apprentissage. En outre, la signifiance des savoirs produits par la simulation pourrait être précaire du fait du contexte d'apprentissage ou du modèle utilisé pour réaliser le logiciel de simulation. Alors, il serait important de développer la réflexion sur l'articulation entre réalité et objets virtuels pour mieux prendre en charge cette dimension de la signifiance des savoirs. / This exploratory study seeks to understand “To what extent can we develop meaningful geometrical optics knowledge about rainbow and color in high school students in a learning context using computer simulation?”. This qualitative research, based on a case study, was conducted with 27 first-year high school students (Secondary 4 in Quebec) from a high school in Fatick (Senegal). The students were divided into two groups designated by R (15) (for traditional learning) and S (12) (for learning through simulation). The data collected was analyzed using the content analysis method. QDA Miner software was used for this purpose to facilitate their processing. The results of the research showed that students have different kinds of knowledge (academic and non-academic) about the phenomena studied and that some of this knowledge is more or less compatible or in contradiction with scientific knowledge. Non-academic knowledge is, in the same way as scientific knowledge, meaningful to them in their context and has contributed to a richer and more complete understanding of the rainbow and colour. The study showed that the significance of academic knowledge sometimes faces problems of individual validation when cognitive conflicts appear in some students. These conflicts arose when the sensitive perception of the student was in contradiction with the knowledge that is intended to be taught to him or her or when the academic knowledge is in contradiction with deeply rooted beliefs such as religious beliefs. Research results showed that computer simulation helped students gain a better understanding of the concepts taught. It has contributed to the validation of scientific knowledge and to an increased and diversified use of psychological functions. It allowed them to discover other aspects of the phenomenon that are difficult to observe in real situations. It is thus presented as a promising tool for developing meaningful knowledge. But its use has limits, since facing a simulation of a phenomenon, some students were influenced by what they were looking at, thus diverting their thinking or preventing them from using their full cognitive capacity. Furthermore, the significance of the knowledge produced by the simulation could be limited by the model used to make the simulation software. Therefore, it would be interesting to broaden reflection on the articulation between reality and virtual objects to further address this dimension of the significance of knowledge.
3

Instabilité des équations de Schrödinger

Thomann, Laurent 18 December 2007 (has links) (PDF)
Dans cette thèse on s'est intéressé à différents phénomènes d'instabilités pour des équations de Schrödinger non-linéaires.<br /> Dans la première partie on met en évidence un mécanisme de décohérence de phase pour l'équation (semi-classique) de Gross-Pitaevski en dimension 3. Ce phénomène géométrique est dû à la présence du potentiel harmonique, qui permet de construire -via une méthode de minimisation- des solutions stationnaires se concentrant sur des cercles de R^{3}.<br /> Dans la deuxième partie, on obtient un résultat d'instabilité géométrique pour NLS cubique posée sur une surface riemannienne possédant une géodésique périodique, stable et non-dégénérée. Avec une méthode WKB, on construit des quasimodes non-linéaires, qui permettent d'obtenir des solutions approchées pour des temps pour lesquels l'instabilité se produit. On généralise ainsi des travaux de Burq-Gérard-Tzvetkov pour la sphère.<br /> Enfin, dans la dernière partie on considère des équations sur-critiques sur une variété de dimension d. Grâce à une optique géométrique non-linéaire dans un cadre analytique on peut montrer un mécanisme de perte de dérivées dans les espaces de Sobolev, et une instabilité dans l'espace d'énergie.
4

Approche eulérienne de l'équation de Hamilton-Jacobi par une méthode Galerkine discontinue en milieu hétérogène anisotrope : Application à l'imagerie sismique / Eulerian approach of Hamilton-Jacobi equation with a discontinuous Galerkin method in heterogeneous anisotropic medium : Application to seismic imaging

Le Bouteiller, Philippe 06 December 2018 (has links)
Pouvoir déterminer la structure et la composition de l’intérieur de la Terre est un enjeu scientifique fondamental, pour la compréhension de l’organisation de la Terre profonde, des mécanismes des séismes et leur localisation en lien avec la prévention du risque sismique, pour la détection et l’exploitation des ressources naturelles telles que l’eau ou les hydrocarbures, ou encore pour toutes les activités de construction et de prévention associées au génie civil. Pour cela, les ondes sismiques sont un outil de choix. L’utilisation d’une approximation haute fréquence pour la modélisation de la propagation des ondes est avantageuse en termes de coût de calcul dès lors que plusieurs centaines, voire milliers, ou plus de longueurs d’ondes doivent être propagées. À la place de l’équation des ondes linéaire, l’approximation haute fréquence fournit trois équations aux dérivées partielles fondamentales. L’équation Eikonal, non linéaire, permet d’obtenir le temps de trajet. Une deuxième équation fournit l’angle d’émergence. L’équation Eikonal et l’équation des angles appartiennent toutes deux à la grande famille des équations de Hamilton-Jacobi. Enfin, l’équation de transport permet de calculer l’amplitude.Le tracé des rais sismiques est une technique lagrangienne qui utilise la méthode des caractéristiques pour obtenir un ensemble d’équations différentielles ordinaires à partir de ces équations aux dérivées partielles. Ces équations peuvent être intégrées facilement, donnant ainsi accès au temps de trajet et à l’amplitude le long des rais. Très largement utilisés dans la communauté géophysique du fait de leur simplicité, les outils de tracé de rais ne sont pas pour autant les plus efficaces et les plus robustes en pratique pour des applications d’imagerie et d’inversion haute résolution. En lieu et place, il peut être utile de résoudre directement les équations aux dérivées partielles par une méthode eulérienne. Durant les trois dernières décennies, une multitude de solveurs ont été développés pour l’équation Eikonal, la plupart utilisant la méthode des différences finies. Ces différents travaux visent à obtenir le meilleur compromis entre précision, coût de calcul, robustesse, facilité d’implémentation et souplesse d’utilisation.Dans cette thèse, je développe une approche différente, se basant principalement sur une méthode Galerkine discontinue. Dans le champ des mathématiques, cette méthode a été largement utilisée pour résoudre les lois de conservation et les équations de Hamilton-Jacobi. Très peu de travaux ont porté sur l'utilisation de cette méthode pour la résolution de l’équation Eikonal statique dans un contexte géophysique, et ce malgré le haut niveau de précision qu'elle apporte. C’est pourquoi, en me basant sur des travaux mathématiques, je propose un nouveau solveur Eikonal adapté au contexte géophysique. Les milieux hétérogènes complexes, anisotropes, et incluant des variations topographiques sont correctement pris en compte, avec une précision sans précédent. En y intégrant de manière robuste une stratégie de balayage rapide, je montre que ce solveur présente une très grande efficacité en deux comme en trois dimensions.J'utilise également ce solveur pour calculer l’angle d’émergence. Je développe par ailleurs un solveur voisin en volumes finis pour la résolution de l’équation de transport, permettant ainsi le calcul de l’amplitude. La variable d’état adjoint pour la tomographie sismique des temps et des pentes vérifiant une équation de transport semblable, je montre qu'on peut également la calculer à l'aide de ce solveur en volumes finis. En conséquence, je propose et analyse un ensemble consistant de solveurs pour la communauté géophysique. Ces outils devraient s’avérer utiles pour une large palette d’applications. Finalement, en guise d’illustration, je les utilise dans des schémas d’imagerie sismique, dans le but de démontrer le bénéfice apporté par une approximation haute fréquence dans ce type de schémas. / Recovering information on the structure and the composition of the Earth's interior is a fundamental issue for a large range ofapplications, from planetology to seismology, natural resources assessment, and civil engineering. Seismic waves are a very powerful tool for that purpose. Using a high-frequency approximation for the numerical modeling of seismic wave propagation is computationally advantageous when hundreds, thousands, or more of wavelengths have to be propagated. Instead of the linear wave equation, the high-frequency approximation yields three fundamental partial differential equations. The nonlinear Eikonal equation leads to traveltime. A second equation is derived for the take-off angle. Both Eikonal and angle equations belong to the wide Hamilton-Jacobi family of equations. In addition, the transport equation leads to the amplitude.As a Lagrangian approach, seismic ray tracing employs the method of characteristics to derive a set of ordinary differential equations from these partial differential equations. They can be easily integrated, thus yielding traveltime and amplitude along rays. Widely used in the geophysical community for their simplicity, the ray-tracing tools might not be the most efficient and robust ones for practical high-resolution imaging and inversion applications. Instead, it might be desirable to directly solve the partial differential equations in an Eulerian way. In the three last decades, plenty of Eikonal solvers have been designed, mostly based on finite-difference methods. Successive works try to find the best compromise between accuracy, computational efficiency, robustness, ease of implementation, and versatility.In this thesis, I develop a different approach, mainly based on the discontinuous Galerkin method. This method has been intensively used in the mathematical field for solving conservation laws and time-dependent Hamilton-Jacobi equations. Only few investigations have been done regarding its use for solving the static Eikonal equation in a geophysical context, despite the high level of accuracy allowed by this method. Therefore, improving upon mathematical studies, I propose a new Eikonal solver suitable for the geophysical context. Complex heterogeneous anisotropic media with non-flat topographies are correctly handled, with an unprecedented accuracy. Combined with a fast-sweeping strategy in a robust way, I show that this new solver exhibits a high computational efficiency, in two dimensions as well as in three dimensions.I also employ this solver for the computation of the take-off angle. I design an additional finite-volume solver for solving the transport equation, leading to the computation of amplitude. With this solver, I also consider the computation of the adjoint-state variable for seismic tomography, since it satisfies a similar transport equation. Eventually, I propose a whole set of consistent solvers to the geophysical community. These tools should be useful in a wide range of applications. As an illustration, I finally use them in advanced seismic imaging schemes, in order to demonstrate the benefit brought by the high-frequency approximation in this kind of schemes.
5

L'instabilité elliptique en milieu stratifié tournant

Guimbard, David 17 October 2008 (has links) (PDF)
Une étude théorique et expérimentale de la stabilité de tourbillons elliptiques est menée à terme dans la présente étude. On analyse dans un premier temps la stabilité de tourbillons lagrangiens instationnaires non uniformes avec un formalisme courte longueur d'onde de type WKB. Il apparait alors que le mécanisme de déstabilisation de ces tourbillons est le même que celui déstabilisant un tourbillon elliptique uniforme. Ce résultat montre ainsi que l'instabilité elliptique est un mécanisme universel de déstabilisation 3D de tourbillons 2D. Dans un deuxième temps est étudié théoriquement et expérimentalement la stabilité de tourbillons elliptiques confinés dans un fluide stratifié en rotation. Le dispositif expérimental permettant cette étude est constitué d'un cylindre en rotation (rempli d'un fluide stratifié en densité suivant la verticale), déformé elliptiquement par deux rouleaux fixes, le tout étant solidaire d'une table elle aussi en rotation. En faisant varier les différents paramètres de notre expérience (la fréquence de Brünt-Väisälä Nb et la vorticité absolue Ta, les deux grandeurs étant adimensionnées par le taux relatif de rotation des particules fluides), nous avons observé que la stratification et la rotation ont une contribution antagoniste sur la stabilité d'un tourbillon elliptique. Ainsi si la stratification est suffisamment forte (Nb > 1), nous observons que seuls les anticyclones (tels que |Ta| < 1) sont instables. Les cyclones étant toujours stables. Par ailleurs si la stratification est faible (Nb < 1), les zones d'instabilité s'inversent. Finalement les longueurs d'ondes ainsi que les taux de croissance des modes, mesurés par analyse d'images, sont en bon accord avec les prévisions théoriques.
6

Etude de la géométrie optimale des zones de contrôle dans des problèmes de stabilisation

Hébrard, Pascal 08 November 2002 (has links) (PDF)
Dans cette thèse, nous traitons de l'optimisation du taux de décroissance exponentielle uniforme de l'équation des ondes sur un domaine W mono ou bidimensionnel. L'amortissement se fait à l'aide d'un feedback en vitesse égal à une certaine constante k sur un sous domaine w. Ce taux de décroissance est lié à l'abscisse spectrale m de l'opérateur associé au problème et à une quantité géométrique g, introduite par Bardos, Lebeau et Rauch dans le cas bidimensionnel. On montre que l'abscisse spectrale est dérivable par rapport à k à l'origine, et on étudie cette dérivée J pour approximer m par le produit de k et J. Dans la première partie de la thèse, nous étudions de façon théorique les fonctionnelles J et g. Nous caractérisons les géométries optimales dans le cas d'un intervalle ou d'un carré pour des valeurs particulières de la contrainte d'aire. Dans le cas du carré, nous concevons un algorithme de calcul exact de la quantité géométrique dans le cas où w est un réunion de carrés basé sur un nouveau théorème d'interversion de limites. La seconde partie est dédiée à l'optimisation numérique des quantités J et g à l'aide de différents algorithmes génétiques. Les résultats obtenus ne sont pas intuitifs.
7

Modélisation de couches de grains luminophores : évolution de la morphologie durant le recuit de synthèse et efficacité optique

Pannier, Nayely 12 December 2011 (has links) (PDF)
La partie centrale des lampes à basse consommation est constituée d'un tube en verre rempli de plasma de mercure et recouvert d'une couche de grains de luminophores. Ces grains de quelques microns absorbent la radiation UV et émettent de la lumière visible. Dans cette thèse, deux problèmes liés à ces couches sont étudiés. Dans une première partie, un modèle de champ de phase est développé pour décrire le changement de la morphologie des grains lors du recuit de synthèse en présence d'un fondant. A l'aide de ce modèle, nous avons mis en évidence le rôle des tensions de surface et des mécanismes de transport de matière dans le liquide. Dans une seconde partie, nous utilisons la méthode du tracé de rayons pour modéliser les propriétés optiques d'une couche de grains de luminophores. Cette dernière a deux buts qui peuvent sembler contradictoire : absorber le maximum de rayons UV et maximiser l'extraction de lumière visible. Nous avons mis en évidence l'existence d'un optimum d'efficacité d'extraction, ce qui suggère que les pertes de lumière visible dans la lampe peuvent être atténuées en utilisant des couches peu compactes.
8

Statics and dynamics of ellipsoidal particles in laser beams / Statique et dynamique des particules ellipsoïdales dans les faisceaux lasers

Petkov, Theodor 18 December 2017 (has links)
Ce travail de thèse est une contribution au projet national AMOCOPS, financé par l’ANR. Le thème central du projet est la diffusion de lumière par des particules de formes complexes et de grandes tailles (plusieurs dizaines de µm au moins), domaine où les méthodes de simulation numérique existantes trouvent leurs limites d’applicabilité. Nous abordons le problème par le biais des effets mécaniques de la lumière, autrement dit les forces et couples créés par la pression de radiation. Etant la conséquence du transfert d’impulsion entre l’onde et la matière, ces effets sont directement liés à la diffusion de lumière. La thèse comprend une partie expérimentale –majoritaire- concernant les réponses mécaniques de particules de polystyrène de forme ellipsoïdale et d’allongement variable sous illumination par un ou deux faisceaux laser. Les cas de faisceaux faiblement focalisés (lévitation optique) et d’un faisceau très fortement focalisé (pincette optique) sont examinés successivement. Nous caractérisons différents types d’équilibre statique, certains d’entre eux non décrits auparavant, obtenus dans les deux géométries. Par ailleurs nous confirmons l’existence de réponses purement dynamiques, où la particule oscille en permanence. Trois nouveaux modes sont observés, deux dans la géométrie lévitation optique et un autre sous pincette optique. Cette étude nous permet de distinguer les oscillations dites de Simpson-Hanna dans le régime linéaire de celles non linéaires mises en évidence avant nous par Mihiretie et al..Les résultats de nos expériences sont comparés à ceux obtenus par les simulations de J.C. Loudet, sur la base de la simple optique géométrique (OG) et limitées à 2 dimensions (2d). Nous montrons que ces simulations permettent de reproduire qualitativement et comprendre physiquement la plupart des comportements observés dans nos expériences. La principale limitation de ces calculs tient à ce que l’OG ignore le caractère ondulatoire de la lumière. Pour faire mieux et aller vers des simulations fiables quantitativement, il faut développer un modèle alliant optique géométrique et optique ondulatoire. C’est la fonction du modèle VCRM (Vectorial Complex Ray Model) développé récemment par K.F. Ren en 2d. Le but du projet Amocops est de mettre au point la version 3d de la méthode et de la valider sur la base d’expériences comme celles que nous avons conduites. La deuxième partie de la thèse est consacrée à la méthode VCRM. Nous en exposons les principes, et nous présentons quelques résultats des travaux en cours avec une version intermédiaire entre 2d et 3d, dite « 2d+ ». Quelques illustrations sont proposées sur des exemples impliquant des sphères et ellipsoïdes de grandes tailles. / This work is a contribution to the “AMOCOPS” project, funded by Agence Nationale de la Recherche. AMOCOPS is dedicated to the development of new computation schemes to simulate the light scattering patterns of large complexly shaped particles. Particle sizes are of the order of several 10s of micrometres, which is at the limit, or beyond the capabilities of currently available computation techniques.Our work indirectly deals with light scattering through the corresponding mechanical effects of light. Light scattering is the source of momentum transfer between light and matter, and therefore of the forces and torques acting on the exposed particles. The majority of Part A of this thesis is about the mechanical responses of ellipsoidal polystyrene particles of varying aspect ratios, under illumination by one or two laser beams. We investigate the case of weakly focused beams (optical levitation), and that of a single large aperture beam (optical tweezers). Different types of static equilibria, some of which are new, are observed and characterized in both geometries. We confirm the existence of dynamic states, whereby the particle permanently oscillates within the laser beam(s). Three new oscillation modes are observed, two of them in the conditions of optical levitation, and another one in the optical tweezer geometry. The study allows us to make a distinction between noise-driven oscillations in the linear regime, of the type predicted by Simpson and Hanna, and nonlinear oscillations such as those evidenced prior to this work, by Mihiretie et al..Results from our experiments are compared to simulations by J.C. Loudet, using simple ray-optics (RO) in two dimensions (2D). We show that results from 2D-RO qualitatively match most of our observations, and allow us to physically understand the main mechanisms at work in the observed phenomena. The simulations cannot be quantitatively exact, due to the 2D limitation, and because RO essentially ignores the wave nature of light. In Part B of the manuscript, we present the principles of the Vectorial Complex Ray Model (VCRM), which was recently developed by K.F. Ren in 2d. The goal of AMOCOPS is to develop a full 3D version of VCRM, able to simulate light scattering by particles of any shape with a smooth surface. We explain the basics of the model, as well as the “2D+” version, which is an extension of the basic 2D-VCRM. A few illustrative examples of light scattering patterns computed with 2d+-VCRM for large-sizes spheres and ellipsoids are presented
9

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe January 2012 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
10

Modélisation déterministe du canal de propagation indoor dans un contexte Ultra Wide Band

Tchoffo Talom, Friedman 19 October 2005 (has links) (PDF)
Depuis peu, le grand public manifeste un engouement pour des objets communicants qui requièrent le transfert rapide d'une quantité d'information sans cesse croissante. Dans ce contexte, l'un des challenges scientifiques repose sur la recherche de techniques de transmissions radio à très haut débit sur de courtes portées. Une technique possible est l'utilisation de signaux UWB, lesquels ont été autorisés en février 2002 par l'organisme américain de régulation des fréquences. Pour évaluer les performances des systèmes UWB, la modélisation du canal de propagation est indispensable. Ces modélisations sont généralement statistiques. L'objectif de la thèse a consisté à examiner l'apport de la modélisation déterministe pour l'étude du canal UWB. Les travaux présentés portent sur l'étude de l'impact des mécanismes de propagation sur les signaux UWB, sur la conception d'un outil de modélisation déterministe et sur la réalisation de campagnes de mesures pour l'évaluation de l'outil.

Page generated in 0.0883 seconds