• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 47
  • 15
  • Tagged with
  • 138
  • 138
  • 59
  • 53
  • 40
  • 27
  • 26
  • 20
  • 19
  • 18
  • 18
  • 18
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Conception et modélisation numérique de composants optiques en nanophotonique intégrée

Śmigaj, Wojciech 22 September 2010 (has links) (PDF)
Cette thèse est consacrée à la conception et l'analyse théorique de différents composants en optique intégrée. Nous présentons un modèle de milieu effectif pour les cristaux photoniques (CPs) 2D qui rend compte des effets de surface, puis un algorithme pour la conception de réseaux antiréfléchissants grand-angle pour ces CPs. Ces réseaux permettent d'améliorer significativement la transmission à travers une lentille plate d'indice négatif. Nous proposons une nouvelle génération de circulateurs magnétooptiques compacts, fonctionnant dans un champ magnétique extérieur uniforme et constitués d'une cavité résonnante en anneaux circulaires couplée directement à des guides d'ondes standards. Nous généralisons la méthode multipolaire 2D aux matériaux gyrotropiques et la formulons sans « lattice sums » pour les structures périodiques. Enfin, nous décrivons en détail la méthode des éléments finis pour le calcul des modes propres des cavités 3D en anneaux circulaires et matériaux gyrotropiques.
32

Hydrodynamical simulations of detonations in superbursts./ Simulations hydrodynamiques de détonations dans les superbursts.

Noël, Claire 19 October 2007 (has links)
In this thesis, we construct a new hydrodynamical algorithm able of handling general compressible reactive flow problems, based on a finite-volume method inspired by the original MUSCL scheme of van Leer (1979). The algorithm is of second-order in the smooth part of the flow and avoids dimensional splitting. It uses MPI to achieve parallelism, and includes an astrophysical equation of state and a nuclear reaction network. It proves to be robust to tests cases. In particular it reproduces quite well the reactive and non-reactive results obtained with two different numerical methods (Fryxell & al. 1989, Busegnies & al. 2007). Moreover the time-dependent results are in agreement with the corresponding steady state solution. This gives us confidence in applying it to an astrophysical situation which has never been studied, the propagation of a detonation in conditions relevant to superbursts. The algorithm is described in (Noel & al. 2007). In a firt step we obtain the detonation profiles in pure carbon and in a mixture of carbon and iron. In both cases we underline the large difference between the total reaction length and the length on which some species burn. This difference leads to enormous numerical difficulties because all the length scales cannot be resolved at the same time in a single simulation. We show that the carbon detonation might be studied in a partial resolution approach like the one of Gamezo & al. (1999). In a second step we construct a new reduced nuclear reaction network able to reproduce the energy production due to the photo-disintegrations of heavy elements, like ruthenium, which are thought to occur during superbursts in mixed H/He accreting systems. Using this new nuclear network we simulate detonations in mixture of carbon and ruthenium. An interesting feature is that, in this case, all the reaction lengths can be resolved in the same simulation. This makes the C/Ru detonations easier to study in future multi-dimensional simulations than the pure carbon ones (Noel & al. 2007b). Finally we perform some numerical experiments which show that our algorithm is able to deal with initially inhomogeneous medium, and that the multi-dimensional simulations are attainable even if they are quite computational time consuming. - B. Van Leer, J. Comp. Phys., 21, 101, 1979 - Fryxell, B.A., Muller, E., and Arnett, W.D., Technical report MPA 449, 1989 - Busegnies, Y., Francois, J. and Paulus, G., Shock Waves, 11, 2007 - Gamezo, V.N., Wheeler, J.C., Khokhlov, A.M., and Oran, E.S., ApJ, 512, 827, 1999 - Noël, C., Busegnies, Y., Papalexandris, M.V. & al., A&A, 470, 653, 2007 - Noël, C., Goriely, S., Busegnies, Y. & Papalexandris, M.V., submitted to A&A, 2007b / Un algorithme parallèle basé sur une méthode aux volumes finis inspirée du schéma MUSCL de Van Leer (1979) a été construit. Il a été développé sur base de la méthode de Lappas & al. (1999) qui permet de résoudre simultanément toutes les dimensions spatiales. Cette méthode se base sur la construction de surfaces appropriées dans l'espace-temps, le long desquelles les équations de bilan se découplent en équations plus simples à intégrer. Cet algorithme est actuellement le seul à éviter le "splitting" des dimensions spatiales. Dans les modèles conventionnels (PPM, FCT, etc.), l'intégration spatiale des équations est réalisée de manière unidimensionnelle pour chaque direction. Un réseau de réactions nucléaires ainsi qu'une équation d'état astrophysique ont été inclus dans l'algorithme et celui-ci a ensuite été soumis à une grande variété de cas tests réactifs et non réactifs. Il a été comparé à d'autres codes généralement utilisés en astrophysique (Fryxell & al. 1989, Fryxell & al. 2000, Busegnies & al. 2007) et il reproduit correctement leurs résultats. L'algorithme est décrit dans Noël & al. (2007). Sur base de cet algorithme, les premières simulations de détonation dans des conditions thermodynamiques représentatives des Superbursts ont été réalisées. Différentes compositions du milieu ont été envisagées (carbone pur, mélange de carbone et de fer, mélange de carbone et de cendres du processus rp). Dans la plupart des systèmes où des Superbursts ont été observés, la matière accrétée est un mélange d'hydrogène et d'hélium. Dans ce cas, des phases de combustion précédant le Superburst produisent des nucléides plus lourd que le fer (Schatz & al. 2003). Ces nucléides peuvent être photodésintégrés durant le Superburst. Pour prendre en compte ces réactions endothermiques de photodésintégration, nous avons construit un nouveau réseau réduit de réactions nucléaires qui a été incorporé dans l'algorithme hydrodynamique (Noël & al. 2007b). Ce réseau réduit reproduit globalement l'énergétique d'un réseau complet et a permis de faire la première simulation numérique de détonation dans des conditions caractéristiques de systèmes accréteurs d'un mélange hydrogène-hélium. Finallement quelques simulations multidimensionelles préliminaires ont éte réalisées. - Busegnies, Y., Francois, J. and Paulus, G., Shock Waves, 11, 2007 - Fryxell, B.A., Muller, E., and Arnett, W.D., Technical report MPA 449, 1989 - Fryxell, B.A., Olson, K., Ricker, P. & al., ApJS, 131, 273, 2000 - Lappas, T., Leonard, A. and Dimotakis, P.E., SIAM J. Sci. Comput., 20, 1064, 1999 - Noël, C., Busegnies, Y., Papalexandris, M.V. & al., A&A, 470, 653, 2007 - Noël, C., Goriely, S., Busegnies, Y. & Papalexandris, M.V., submitted to A&A, 2007b - Röpke, F. K. PhD thesis, Technischen Universitat Munchen, 2003 - Schatz, H., Bildsten, L., Cumming, A. and Ouellette, M., Nuclear Physics A, 718, 247, 2003 - Van Leer, B. Comp. Phys., 21, 101, 1979 - Weinberg, N.N. and Bildsten, L., ArXiv e-prints, 0706.3062, 2007
33

Numerical methods for homogenization : applications to random media / Techniques numériques d'homogénéisation : application aux milieux aléatoires

Costaouec, Ronan 23 November 2011 (has links)
Le travail de cette thèse a porté sur le développement de techniques numériques pour l'homogénéisation de matériaux présentant à une petite échelle des hétérogénéités aléatoires. Sous certaines hypothèses, la théorie mathématique de l'homogénéisation stochastique permet d'expliciter les propriétés effectives de tels matériaux. Néanmoins, en pratique, la détermination de ces propriétés demeure difficile. En effet, celle-ci requiert la résolution d'équations aux dérivées partielles stochastiques posées sur l'espace tout entier. Dans cette thèse, cette difficulté est abordée de deux manières différentes. Les méthodes classiques d'approximation conduisent à approcher les propriétés effectives par des quantités aléatoires. Réduire la variance de ces quantités est l'objectif des travaux de la Partie I. On montre ainsi comment adapter au cadre de l'homogénéisation stochastique une technique de réduction de variance déjà éprouvée dans d'autres domaines. Les travaux de la Partie II s'intéressent à des cas pour lesquels le matériau d'intérêt est considéré comme une petite perturbation aléatoire d'un matériau de référence. On montre alors numériquement et théoriquement que cette simplification de la modélisation permet effectivement une réduction très importante du coût calcul / In this thesis we investigate numerical methods for the homogenization of materials the structures of which, at fine scales, are characterized by random heterogenities. Under appropriate hypotheses, the effective properties of such materials are given by closed formulas. However, in practice the computation of these properties is a difficult task because it involves solving partial differential equations with stochastic coefficients that are additionally posed on the whole space. In this work, we address this difficulty in two different ways. The standard discretization techniques lead to random approximate effective properties. In Part I, we aim at reducing their variance, using a well-known variance reduction technique that has already been used successfully in other domains. The works of Part II focus on the case when the material can be seen as a small random perturbation of a periodic material. We then show both numerically and theoretically that, in this case, computing the effective properties is much less costly than in the general case
34

Identification des paramètres inertiels segmentaires humains / Identification of human body segment inertial parameters

Couvertier, Marien 18 December 2018 (has links)
L'objectif de ce travail est d'identifier les paramètres inertiels segmentaires humains, c’est-à-dire la masse, la position du centre de masse et la matrice d’inertie de ces segments. Ces paramètres, au nombre de dix par segment, constituent une donnée d'entrée indispensable aux calculs de dynamique inverse utilisés dans les études de biomécanique. Bien qu'il existe des méthodes pour avoir accès à ces paramètres par le biais de tables anthropométriques ou le calcul des volumes segmentaires, l'identification apparaît nécessaire dès lors que les sujets étudiés sont atypiques (handicapés physiques, femmes enceintes, sportifs présentant des hypertrophies musculaires). L'originalité de ce travail est de proposer une approche mixte dans l'écriture du problème d'identification combinant une formulation vectorielle et matricielle des équations du mouvement d’un système poly-articulé supposé rigide, qui ont déjà été établies au sein de l'équipe dans les travaux de thèse de Tony Monnet. La première permet d’identifier les masses et les centres de masse segmentaires. La deuxième permet d’identifier, elle, les matrices d’inertie segmentaires. Les paramètres d’entrée de cette méthode d’identification sont les matrices rotations segmentaires, leurs dérivées secondes, les accélérations segmentaires, ainsi que le torseur externe. Si ce dernier est directement mesuré par une plateforme de force, les autres grandeurs sont obtenues après des opérations sur la mesure de la cinématique segmentaire du sujet obtenue par un système opto-électronique. Ce système mesurant la cinématique du sujet grâce à des marqueurs cutanés, cette cinématique diffère de la cinématique théorique obtenue si les segments sont rigides, du fait des mouvements des masses molles. Ce travail a donc porté sur le calcul d’une matrice rotation optimale, basée sur une transformation matérielle décrivant le mouvement segmentaire.De plus les mouvements des masses molles ainsi que les instruments de mesure induisent un bruit dans les signaux cinématiques. Du fait de la double dérivation de ces signaux pour le calcul des accélérations segmentaires et des dérivées secondes des matrices rotations, ce bruit devient prépondérant sur le signal porteur. Ce travail a donc également porté sur le filtrage à effectuer pour atténuer ces bruits. Cinq filtres utilisés dans la littérature (filtre de Butterworth, lissage de Savitsky-Golay, moyenne glissante, lissage par spline et analyse spectrale) ont été implémentés et leurs effets sur les paramètres inertiels identifiés ont été comparés. Les résultats montrent que les paramètres identifiés avec la méthode vectorielle ne nécessitent pas de traitement. L’identification des matrices d’inertie nécessite, elle, un traitement et le lissage optimal est obtenu avec le moyenne glissante.Enfin, une modélisation du membre supérieur par une chaîne cinématique a également été implémentée afin de rigidifier la cinématique acquise. Les premiers résultats ne sont pas satisfaisants mais le modèle retenu peut être affiné avant de conclure sur l’intérêt de cette modélisation pour l’identification des paramètres inertiels. Finalement, l’approche mixte développée permet l'identification des dix paramètres inertiels des segments du corps humain. La méthode a été validée en identifiant les paramètres inertiels des segments constituant le membre supérieur de dix huit sujets. Les paramètres obtenus ont ensuite été comparés à ceux issus d’une table anthropométrique. Les résultats montrent que les paramètres identifiés sont très proches de ceux estimés. Cela montre donc que l’identification des paramètres inertiels est fiable et permet d’avoir accès aux paramètres inertiels de sujets atypiques, pour qui les tables anthropométriques ne sont pas disponibles. / The aim of this thesis is the identification of body segment inertial parameters (BSIP), i.e. the segment mass, center of mass location and inertia tensor. Those ten parameters per segment are a mandatory input for inverse kinetics methods which are widely used in biomechanics studies. Despite the fact that methods exist to estimate them from anthropometric tables or segment volumes measurements, identification is useful when subjects are atypical (such as disabled people, pregnant women or athletes with muscular hypertrophies). The originality of this work is to use a mixed approach to write the identification problem, combining a vectorial and a matrix formulations of rigid multi-body motion equations, based on previous work did in the RoBioSS axis by Tony Monnet during his PhD. The first one permit to identify segmental masses and center of mass locations. The second one identifies segmental inertia tensors.Inputs of identification algorithm are rotation matrices, their second derivatives, segmental accelerations, and external torsor. Even though this external torsor is directly measured with a force plate, the others inputs are derived from kinematics measurements performed by an optoelectronical device. This device measures kinematics with skin mounted markers tracked by cameras, and the obtained kinematics deviate from the theoretical kinematics of rigid bodies, because of the soft tissues artefacts. In order to deal with these artefacts an optimal rotation matrix computation, based on material transformation, has been performed.Also, noise appears during measurement because of the soft tissues artefacts and the measure device. When double numerical derivatives are applied, this noise becomes greater than the carrier signal. In order to deal with it, five filters, i.e. Butterworth filter, Savitsky-Golay smoothing, sliding average window, spline smoothing and singular spectrum analysis, taken from literature have been implemented and compared. Results show that BSIP identify from vectorial formulation didn’t need any filtering. On the other hand, inertia tensors identification needed smoothed inputs and the best way to smooth them was the sliding average window.Finally, a kinematic chain model of the upper limb has been implemented to rigidify the kinematics. Preliminary results aren’t satisfying but the chain model can be improved before assuming kinematic chain aren’t well suited to enhance BSIP identification. Ultimately, the developed mixed approach has been validated by upper limb inertial parameters identification of eighteen subjects. Identified inertial parameters have also been compared with ones estimated with an anthropometric table. The conclusion is that the identified parameters were very close to the estimated ones, which shows that identification will be reliable to estimate inertial parameters of atypical subjects for whom anthropometric tables aren’t available.
35

Instruments, pratiques et enjeux d’une recherche numériquement équipée en sciences humaines et sociales / Instruments, practices and issues of digitally equipped research in the humanities and social sciences

Bigot, Jean-Édouard 06 July 2018 (has links)
Progressivement, les technologies numériques prennent une place plus importante dans la recherche sur les phénomènes socioculturels. Des projets d’équipement se développent dans toutes les disciplines des sciences humaines et sociales (SHS) et des mouvements prônant une révolution instrumentale se multiplient. Cette thèse en sciences de l’information et de la communication propose d’interroger l’avènement d’une recherche « numériquement équipée » en SHS à partir d’une réflexion générale sur les liens entre sciences, technique et écriture. Quels sont les enjeux épistémologiques, mais aussi politiques, sous-jacents à ces logiques d’instrumentation numérique en tant qu’elles instituent de nouvelles techniques d’écriture au cœur des pratiques de recherche ? Le mémoire présente un parcours en trois grandes parties. La première partie inscrit la recherche dans une pensée des rapports fondamentaux entre instruments techniques et connaissance scientifique. Il s’agit également de reconnaître les spécificités d’une approche « communicationnelle » de l’instrumentation scientifique, et en particulier de l’instrumentation numérique. La deuxième partie propose une exploration critique des discours d’escorte qui accompagnent ces transformations en s’appuyant sur les projets émanant de deux courants majeurs du domaine de la recherche numériquement équipée en SHS : les « humanités numériques » et les « méthodes numériques ». Quelles sont les promesses portées par ces mouvements ? Quels imaginaires, quelles représentations de la science et du numérique ces projets de « renouvellement » de la recherche par le numérique abritent-ils, mais aussi à quels « obstacles » se heurtent-ils ? À partir de la théorie des médias informatisés et de l’écriture numérique, et sur la base d’une démarche d’analyse techno-sémiotique, la troisième partie interroge les formes et les pouvoirs de la médiation instrumentale numérique. Sur un plan morphologique et praxéologique, en quoi consiste la conception et la mise en œuvre de tels instruments ? Sur un plan plus politique, quels sont les effets « normatifs » de ces dispositifs instrumentaux sur l’épistémologie des disciplines qui s’en saisissent ? / Gradually, digital technologies are becoming more important in research on sociocultural phenomena. Equipment projects are developing in all the social sciences and the humanities (SSH) and movements advocating an instrumental revolution are multiplying. This thesis proposes to question the advent of a digitally equipped research in the SSH on the basis of a general reflection on the links between science, technology and writing. What are the epistemological and political issues that underlie these digital instrumentation logics as they institute new writing techniques at the heart of research practices? The thesis is composed of three main parts. The first part questions the fundamental relationships between technical instruments and scientific knowledge. It is also about estimating the specificities of a communication approach to scientific instrumentation. The second part proposes a critical exploration of the discourses that accompany these transformations by focusing on projects from two major currents in the field of digitally equipped research in the SSH: the "digital humanities" and the "digital methods". What promises, what "imaginaires", what representations of science do these research practices renewal projects by digital technology contain? But also what "epistemological obstacles" do they encounter? Based on a theory of digital writing, and on a techno-semiotic analysis approach, the thir part questions the forms and powers of the digital instrumentation. On a morphological level, what do the design and implementation of such instruments consist of? On a political level, what are the normative effects of these "dispositifs" on the epistemology of the disciplines that seize them?
36

Numerical methods for the prediction of gravitational lensing signal as a probe of the mass content on the Universe / Méthodes numériques pour prédire le signal d'optique gravitationnelle comme outil pour sonder la matière dans l'Univers

Gouin, Céline 25 September 2018 (has links)
Les relevés à venir comme Euclid, LSST et WFIRST vont nous ouvrir la perspective d’étudier l’univers profond. Pour ces grands relevés, l’astigmatisme cosmique correspond à une sonde indispensable pour étudier la nature de l’énergie noire et la matière noire. Compte tenu de la précision attendue par ces observations, nous devons faire des prédictions basées sur des simulations correspondant à l’état de l’art afin de quantifier avec précision la variance, les biais et les dégénérescences potentielles liés aux baryons. Dans ce contexte, ma thèse se focalise sur la construction d’estimateurs précis basés sur les observables de lentillage. La première partie de ma thèse consiste à caractériser la géométrie des grandes structures par astigmatisme cosmique (Gouin et al. 2017). Une décomposition multipolaire du signal est appliquée afin de quantifier la distribution azimutale de la matière noire, centrée sur les amas. Les propriétés statistiques de ces moments sont estimées à partir d’une simulation cosmologique. Les distorsions harmoniques calculées dans le voisinage des amas tracent la structure filamentaire. Un plus grand nombre de filaments semblent connectés aux amas de forte masse. Dans la dernière partie de ma thèse, je synthétise le signal d’astigmatisme cosmique dans le cône de lumière de la simulation Horizon AGN. Pour ce faire, je propage les rayons de lumière le long du cône dans l’approximation des plans de lentillage multiples. L’effet des baryons est significatif dans la statistique du cisaillement aux échelles angulaires inférieures à l’arc-minute. Le signal de cisaillement galaxie-galaxie est comparée aux observations récentes, et semble être en bon accord. / Upcoming weak lensing surveys such as Euclid, LSST and WFIRST will provide an unprecedented opportunity to investigate the dark Universe. Through these large scale surveys, gravitational lensing is an indispensable cosmological probe to investigate the dark energy and the dark matter. Due to the new level of accuracy in observations, we must perform cosmological predictions in state-of-art simulations, to precisely quantify its variances, biases and potential degeneracies coming from baryonic physics. In this context, my thesis focuses on the construction of accurate weak lensing observables. The first part of my PhD work characterises the geometry of large-scale structure through weak lensing (Gouin et al. 2017). I relied on multipolar decomposition of weak lensing signal to quantify the azimuthal distribution of dark matter centred on galaxy clusters. The statistical properties of these moments are estimated from a large N-body simulation. The harmonic distortions computed in the vicinity of clusters appear to trace the filamentary structure. Larger number of filaments seem to be connected to high-mass clusters.The detection level of this statistical estimator is estimated. In the last part of my thesis, I mock the weak gravitational lensing signal in the light-cone of the Horizon-AGN simulation (Gouin et al. 2019). To do so, I propagate light-rays along the light-cone in the multiple-lens-plane approximation. The impact of baryons is significant in cosmic shear statistics for angular scales below a few arcmins. In addition, the galaxy-galaxy lensing signal is compared to current observational measurements (Leauthaud et al. 2017), and seems in good agreement.
37

Advanced numerical and semi-analytical scattering matrix calculations for modern nano-optics / Pas de titre en français

Weiss, Thomas 08 July 2011 (has links)
Les propriétés optiques des nanomatériaux, tels que les cristaux photoniques ou les métamatériaux, ont reçu beaucoup d’attention dans les dernières années [1–9]. La dérivation numérique de ces propriétés se révèle pourtant très compliquée, en particulier dans le cas des structures métallo-diélectriques, qui comportent des résonances plasmoniques. C’est pourquoi des méthodes numériques avancées et des modèles semi-analytiques sont nécessaires. Dans cette thèse, nous montrerons que le formalisme de la matrice de diffraction peut satisfaire ces deux aspects. La méthode de la matrice de diffraction est un concept très général en physique. Dans le cas des structures périodiques, on peut dériver la matrice de diffraction à l’aide de la méthode modale de Fourier [10]. Pour la description exacte des géométries planes, nous avons développé la méthode des coordonnées adaptées [11], qui nous donne un nouveau système de coordonnées, dans lequel les interfaces des matériaux sont des surfaces de coordonnées constantes. En combinaison avec la méthode de la résolution spatiale adaptative, la méthode des coordonnées adaptées permet d’améliorer considérablement la convergence de la méthode modale de Fourier, de telle sorte qu’on peut calculer des structures métalliques compliquées très efficacement. Si on utilise la matrice de diffraction, il est non seulement possible de dériver les propriétés optiques en illumination de champ lointain, comme la transmission, la réflexion, l’absorption, et le champ proche, mais aussi de décrire l’émission d’un objet à l’intérieur d’une structure et d’obtenir les résonances optiques d’un sytème. Dans cette thèse, nous présenterons une méthode efficace pour la dérivation des résonances optiques tridimensionnelles, utilisant directement la matrice de diffraction [14]. Si on connaît les résonances d’un système isolé, il est aussi possible d’obtenir une approximation des résonances dans le cas d’un système combiné à l’aide de notre méthode du couplage des résonances [15, 16]. Cette méthode permet de décrire le régime de couplage des champs lointain et proche, y compris le couplage fort avec les résonances Fabry-Perot, pour des systèmes qui se composent d’un empilement de deux structures planes et périodiques. Pour cette raison, on peut étudier efficacement le couplage de ces systèmes. Cette thèse est écrite de manière à donner une idée d’ensemble du formalisme de la matrice de diffraction et de la méthode modale de Fourier. En outre, nous décrivons notre généralisation de ces méthodes et nous montrons la validité de nos approches pour différents exemples. / The optical properties of nanostructures such as photonic crystals and metamaterials have drawn a lot of attention in recent years [1–9]. The numerical derivation of these properties, however, turned out to be quite complicated, especially in the case of metallo-dielectric structures with plasmonic resonances. Hence, advanced numerical methods as well as semi-analytical models are required. In this work, we will show that the scattering matrix formalism can provide both. The scattering matrix approach is a very general concept in physics. In the case of periodic grating structures, the scattering matrix can be derived by the Fourier modal method [10]. For an accurate description of non-trivial planar geometries, we have extended the Fourier modal method by the concept of matched coordinates [11], in which we introduce a new coordinate system that contains the material interfaces as surfaces of constant coordinates. In combination with adaptive spatial resolution [12,13], we can achieve a tremendously improved convergence behavior which allows us to calculate complex metallic shapes efficiently. Using the scattering matrix, it is not only possible to obtain the optical properties for far field incidence, such as transmission, reflection, absorption, and near field distributions, but also to solve the emission from objects inside a structure and to calculate the optical resonances of a system. In this work, we provide an efficient method for the ab initio derivation of three-dimensional optical resonances from the scattering matrix [14]. Knowing the resonances in a single system, it is in addition possible to obtain approximated resonance positions for stacked systems using our method of the resonant mode coupling [15, 16]. The method allows describing both near field and far field regime for stacked two-layer systems, including the strong coupling to Fabry-Perot resonances. Thus, we can study the mutual coupling in such systems efficiently. The work will provide the reader with a basic understanding of the scattering matrix formalism and the Fourier modal method. Furthermore, we will describe in detail our extensions to these methods and show their validity for several examples.
38

Continuous formulation of implicit structural modeling discretized with mesh reduction methods / Formulation continue du problème de modélisation implicite de structures géologiques discrétisée avec des méthodes de réduction de maillage

Renaudeau, Julien 24 April 2019 (has links)
La modélisation structurale consiste à approximer les structures géologiques du sous-sol en un modèle numérique afin d'en visualiser la géométrie et d'y effectuer des calculs d'estimation et de prédiction. L'approche implicite de la modélisation structurale utilise des données de terrain interprétées pour construire une fonction volumétrique sur le domaine d'étude qui représente la géologie. Cette fonction doit honorer les observations, interpoler entre ces dernières, et extrapoler dans les zones sous-échantillonnées tout en respectant les concepts géologiques. Les méthodes actuelles portent cette interpolation soit sur les données, soit sur un maillage. Ensuite, le problème de modélisation est posé selon la discrétisation choisie : par krigeage dual sur les points de donnée ou en définissant un critère de rugosité sur les éléments du maillage. Dans cette thèse, nous proposons une formulation continue de la modélisation structurale par méthodes implicites. Cette dernière consiste à minimiser une somme de fonctionnelles arbitraires. Les contraintes de donnée sont imposées avec des fonctionnelles discrètes, et l'interpolation est contrôlée par des fonctionnelles continues. Cette approche permet de (i) développer des liens entre les méthodes existantes, (ii) suggérer de nouvelles discrétisations d'un même problème de modélisation, et (iii) modifier le problème de modélisation pour mieux honorer certains cas géologiques sans dépendre de la discrétisation. Nous portons également une attention particulière à la gestion des discontinuités telles que les failles et les discordances. Les méthodes existantes nécessitent soit la création de zones volumétriques avec des géométries complexes, soit la génération d'un maillage volumétrique dont les éléments sont conformes aux surfaces de discontinuité. Nous montrons, en explorant des méthodes sans maillage locales et des concepts de réduction de maillage, qu'il est possible d'assurer l'interpolation des structures tout en réduisant les contraintes liées à la gestion des discontinuités. Deux discrétisations de notre problème de minimisation sont suggérées : l'une utilise les moindres carrés glissants avec des critères optiques pour la gestion des discontinuités, et l'autre utilise des fonctions issues de la méthode des éléments finis avec le concept de nœuds fantômes pour les discontinuités. Une étude de sensibilité et une comparaison des deux méthodes sont proposées en 2D, ainsi que quelques exemples en 3D. Les méthodes développées dans cette thèse ont un grand impact en termes d'efficacité numérique et de gestion de cas géologiques complexes. Par exemple, il est montré que notre problème de minimisation au sens large apporte plusieurs solutions pour la gestion de cas de plis sous-échantillonnés et de variations d'épaisseur dans les couches stratigraphiques. D'autres applications sont également présentées tels que la modélisation d'enveloppe de sel et la restauration mécanique. / Implicit structural modeling consists in approximating geological structures into a numerical model for visualization, estimations, and predictions. It uses numerical data interpreted from the field to construct a volumetric function on the domain of study that represents the geology. The function must fit the observations, interpolate in between, and extrapolate where data are missing while honoring the geological concepts. Current methods support this interpolation either with the data themselves or using a mesh. Then, the modeling problem is posed depending on these discretizations: performing a dual kriging between data points or defining a roughness criterion on the mesh elements. In this thesis, we propose a continuous formulation of implicit structural modeling as a minimization of a sum of generic functionals. The data constraints are enforced by discrete functionals, and the interpolation is controlled by continuous functionals. This approach enables to (i) develop links between the existing methods, (ii) suggest new discretizations of the same modeling problem, and (iii) modify the minimization problem to fit specific geological issues without any dependency on the discretization. Another focus of this thesis is the efficient handling of discontinuities, such as faults and unconformities. Existing methods require either to define volumetric zones with complex geometries, or to mesh volumes with conformal elements to the discontinuity surfaces. We show, by investigating local meshless functions and mesh reduction concepts, that it is possible to reduce the constraints related to the discontinuities while performing the interpolation. Two discretizations of the minimization problem are then suggested: one using the moving least squares functions with optic criteria to handle discontinuities, and the other using the finite element method functions with the concept of ghost nodes for the discontinuities. A sensitivity analysis and a comparison study of both methods are performed in 2D, with some examples in 3D. The developed methods in this thesis prove to have a great impact on computational efficiency and on handling complex geological settings. For instance, it is shown that the minimization problem provides the means to manage under-sampled fold structures and thickness variations in the layers. Other applications are also presented such as salt envelope surface modeling and mechanical restoration.
39

Développement de la méthode des sources fictives pour des milieux stratifiés et conception d'antennes à cavité résonante

Benelli, Giacomo 19 January 2007 (has links) (PDF)
Ce mémoire est consacré à l'élaboration, au développement et aux applications de la Méthode des Sources Fictives dans le cas d'objets tri-dimensionnels placés dans des milieux stratifiés. Un effort important a été consacré au développement d'un algorithme de calcul rapide de la fonction de Green 3D des milieux stratifiés. Dans le cadre d'applications à la plasmonique en particulier, où la modélisation est délicate à cause des variations spatiales des champs très rapides, notre méthode s'est avérée très efficace.<br /> Afin de concevoir et d'optimiser des antennes planes et compactes dans le cadre d'applications pour satellites, nous utilisons la méthode des éléments finis. Nous optimisons des structures métalliques constituées d'une cavité fermée par une grille périodique, pour obtenir des antennes compactes, ayant une efficacité de surface très élevée, et pouvant supporter de fortes puissances. Ce type d'antenne est destiné à servir d'élément de base pour les antennes réseau à rayonnement direct (DRA, Direct Radiating Array), ou comme source d'alimentation pour des réflecteurs.
40

Étoiles à neutrons, étoiles de quarks, trous noirs et ondes gravitationnelles

Gourgoulhon, Eric 04 July 2003 (has links) (PDF)
Cette thèse d'habilitation présente des études numériques d'objets compacts (étoiles à neutrons, étoiles de quarks étranges, trous noirs), principalement considérés comme sources d'ondes gravitationnelles pour les détecteurs VIRGO et LISA.

Page generated in 0.1794 seconds