• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 18
  • 1
  • Tagged with
  • 119
  • 78
  • 24
  • 21
  • 20
  • 20
  • 18
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

A model for inductive plasma wind tunnels

Magin, Thierry E. B. 10 June 2004 (has links)
A numerical model for inductive plasma wind tunnels is developed. This model provides the flow conditions at the edge of a boundary layer in front of a thermal protection material placed in the plasma jet stream at the outlet of an inductive torch. The governing equations for the hydrodynamic field are derided from the kinetic theory. The electromagnetic field is deduced from the Maxwell equations. The transport properties of partially ionized and unmagnetized plasma in weak thermal nonequilibrium are derived from the Boltzmann equation. A kinetic data base of transport collision integrals is given for the Martian atmosphere. Multicomponent transport algorithms based upon Krylov subspaces are compared to mixture rules in terms of accuracy and computational cost. The composition and thermodynamic properties in local thermodynamic equilibrium are computed from the semi-classical statistical mechanics. The electromagnetic and hydrodynamic fields of an inductive wind tunnel is presented. A total pressure measurement technique is thoroughly investigated by means of numerical simulations.
82

Sur les limites empiriques du calcul : calculabilité, complexité et physique / On the empirical limitations on computation : computability, complexity and physics

Pégny, Maël 05 December 2013 (has links)
Durant ces dernières décennies, la communauté informatique a montré un intérêt grandissant pour les modèles de calcul non-standard, inspirés par des phénomènes physiques, biologiques ou chimiques. Les propriétés exactes de ces modèles ont parfois été l'objet de controverses: que calculent-ils? Et à quelle vitesse? Les enjeux de ces questions sont renforcés par la possibilité que certains de ces modèles pourraient transgresser les limites acceptées du calcul, en violant soit la thèse de Church-Turing soit la thèse de Church-Turing étendue. La possibilité de réaliser physiquement ces modèles a notamment été au coeur des débats. Ainsi, des considérations empiriques semblent introduites dans les fondements même de la calculabilité et de la complexité computationnelle, deux théories qui auraient été précédemment considérées comme des parties purement a priori de la logique et de l'informatique. Par conséquent, ce travail est consacré à la question suivante : les limites du calcul reposent-elles sur des fondements empiriques? Et si oui, quels sont-ils? Pour ce faire, nous examinons tout d'abord la signification précise des limites du calcul, et articulons une conception épistémique du calcul, permettant la comparaison des modèles les plus variés. Nous répondrons à la première question par l'affirmative, grâce à un examen détaillé des débats entourant la faisabilité des modèles non-standard. Enfin, nous montrerons les incertitudes entourant la deuxième question dans l'état actuel de la recherche, en montrant les difficultés de la traduction des concepts computationnels en limites physiques. / Recent years have seen a surge in the interest for non-standard computational models, inspired by physical, biological or chemical phenomena. The exact properties of some of these models have been a topic of somewhat heated discussion: what do they compute? And how fast do they compute? The stakes of these questions were heightened by the claim that these models would violate the accepted limits of computation, by violating the Church-Turing Thesis or the Extended Church-Turing Thesis. To answer these questions, the physical realizability of some of those models - or lack thereof - has often been put at the center of the argument. It thus seems that empirical considerations have been introduced into the very foundations of computability and computational complexity theory, both subjects that would have been previously considered purely a priori parts of logic and computer science. Consequently, this dissertation is dedicated to the following question: do computability and computational complexity theory rest on empirical foundations? If yes, what are these foundations? We will first examine the precise meaning of those limits of computation, and articulate a philosophical conception of computation able to make sense of this variety of models. We then answer the first question by the affirmative, through a careful examination of current debates around non-standard models. We show the various difficulties surrounding the second question, and study how they stem from the complex translation of computational concepts into physical limitations.
83

Dynamical study of diatomics : applications to astrochemistry, quantum control and quantum computing / Étude dynamique de molécules diatomiques : applications en astrochimie, en contrôle quantique et en quantum computing

Vranckx, Stéphane 20 August 2014 (has links)
Dans cette thèse, nous étudions théoriquement les propriétés de molécules diatomiques, leur dynamique de réaction ainsi que le contrôle de cette dynamique à l'aide de champs laser. Notre travail porte plus spécifiquement sur trois espèces :• HeH⁺, un composé-clé en astrochimie considéré comme la première espèce moléculaire qui s'est formée dans l'univers ;• CO²⁺, un dication métastable qui se prête bien à des expériences de contrôle quantique en raison du relativement long temps de vie de son état vibrationnel le plus bas ;• ⁴¹K⁸⁷Rb, une molécule polaire qui présente la particularité de pouvoir être formée à très basse température et piégée, ce qui en fait un bon support physique potentiel pour la réalisation d'un ordinateur quantique moléculaire. Nous utilisons tout d'abord des méthodes de calcul ab initio afin d'obtenir les courbes d'énergie potentielle des premiers états singulets et triplets de HeH⁺ avec un haut de degré de précision, ainsi que les courbes d'énergie potentielle, les moments dipolaires de transition et les couplages non-adiabatiques radiaux de l'état fondamental ³Π de CO²⁺ et de ses 11 premiers états ³Σ⁻.Ensuite, nous utilisons ces données ab initio pour calculer les sections efficaces de photodissociation et d'association radiative des états a et b ³Σ⁺ de HeH⁺, ainsi que les constantes cinétiques associées à ces processus dans les conditions rencontrées dans des environnements astrophysiques. Les sections efficaces de photodissociation du niveau vibrationnel le plus bas de CO²⁺ sont également calculées. Nous allons ensuite un cran plus loin en optimisant des champs laser qui guident la dynamique de photodissociation de HeH⁺ et CO²⁺ vers des canaux de dissociation spécifiques. Nous comparons deux méthodes d'optimisation de ces champs: une approche de contrôle local basée sur les opérateurs de Møller et la théorie du contrôle optimal. Dans le deux cas, nous incluons une contrainte qui minimise l'aire des champs. Enfin, nous nous concentrons sur l'une des applications possibles du contrôle laser à haute fidélité : l'utilisation de petits systèmes moléculaires comme ordinateurs quantiques. Nous étudions plus spécifiquement l'implémentation possible d'opérations logiques intra- et intermoléculaires sur des données encodées dans des états hyperfins de molécules de ⁴¹K⁸⁷Rb piégées, ce qui ouvre des perspectives intéressantes en terme d'extensibilité. / In this work, we theoretically study the properties of diatomic molecular systems, their dynamics, and the control thereof through the use of laser fields. We more specifically study three compounds::• HeH⁺, a species of great astrochemical importance which is thought to be the first molecular species to have formed in the universe; :• CO²⁺, a metastable dication of particular interest in quantum control experiments due to its long-lived lowest vibrational level;:• ⁴¹K⁸⁷Rb, a polar molecule that can be formed at very low temperature and trapped, making it a good candidate for quantum computing schemes.First, we use ab initio methods to compute accurate potential energy curves for the lowest singlet and triplet states of HeH⁺ as well as the potential energy curves, transition dipole moments and nonadiabatic radial couplings of the ground ³Π state of CO²⁺ and of its 11 lowest ³Σ⁻states.In a second step, we use this ab initio data to compute the photodissociation and radiative association cross sections for the a and b ³Σ⁺ states of HeH⁺, as well as the values of the corresponding rate constants for astrophysical environments. The photodissociation cross sections from the lowest vibrational level of CO²⁺ is also determined.Going one step further, we optimize laser control fields that drive the photodissociation dynamics of HeH⁺ and CO²⁺ towards specific channels. We compare two field optimization methods: a Møller operator-based Local Control approach and Optimal Control Theory. In both cases, we add a constraint that minimizes the area of the optimized fields.Finally, we focus on one of the potential applications of high-fidelity laser control: the use of small molecular systems as quantum computers. We more specifically study the potential implementation of both intra- and intermolecular logic gates on data encoded in hyperfine states of trapped ultracold polar ⁴¹K⁸⁷Rb molecules, opening interesting perspectives in terms of extensibility.
84

Fiber optic fluorescence pH sensing for biomedical applications : theoretical and experimental studies / Détection du Ph par fluorescence à fibre optique pour les applications biomédicales : études théoriques et expérimentales

Kateklum, Rutjaphan 19 October 2017 (has links)
Les fonctions organiques du corps humain sont liées à des constants biologiques. Variations de ces constantes induisent divers états pathologiques. Parmi ces constantes, le pH constitue le cœur de ces travaux de thèse. Chez les êtres vivants, les fonctions biologiques dépendent de constant acides ou alcalines. En fait, l’action d’une protéine dépend du pH du milieu environnant. Une valeur inadéquate du pH rend les protéines inactives ce qui est délétère pour l’organisme. Il existe donc un besoin pour des capteurs de pH qui puissant être utilisés dans le corps humain pour des applications cliniques (échelle macroscopique), sur des cellules en culture pour des recherches en biologie (échelle mesoscopique) et pour étudier les échanges ioniques au niveau des membranes cellulaires pour des travaux plus fondamentaux (échelle microscopique). Parmi le large éventail de technologies potentiellement candidates pour ces applications, la mesure de pH par fibre optique exploitant la fluorescence permet d’être adaptée aux trois échelles dimensionnelles susnommées. Ce manuscrit de thèse adresse des contraintes par l’étude de capteurs fluorescents à fibre optique utilisant deux types d’indicateur de pH: les SNARF et la fluorescéine. En parallèle de ces développements expérimentaux, des descriptions mathématiques des propriétés de fluorescence de ces deux indicateurs sont proposées. Ces descriptions permettent de progresser vers une mesure du pH sans calibration / Organic functions of the human body are linked to biological constants. Variations of these constants induce pathological troubles. Among these constants, the pH is the central subject of this PhD work. In living beings, biological functions are related to either acid or alkaline constants. Indeed, the action of a protein depends on the surrounding pH. An inadequate value of the pH makes the proteins non active which is deleterious for the organism. There exist a need for pH sensors which can be used in the human body for clinical applications (macroscopic scale), on cells in culture for biology researches (mesoscopic scale) or at a cell membrane level for more fundamental studies (microscopic scale). Among the wide range of technologies potentially useful for these applications, fiber optic fluorescence pH sensing offers the possibility to be adapted to the three above mentioned dimensional scales. This PhD dissertation addresses these constraints by studying fluorescence fiber optics pH sensors using two kind of pH indicators: SNARF and fluorescein. Together with these experimental studies, mathematical descriptions of the fluorescence properties of these indicators are proposed. They allow progressing towards calibration free pH sensing.
85

Calcul parallèle pour la modélisation d'images de résonance magnétique nucléaire / Parallel computing in modeling of magnetic resonance imaging / Obliczenia równoległe w modelowaniu obrazowania technika rezonansu magnetycznego

Jurczuk, Krzysztof 28 August 2013 (has links)
L'objet de cette thèse est la modélisation computationnelle de l'Imagerie par Résonance Magnétique (IRM), appliquée à l'imagerie des réseaux vasculaires. Les images sont influencées par la géométrie des vaisseaux mais aussi par le flux sanguin. Par ailleurs, outre la qualité des modèles développés, il est important que les calculs soient performants. C'est pourquoi, le calcul parallèle est utilisé pour gérer ce type de problèmes complexes. Dans cette thèse, trois solutions sont proposées. La première concerne les algorithmes parallèles pour la modélisation des réseaux vasculaires. Des algorithmes dédiés à différentes architectures sont proposés. Le premier est basé sur le modèle de « passage de messages » pour les machines à mémoires distribuées. La parallélisation concerne l'irrigation de nouvelles zones de tissu par les vaisseaux existants. Le deuxième algorithme est dédié aux machines à mémoire partagée. Il parallélise également le processus de perfusion mais des processeurs différents se chargent de gérer les différents arbres vasculaires. Le troisième algorithme est une combinaison des approches précédentes offrant une solution pour les architectures parallèles hybrides. Les algorithmes proposés permettent d'accélérer considérablement la croissance des réseaux vasculaires complexes, ce qui rend possible la simulation de structures vasculaires plus précises, en un temps raisonnable et aide à améliorer le modèle vasculaire et à tester plus facilement différents jeux de paramètres. Une nouvelle approche de modélisation computationnelle des flux en IRM est également proposée. Elle combine le calcul de flux par la méthode de Lattice Boltzmann, la simulation IRM par le suivi temporel de magnétisations locales, ainsi qu'un nouvel algorithme de transport des magnétisations. Les résultats montrent qu'une telle approche intègre naturellement l'influence du flux dans la modélisation IRM. Contrairement aux travaux de la littérature, aucun mécanisme additionnel n'est nécessaire pour considérer les artéfacts de flux, ce qui offre une grande facilité d'extension du modèle. Les principaux avantages de cette méthode est sa faible complexité computationnelle, son implémentation efficace, qui facilitent le lancement des simulations en utilisant différents paramètres physiologiques ou paramètres d'acquisition des images. La troisième partie du travail de thèse a consisté à appliquer le modèle d'imagerie de flux à des réseaux vasculaires complexes en combinant les modèles de vaisseaux, de flux et d'acquisition IRM. Les algorithmes sont optimisés à tous les niveaux afin d'être performants sur des architectures parallèles. Les possibilités du modèle sont illustrées sur différents cas. Cette démarche de modélisation peut aider à mieux interpréter les images IRM grâce à l'intégration, dans les modèles, de connaissances variées allant de la vascularisation des organes jusqu'à la formation de l'image en passant par les propriétés des flux sanguins. / This PhD thesis concerns computer modeling of magnetic resonance imaging (MRI). The main attention is centered on imaging of vascular structures. Such imaging is influenced not only by vascular geometries but also by blood flow which has to been taken into account in modeling. Next to the question about the quality of developed models, the challenge lies also in the demand for high performance computing. Thus, in order to manage computationally complex problems, parallel computing is in use. In the thesis three solutions are proposed. The first one concerns parallel algorithms of vascular network modeling. Algorithms for different architectures are proposed. The first algorithm is based on the message passing model and thus, it is suited for distributed memory architectures. It parallelizes the process of connecting new parts of tissue to existing vascular structures. The second algorithm is designed for shared memory machines. It also parallelizes the perfusion process, but individual processors perform calculations concerning different vascular trees. The third algorithm combines message passing and shared memory approaches providing solutions for hybrid parallel architectures. Developed algorithms are able to substantially speed up the time-demanded simulations of growth of complex vascular networks. As a result, more elaborate and precise vascular structures can be simulated in a reasonable period of time. It can also help to extend the vascular model and to test multiple sets of parameters. Secondly, a new approach in computational modeling of magnetic resonance (MR) flow imaging is proposed. The approach combines the flow computation by lattice Boltzmann method, MRI simulation by following discrete local magnetizations in time and a new magnetization transport algorithm together. Results demonstrate that such an approach is able to naturally incorporate the flow influence in MRI modeling. As a result, in the proposed model, no additional mechanism (unlike in prior works) is needed to consider flow artifacts, what implies its easy extensibility. In combination with its low computational complexity and efficient implementation, the solution is a user-friendly and manageable at different levels tool which facilitates running series of simulations with different physiological and imaging parameters. The goal of the third solution is to apply the proposed MR flow imaging model on complex vascular networks. To this aim, models of vascular networks, flow behavior and MRI are combined together. In all the model components, computations are adapted to be performed at various parallel architectures. The model potential and possibilities of simulations of flow and MRI in complex vascular structures are shown. The model aims at explaining and exploring MR image formation and appearance by the combined knowledge from many processes and systems, starting from vascular geometry, through flow patterns and ending on imaging technology.
86

Interpolation sur les variétés grassmanniennes et applications à la réduction de modèles en mécanique / Interpolation on Grassmann manifolds and applications to reduced order methods in mechanics

Mosquera Meza, Rolando 26 June 2018 (has links)
Ce mémoire de thèse concerne l'interpolation sur les variétés de Grassmann et ses applications à la réduction de modèles en mécanique et plus généralement aux systèmes d'équations aux dérivées partielles d'évolution. Après une description de la méthode POD, nous introduisons les fondements théoriques en géométrie des variétés de Grassmann, qui seront utilisés dans le reste de la thèse. Ce chapitre donne à ce mémoire à la fois une rigueur mathématique au niveau des algorithmes mis au point, leur domaine de validité ainsi qu'une estimation de l'erreur en distance grassmannienne, mais également un caractère auto-contenu "self-contained" du manuscrit. Ensuite, on présente la méthode d'interpolation sur les variétés de Grassmann introduite par David Amsallem et Charbel Farhat. Cette méthode sera le point de départ des méthodes d'interpolation que nous développerons dans les chapitres suivants. La méthode de Amsallem-Farhat consiste à choisir un point d'interpolation de référence, envoyer l'ensemble des points d'interpolation sur l'espace tangent en ce point de référence via l'application logarithme géodésique, effectuer une interpolation classique sur cet espace tangent, puis revenir à la variété de Grassmann via l'application exponentielle géodésique. On met en évidence par des essais numériques l'influence du point de référence sur la qualité des résultats. Dans notre premier travail, nous présentons une version grassmannienne d'un algorithme connu dans la littérature sous le nom de Pondération par Distance Inverse (IDW). Dans cette méthode, l'interpolé en un point donné est considéré comme le barycentre des points d'interpolation où les coefficients de pondération utilisés sont inversement "proportionnels" à la distance entre le point considéré et les points d'interpolation. Dans notre méthode, notée IDW-G, la distance géodésique sur la variété de Grassmann remplace la distance euclidienne dans le cadre standard des espaces euclidiens. L'avantage de notre algorithme, dont on a montré la convergence sous certaines conditions assez générales, est qu'il ne requiert pas de point de référence contrairement à la méthode de Amsallem-Farhat. Pour remédier au caractère itératif (point fixe) de notre première méthode, nous proposons une version directe via la notion de barycentre généralisé. Notons enfin que notre algorithme IDW-G dépend nécessairement du choix des coefficients de pondération utilisés. Dans notre second travail, nous proposons une méthode qui permet un choix optimal des coefficients de pondération, tenant compte de l'auto-corrélation spatiale de l'ensemble des points d'interpolation. Ainsi, chaque coefficient de pondération dépend de tous les points d'interpolation et non pas seulement de la distance entre le point considéré et un point d'interpolation. Il s'agit d'une version grassmannienne de la méthode de Krigeage, très utilisée en géostatique. La méthode de Krigeage grassmannienne utilise également le point de référence. Dans notre dernier travail, nous proposons une version grassmannienne de l'algorithme de Neville qui permet de calculer le polynôme d'interpolation de Lagrange de manière récursive via l'interpolation linéaire entre deux points. La généralisation de cet algorithme sur une variété grassmannienne est basée sur l'extension de l'interpolation entre deux points (géodésique/droite) que l'on sait faire de manière explicite. Cet algorithme ne requiert pas le choix d'un point de référence, il est facile d'implémentation et très rapide. De plus, les résultats numériques obtenus sont remarquables et nettement meilleurs que tous les algorithmes décrits dans ce mémoire. / This dissertation deals with interpolation on Grassmann manifolds and its applications to reduced order methods in mechanics and more generally for systems of evolution partial differential systems. After a description of the POD method, we introduce the theoretical tools of grassmannian geometry which will be used in the rest of the thesis. This chapter gives this dissertation a mathematical rigor in the performed algorithms, their validity domain, the error estimate with respect to the grassmannian distance on one hand and also a self-contained character to the manuscript. The interpolation on Grassmann manifolds method introduced by David Amsallem and Charbel Farhat is afterward presented. This method is the starting point of the interpolation methods that we will develop in this thesis. The method of Amsallem-Farhat consists in chosing a reference interpolation point, mapping forward all interpolation points on the tangent space of this reference point via the geodesic logarithm, performing a classical interpolation on this tangent space and mapping backward the interpolated point to the Grassmann manifold by the geodesic exponential function. We carry out the influence of the reference point on the quality of the results through numerical simulations. In our first work, we present a grassmannian version of the well-known Inverse Distance Weighting (IDW) algorithm. In this method, the interpolation on a point can be considered as the barycenter of the interpolation points where the used weights are inversely proportional to the distance between the considered point and the given interpolation points. In our method, denoted by IDW-G, the geodesic distance on the Grassmann manifold replaces the euclidean distance in the standard framework of euclidean spaces. The advantage of our algorithm that we show the convergence undersome general assumptions, does not require a reference point unlike the method of Amsallem-Farhat. Moreover, to carry out this, we finally proposed a direct method, thanks to the notion of generalized barycenter instead of an earlier iterative method. However, our IDW-G algorithm depends on the choice of the used weighting coefficients. The second work deals with an optimal choice of the weighting coefficients, which take into account of the spatial autocorrelation of all interpolation points. Thus, each weighting coefficient depends of all interpolation points an not only on the distance between the considered point and the interpolation point. It is a grassmannian version of the Kriging method, widely used in Geographic Information System (GIS). Our grassmannian Kriging method require also the choice of a reference point. In our last work, we develop a grassmannian version of Neville's method which allow the computation of the Lagrange interpolation polynomial in a recursive way via the linear interpolation of two points. The generalization of this algorithm to grassmannian manifolds is based on the extension of interpolation of two points (geodesic/straightline) that we can do explicitly. This algorithm does not require the choice of a reference point, it is easy to implement and very quick. Furthermore, the obtained numerical results are notable and better than all the algorithms described in this dissertation.
87

Étude comparative de trois systèmes de préparation canalaire en endodontie : Étude in vitro en micro-CT / A comparative study of three canal preparation files systems in endodontics : A Micro-Tomography-based in vitro study

Bouhnaida, Zaïnaba 12 July 2018 (has links)
Le but de cette étude est de comparer le respect de la morphologie canalaire après instrumentation à l’aide de trois systèmes de mise en forme canalaire différents : le One Shape NEW Generation®, le Wave One® et le Revo-S® grâce à une étude en Micro-tomographie assistée par ordinateur ou micro-CT (Computed Tomography). La mise en place d’une chaîne méthodologique totalement tridimensionnelle (3D) comprenant la reconstruction, le recalage et la segmentation a permis de traiter les images acquises et d’extraire les images recalées des canaux dentaires avant et après instrumentation. Les artéfacts de segmentation dus aux calcifications et aux débris dentinaires ont été traités. Une méthode d’estimation des zones non instrumentées a également été décrite.Le transport canalaire a été calculé pour chaque coupe de chaque tiers radiculaire, en comparant la position du centroïde avant et après instrumentation. La comparaison des moyennes de transport canalaire ne montre pas de différence significative entre les 3 systèmes d’instrumentation.Cette approche méthodologique en 4 parties a permis de valider un protocole d’imagerie 3D reproductible, qui pourra être appliqué in vitro en recherche endodontique dans l’analyse des effets instrumentaux. / The aim of this study is to compare the respect of the root canal morphology after instrumentation with different shaping systems (One Shape NEW Generation®, Wave One® and Revo-S®), by using Micro-Computed Tomography.We used a fully three-dimensional (3D) methodological process which involved the reconstruction, registration and segmentation. By this methodological process, images have been acquired and processed in order to extract registered canals images before and after the instrumentation. The segmentation artifacts like calcifications and debris have been taken into account. A method to estimate the non-instrumented zones is also described.The canal transportation was calculated for each slice of each root-third by comparing the position of the centroids before and after instrumentation. No significant difference was found between the three instrumentation systems when canal transport means were done.This 4-part methodological approach has enabled the validation of a reproducible 3D imaging protocol. This can be applied in vitro in endodontic research for analysis of the instrumental effects.
88

APPROCHE HAMILTONIENNE POUR LES ESPACES DE FORMES DANS LE CADRE DES DIFFÉOMORPHISMES: DU PROBLÈME DE RECALAGE D'IMAGES DISCONTINUES À UN MODÈLE STOCHASTIQUE DE CROISSANCE DE FORMES

Vialard, François-Xavier 07 May 2009 (has links) (PDF)
Ce travail de thèse se situe dans le contexte de l'appariement d'images par difféomorphismes qui a été récemment développé dans le but d'applications à l'anatomie computationnelle et l'imagerie médicale. D'un point de vue mathématique, on utilise l'action de groupe de difféomorphismes de l'espace euclidien pour décrire la variabilité des formes biologiques. <br /><br />Le cas des images discontinues n'était compris que partiellement. La première contribution de ce travail est de traiter complètement le cas des images discontinues en considérant comme modèle d'image discontinues l'espace des fonctions à variations bornées. On apporte des outils techniques pour traiter les discontinuités dans le cadre d'appariement par difféomorphismes. Ces résultats sont appliqués à la formulation Hamiltonienne des géodésiques dans le cadre d'un nouveau modèle qui incorpore l'action d'un difféomorphisme sur les niveaux de grille de l'image pour prendre en compte un changement d'intensité. La seconde application permet d'étendre la théorie des métamorphoses développée par A.Trouvé et L.Younes aux fonctions discontinues. Il apparait que la géométrie de ces espaces est plus compliquée que pour des fonctions lisses.<br /><br />La seconde partie de cette thèse aborde des aspects plus probabilistes du domaine. On étudie une perturbation stochastique du système Hamiltonien pour le cas de particules (ou landmarks). D'un point de vue physique, on peut interpréter cette perturbation comme des forces aléatoires agissant sur les particules. Il est donc naturel de considérer ce modèle comme un premier modèle de croissance de forme ou au moins d'évolutions aléatoires de formes.<br /><br />On montre que les solutions n'explosent pas en temps fini presque sûrement et on étend ce modèle stochastique en dimension infinie sur un espace de Hilbert bien choisi (en quelque sorte un espace de Besov ou Sobolev sur une base de Haar). En dimension infinie la propriété précédente reste vraie et on obtient un important (aussi d'un point de vue numérique) résultat de convergence du cas des particules vers le cas de dimension infinie. Le cadre ainsi développé est suffisamment général pour être adaptable dans de nombreuses situations de modélisation.
89

Sur quelques problèmes mathématiques en analyse d'images et vision stéréoscopique

Almansa, Andrés 01 December 2005 (has links) (PDF)
.
90

Méthodes algébriques dans la musique et la musicologie du XXème siècle : aspects théoriques, analytiques et compositionnels

Andreatta, Moreno 12 December 2003 (has links) (PDF)
L'application de méthodes algébriques en musique représente une démarche récente dans la recherche musicale. Une réflexion historique sur l'émergence du concept de structure algébrique en musique met en évidence la place centrale occupée par trois compositeurs/théoriciens du XXe siècle : Milton Babbitt, Iannis Xenakis et Anatol Vieru. À partir de leurs propositions théoriques, cette étude développe une réflexion approfondie sur la notion de théorie musicale dans ses applications aussi bien analytiques que compositionnelles. Elle offre également une formalisation algébrique de la Set Theory et de ses développements transformationnels tout en discutant les rapports entre la tradition analytique américaine et la démarche théorique formelle en Europe. Les concepts abordés permettent de définir la place d'une démarche computationnelle en musicologie et ouvrent des questions philosophiques sur le rapport entre mathématiques et musique.

Page generated in 0.0776 seconds