• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Terminaison basée sur les types et filtrage dépendant pour le calcul des constructions inductives

Sacchini, Jorge 29 June 2011 (has links) (PDF)
Les assistants de preuve basés sur des théories des types dépendants sont de plus en plus utilisé comme un outil pour développer programmes certifiés. Un exemple réussi est l'assistant de preuves Coq, fondé sur le Calcul des Constructions Inductives (CCI). Coq est un langage de programmation fonctionnel dont un expressif système de type qui permet de préciser et de démontrer des propriétés des programmes dans une logique d'ordre supérieur. Motivé par le succès de Coq et le désir d'améliorer sa facilité d'utilisation, dans cette thèse nous étudions certaines limitations des implémentations actuelles de Coq et sa théorie sous-jacente, CCI. Nous proposons deux extension de CCI que partiellement resourdre ces limitations et que on peut utiliser pour des futures implémentations de Coq. Nous étudions le problème de la terminaison des fonctions récursives. En Coq, la terminaison des fonctions récursives assure la cohérence de la logique sous-jacente. Les techniques actuelles assurant la terminaison de fonctions récursives sont fondées sur des critères syntaxiques et leurs limitations apparaissent souvent dans la pratique. Nous proposons une extension de CCI en utilisant un mécanisme basé sur les type pour assurer la terminaison des fonctions récursives. Notre principale contribution est une preuve de la normalisation forte et la cohérence logique de cette extension. Nous étudions les définitions par filtrage dans le CCI. Avec des types dépendants, il est possible d'écrire des définitions par filtrage plus précises, par rapport à des langages de programmation fonctionnels Haskell et ML. Basé sur le succès des langages de programmation avec types dépendants, comme Epigram et Agda, nous développons une extension du CCI avec des fonctions similaires.
642

Holophonie binaurale - Spatialisation sonore sur réseaux de haut-parleurs circumauraux

Greff, Raphaël 25 November 2008 (has links) (PDF)
Les systèmes de réalité virtuelle ont pour objectif de plonger les utilisateurs dans un espace suggéré artificiellement par des informations multi-sensorielles, auditive entre autres. Le positionnement des sources sonores dans l'espace constitue un facteur important d'immersion et contribue grandement au réalisme d'une scène virtuelle. La synthèse binaurale est la technique de spatialisation sonore qui s'approche le plus de l'écoute naturelle. Elle permet de spatialiser un événement sonore monophonique à l'aide de seulement deux filtres, les HRTF (Head-Related Transfer Functions), caractérisant la propagation acoustique de la source vers les oreilles d'un auditeur. Les différences de temps d'arrivée et de niveau de pression au niveau des tympans sont des indices de localisation primordiaux pour estimer de la latéralité d'une source, mais sont insuffisants pour la situer précisément en élévation. Le contenu spectral des HRTF contient les indices permettant cette discrimination, notamment les pics et creux en hautes fréquences induits par les effets de diffraction au sein des pavillons d'oreille. L'inconvénient majeur de la technique binaurale repose donc sur le fait que les HRTF sont propres à chaque utilisateur, car liés aux déformations subies par l'onde sonore lorsqu'elle rencontre les différentes parties du corps humain. Une écoute avec des filtres non individuels comporte des artéfacts perceptibles. Il est donc nécessaire d'acquérir des HRTF individuelles. La mesure ou le calcul numérique sont des méthodes couramment utilisées pour l'estimation de ces dernières, mais sont trop coûteuse en temps et en moyen pour être employées dans des applications grand public. D'autres procédés de personnalisation des HRTF tentent de modéliser le lien entre la morphologie d'un auditeur et les indices de localisation qui lui sont associés, en se basant sur des mesures anthropométriques. Cependant, l'estimation correcte des paramètres morphologiques ne peut être garantie que via l'utilisation d'outils de mesure robuste et souvent onéreux, notamment pour les dimensions liées aux pavillons d'oreille. Cette thèse propose une nouvelle approche d'individualisation des HRTF, fondée sur une séparation des indices de localisation liés au torse et à la tête de ceux liés aux pavillons. La composante tête/torse est modélisée numériquement alors que la composante pavillonnaire est recrée à l'aide de réseaux de haut-parleurs entourant chacun des pavillons d'oreille de l'auditeur. L'idée de cette méthode est d'essayer d'exciter les véritables indices acoustiques induits par la diffraction du front d'onde reconstruit sur les pavillons. Ce nouveau concept, que nous appellerons " holophonie binaurale ", car dérivé de techniques holophonique et binaurale, est développé dans ce manuscrit : différentes simulations ont été menées dans des cas de figure idéaux, et différentes optimisations sont proposées pour améliorer le fonctionnement du procédé pour un nombre réaliste de transducteurs. Ces études ont conduit à la conception et à l'évaluation d'un prototype de casque multi-haut-parleur dédié.
643

Singularités lagrangiennes

Sevenheck, Christian 27 January 2003 (has links) (PDF)
Dans cette thèse, nous développons une théorie de<br />déformation pour les singularités lagrangiennes. Pour une singularité<br />lagrangienne, un complexe de modules à différentielle non-linéaire,<br />dont la première cohomologie est isomorphe à l'espace de déformations<br /> infinitésimales de la singularité, est défini. La cohomologie en degré deux contient des informations sur les obstructions. Ce<br />complexe est relié à la théorie des modules différentiels. Nous<br />démontrons que, sous une condition géométrique, sa cohomologie est<br />constituée de faisceaux constructibles. Nous décrivons une méthode<br />utilisant du calcul formel pour déterminer cette cohomologie pour<br />des surfaces quasi-homogènes.
644

Méthodes d'Accès Multiple à Répartition Spatiale pour Communications par Satellite

Sow, Garmy 05 1900 (has links) (PDF)
Dans le cadre de ce travail de recherche, nous nous sommes intéressés à un système de télécommunications par satellite intervenant en situation d'urgence. Ce système serait embarqué comme passager d'un satellite géostationnaire travaillant en bande Ka et assurerait la transmission à une flotte de petits terminaux compatibles avec les standards DVB-RCS/S. Les potentialités offertes par l'association de la Formation de Faisceaux par le Calcul (FFC) adaptative et d'une méthode d'Accès Multiple à Répartition Spatiale (AMRS) ont été plus particulièrement étudiées pour une antenne de réception à réflecteur (antenne Focal Array Fed Reflector, FAFR). La combinaison de ces deux techniques permet la mise en place du concept «un spot par utilisateur» assurant ainsi d'une part un niveau maximal de gain en tout point de la couverture et rendant possible d'autre part la réutilisation de ressources grâce à la réjection d'interférence. La première partie de ce travail est consacrée à une étude des algorithmes de FFC. Nous présentons le Formateur Conventionnel et quelques algorithmes adaptatifs, puis, nous analysons les performances de chacun en environnement réel (prise en compte des perturbations du canal de transmission, de celles sur les vecteurs directionnels, du bruit...). Les conditions d'implémentation de ces algorithmes sont également définies. Dans une seconde partie, nous proposons un modèle de système satellite basé sur la formation de faisceaux adaptative par séquence de référence et l'accès AMRS. Les facteurs de réutilisation de ressources permis par les algorithmes retenus sont évalués. Grâce à un algorithme d'allocation de ressources simple et aux facteurs de réutilisation calculés, une première estimation de la capacité et des performances de ce système est réalisée. Une comparaison avec d'autres systèmes montre que celui proposé permet d'augmenter significativement la capacité au prix d'une complexité accrue.
645

Modélisation par éléments finis des hétérogénéités à l'échelle granulaire au sein d'agrégats polycristallins

Resk, Héba 03 December 2010 (has links) (PDF)
Les matériaux cristallins, notamment métalliques, sont des matériaux hétérogènes. Leurs propriétés macroscopiques sont fondamentalement déterminées par leurs caractéristiques microstructurales. L'étude des mécanismes opérant à l'échelle du grain permet de mieux comprendre et mieux contrôler les caractéristiques des pièces fabriquées afin de réduire leur coût et optimiser leur performance. Cette thèse s'inscrit dans le cadre de la méthode dite "CPFEM'' qui couple la plasticité cristalline à la méthode des Eléments finis (EF). L'objectif de ce travail est d'étudier les hétérogénéités à l'échelle du grain au sein d'agrégats polycristallins soumis à de grandes déformations. Pour ce faire, une représentation explicite de la microstructure est nécessaire. Le travail réalisé, ainsi que ce manuscrit, s'articule autour de deux axes principaux: i) la mise en place d'un cadre numérique robuste adapté à des calculs de microstructure intensifs en grandes déformations; ii) la validation de ce cadre à travers différents cas tests, qui permettent, notamment, d'étudier les hétérogénéités locales. Dans le chapitre 2, le comportement du matériau est modélisé par une loi élastoviscoplastique cristalline, qui ne prend cependant pas en compte le développement d'une sous-structure dans sa formulation. Cette loi est couplée à une formulation EF mixte en vitesse pression. L'approche EF, détaillée dans le chapitre 3, peut être considérée comme le modèle polycristallin idéal vu le respect, au sens numérique faible, de l'équilibre des contraintes et la compatibilité des déformations. Dans le chapitre 4, l'approche utilisée pour construire, représenter et discrétiser un volume polycristallin est détaillée. La microstructure est représentée, soit par des polyèdres de Voronoi, soit par des voxels, si elle est construite à partir de données expérimentales. L'agrégat polycristallin est discrétisé avec une approche "monolithique'', où un seul maillage, non structuré et non-conforme aux interfaces entre les grains, est utilisé. Une approche level set permet alors de décrire l'interface entre les grains de façon implicite et sert de base pour la construction d'un maillage adaptatif anisotrope. Le remaillage, avec un transport approprié des variables du problème, se fait de façon naturelle et automatique si la carte de métrique, associée au maillage, est calculée avant la procédure de remaillage. Dans le chapitre 5, les hétérogénéités inter- et intragranulaire sont appréhendées à travers une étude de la distribution d'une fraction de l'énergie de déformation. Cette fraction est considérée, dans une première approche, comme étant représentative de l'énergie stockée durant la déformation. Une analyse de sensibilité, au degré et au type de maillage utilisé, permet de mettre en évidence l'apport d'une stratégie de maillage anisotrope. Ces données locales sont particulièrement importantes à calculer lors de la déformation d'agrégats polycrystallins si l'objectif est de modéliser le phénomène de recristallisation statique qui suit l'étape de déformation. Un cas test 3D permet d'illustrer le chaînage de la simulation de la déformation et de la recristallisation, toutes deux réalisées dans le même cadre numérique. Dans le chapitre 6, notre approche numérique est, dans un premier temps, validée à l'aide d'un cas test de laminage pour un polycrystal statistiquement représentatif d'une texture expérimentale. Une réduction d'épaisseur de plus de 90 % est réalisée. Le remaillage, dans ce type d'application, s'avère plus que nécessaire. Dans la seconde partie de ce chapitre, une étude approfondie de la microtexture, développée au sein de microstructures virtuelles, est effectuée. Dans ce cas, ces microstructures "digitales'' correspondent à une microstructure réelle dans un sens discret. Les prédictions de désorientations, d'orientations cristallographiques moyennes ainsi que les cartes d'orientation 2D virtuelles, sont comparés à l'expérience à l'échelle de chaque grain, mettant ainsi en évidence les facteurs à l'origine de certaines des différences observées.
646

Quelques problèmes d'optimisation de formes en sciences du vivant

Privat, Yannick 21 October 2008 (has links) (PDF)
Dans cette thèse, nous nous demandons si certaines formes présentes dans la nature résultent de l'optimisation d'un critère. Plus précisément, nous considérons un organe ou une partie du corps humain et tentons de deviner un critère que la nature aurait pu chercher à optimiser. Nous résolvons alors le problème d'optimisation de formes résultant afin de comparer la forme obtenue, théoriquement ou numériquement, avec la forme réelle de l'organe. Si ces deux formes sont proches, on pourra en déduire que le critère est convaincant. <br />Dans la première partie de cette thèse, nous considérons l'exemple d'une fibre nerveuse de type axone ou dendrite. Nous proposons deux critères pour expliquer sa forme. Le premier traduit l'atténuation dans le temps du message électrique traversant la fibre et le second l'atténuation dans l'espace de ce message. Dans notre choix de modélisation, nous distinguons deux types de fibres nerveuses : celles qui sont connectées au noyau de la cellule et celles qui sont connectées entre elles. Les problèmes correspondants se ramènent à la minimisation par rapport au domaine des valeurs propres d'un opérateur elliptique et d'une fonction de transfert faisant intervenir la trace sur le bord du domaine du potentiel électrique au sein de la fibre.<br />La seconde partie de cette thèse est dédiée à l'optimisation de la forme d'un arbre bronchique ou d'une partie de cet arbre. Nous considérons un critère de type "énergie dissipée". Dans une étude théorique, nous prouvons tout d'abord que le cylindre n'est pas une conduite optimale pour minimiser l'énergie dissipée par un fluide newtonien incompressible satisfaisant aux équations de Navier-Stokes.<br />Nous effectuons ensuite des simulations en deux et trois dimensions afin de tester numériquement si l'arbre bronchique est ou non optimal.
647

Réhabiliter la Résonance Magnétique Nucléaire comme réalisation physique pour des ordinateurs quantiques et Résoudre des équations de Pell simultanées par des techniques de calcul quantique

Van Schenk Brill, Kees 03 December 2010 (has links) (PDF)
Cette thèse contient deux parties. Je décris une approche pour construire une réalisation physique d'un ordinateur quantique par Résonance Magnétique Nucléaire (RMN). Je propose un nouveau cadre pour la RMN dans les réalisations physiques d'un ordinateur quantique. Je construis une description de la RMN à partir de la mécanique quantique avec laquelle je peux construire les opérateurs élémentaires essentiels pour le calcul quantique. Je décris les expériences pour construire ces opérateurs. Je propose un algorithme quantique en temps polynomial pour résoudre des équations de Pell simultanées comme extension de l'algorithme de Hallgren pour des équations de Pell simples.
648

Une méthode MultiMaillages MultiPhysiques parallèle pour accélérer les calculs des procédés incrémentaux

Ramadan, Mohamad 08 October 2010 (has links) (PDF)
L'objectif de notre travail est de réduire le temps de calcul des procédés multiphysiques incrémentaux, tout en conservant avec précision l'histoire du calcul et en prenant en compte l'aspect multiphysique. Notre choix est tombé sur la méthode MultiMaillages MultiPhysiques (MMMP). Le principe de la méthode consiste à utiliser pour chaque physique un Maillage de Calcul qui lui est optimal, et à considérer un Maillage Référence pour le stockage des résultats. Étant donné que l'application principale de notre travail de thèse est le procédé de martelage qui est un procédé couplé thermomécaniquement, on a appliqué la méthode MMMP à ce procédé en considérant 2 maillages : un maillage pour le calcul mécanique et un autre pour le calcul thermique que l'on a aussi utilisé comme Maillage Référence. La particularité du procédé de martelage est que la déformation plastique est localisée dans la zone de contact avec les outils, et à l'extérieure de cette zone la déformation est négligeable. Le maillage Mécanique est généré en se basant sur cette particularité : il est divisé en deux zones, une zone qui a une taille de mailles fine, c'est la zone de déformation (zone de contact avec les outils) et une autre, constituée par le reste du maillage c'est-à-dire là où il ne se passe presque rien ; dans cette zone on a considéré une taille déraffinée égale à deux fois la taille fine. Pour améliorer la qualité du transport qui est fait par la méthode d'interpolation inverse on a utilisé trois techniques : la première consiste à grader la zone de déformation dans le Maillage Mécanique telle qu'elle est dans le Maillage Référence, la deuxième consiste à déraffiner la zone de faible déformation par un déraffinement emboîté par nœuds, c'est à dire en éliminant des nœuds sons ajouter ou bouger les nœuds existants et la troisième concerne les variables élémentaires telles que la déformation généralisée et consiste à ne pas transporter cette variable mais à la recalculer sur le maillage d'arrivée à partir de la vitesse. Le coût élevé du transport est réduit à moins de 1 % du temps total par une technique de transport sans relocalisation qui consiste à faire la localisation du maillage d'arrivée dans le maillage de départ uniquement au premier incrément et utiliser cette localisation pour les autres incréments. Le partitionnement du Maillage Mécanique est fait indépendamment du Maillage Référence, ce qui améliore l'efficacité parallèle de la méthode. L'accélération MMMP est excellente, elle varie entre 4 et 18 en fonction du nombre de degrés de liberté, du nombre d'incréments et de la configuration de calcul. En parallèle elle chute un peu puisque le Maillage Mécanique du calcul Multimaillage a moins de degrés de liberté que le Maillage du calcul Monomaillage, cependant la méthode continue à nous offrir des accélérations même sur un très grand nombre de processeurs.
649

Étude et résolution exacte de problèmes de transport à la demande avec qualité de service

Garaix, Thierry 13 December 2007 (has links) (PDF)
Nous étudions dans cette thèse un problème de construction de tournées de véhicules pour le transport de personnes à la demande (TAD) qui, combinant la souplesse des taxis à la capacité de regroupement des transports en commun, est une voie pour repenser nos pratiques en terme de mobilité. Après avoir défini puis classé plusieurs critères de qualité de service, nous en sélectionnons trois pour leur représentativité : la minimisation de la distance totale parcourue, la maximisation du taux de remplissage des véhicules et la minimisation du temps perdu en transport. La méthode d'optimisation utilisée est basée sur une approche par décomposition appelée génération de colonnes. Nous nous plaçons dans le cas statique où toutes les demandes sont connues par avance. L'adaptation de cette méthode exacte aux trois critères choisis induit des développements originaux, comme la modélisation du réseau par un p-graphe ou l'optimisation d'une fonction objectif fractionnaire. Cette étude est intégrée à un projet pluridisciplinaire piloté par des géographes qui a pour sujet d'expérimentation la mise en place d'un TAD opérationnel dans le Pays du Doubs Central (France). Un algorithme de résolution heuristique spécifique a été développé pour cette application. L'intégration des résultats des deux algorithmes à un Système d'Information Géographique permet une analyse des critères de qualité de service et de leurs interactions avec le territoire d'un point de vue géomatique. Il en découle une étude sur la forme des tournées et plus particulièrement sur différentes mesures de leur sinuosité.
650

Contribution à la modélisation numérique en électromagnétisme statique stochastique

Gaignaire, Roman 11 March 2008 (has links) (PDF)
En électromagnétisme, dans la plupart des modèles numériques, déterministes, résolvant les équations de Maxwell, toutes les données d'entrée sont supposées parfaitement connues. Cependant la géométrie et les caractéristiques des matériaux peuvent présenter des incertitudes (vieillissement...). Nous cherchons alors à propager les incertitudes des données d'entrée vers les paramètres de sorties. Un modèle numérique probabiliste paraît alors plus adapté qu'un modèle numérique déterministe. Un certain nombre de méthodes ont été proposé en génie mécanique, très peu en électromagnétisme. La méthode de simulation de Monte Carlo est simple et robuste mais coûteuse en temps de calcul. On trouve aussi la méthode de perturbation où le champ inconnu est développé en série de Taylor autour de sa moyenne. Cette méthode permet de calculer la moyenne et la variance du champ de sortie assez simplement, mais pour les moments d'ordre supérieur, la généralisation semble complexe et coûteuse en temps de calcul. La méthode de développement en série de Neumann consiste à développer l'opérateur en série, mais la convergence semble lente. Il existe aussi des méthodes basées sur des développements des paramètres de sorties dans le chaos polynomial de Hermite. Ces méthodes sont basées sur une discrétisation de la dimension spatiale et de la dimension aléatoire. Ces méthodes peuvent être séparées en deux familles. La première, introduite par R.G. Ghanem, est dite intrusive car elle nécessite des modifications profondes du code éléments finis, elle est appelée Spectral Stochastic Finite Element Method (SSFEM) et elle peut être vue comme une généralisation de la méthode de Galerkin, la seconde est dite non intrusive car le code éléments finis n'est vu que comme une boite noire. Dans la thèse, nous présenterons la méthode de Monte Carlo, et nous étudierons la SSFEM et une classe particulière de méthode non intrusive : la méthode de projection sur le chaos polynomial de Hermite dans le cas de l'électrocinétique où les conductivités seront supposées être des variables aléatoires par morceaux. Dans ce cadre les conductivités peuvent être développées en polynômes de Hermite, nous étudierons l'effet de la troncature sur les résultats. Finalement, une méthode pour calculer des grandeurs globales, comme le courant sera présentée et utilisée pour l'étude d'un cas industriel : un manchon de câble électrique à haute tension. Mots-clés: électromagnétisme numérique, quantification des incertitudes, chaos polynomial, éléments finis stochastiques, méthode non intrusive de projection, calcul de grandeur globale.

Page generated in 0.0415 seconds