• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1271
  • 421
  • 128
  • 33
  • 17
  • 8
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1875
  • 369
  • 189
  • 154
  • 116
  • 110
  • 105
  • 105
  • 104
  • 102
  • 98
  • 97
  • 97
  • 96
  • 90
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Invariants locaux en géométrie modérées.

Comte, Georges 10 November 2010 (has links) (PDF)
Il s'agit d'une thèse d'habilitation à diriger des recherches portant sur les invariants additifs en géométrie réelle, complexe et p-adique.
262

Recherche de similarités dans les séquences d'ADN : modèles et algorithmes pour la conception de graines efficaces

Noé, Laurent 30 September 2005 (has links) (PDF)
Les méthodes de recherche de similarités les plus fréquemment utilisées dans le cadre de la génomique sont heuristiques.<br />Elles se basent sur un principe de filtrage du texte qui permet de localiser les régions potentiellement similaires.<br />Dans cette thèse, nous proposons de nouvelles définitions de filtres pour la recherche de similarités sur les séquences génomiques et des algorithmes associés pour mesurer leurs caractéristiques.<br /> Plus précisément, nous avons étudié le modèle des graines espacées, et proposé un algorithme d'évaluation de l'efficacité des graines sur des similarités d'une classe particulière (similarités dites homogènes). Nous avons également développé un algorithme général pour la mesure de l'efficacité des graines, ainsi qu'un nouveau modèle de graine appelé graine sous-ensemble, extension du modèle des graines espacées. Enfin nous donnons, dans le cadre du filtrage sans perte, une extension à l'aide de graines multiples, que nous analysons et appliquons au problème de la conception d'oligonucléotides.<br /> Nous avons réalisé et donnons accès à des outils pour la conception des filtres, ainsi que pour la recherche de similarités.
263

Applying the Kolmogorov equation to the problem of subgrid modeling for Large-Eddy Simulation of turbulence

Fang, Le 23 July 2009 (has links) (PDF)
The aim of the current work is to investigate a series of new subgrid models by employing the Kolmogorov equation of ltered quantities (KEF), which is an exact relation of turbulence in physical space. Different formulations of KEF are derived, including the forms in velocity eld (homogeneous isotropic turbulence, inhomogeneous anisotropic turbulence, homogeneous shear turbulence, homogeneous rotating turbulence), in scalar turbulence and in magnetohydrodynamic turbulence. The corresponding subgrid models are then formulated, for example: - The multi-scale improvement of CZZS model. - A new anisotropic eddy-viscosity model in homogeneous shear turbulence. - The improved velocity increment model (IVI). - The rapid-slow analysis and model application in inhomogeneous anisotropic scalar turbulence. - The attempt in magnetohydrodynamic (MHD) turbulence. Besides, there are also other important conclusions in this thesis: - The anisotropic effect of mean shear in physical space is analyzed. - Analytical corrections to the scaling of the second-order structure function in isotropic turbulence in introduced. - It is shown that the two-point distance of velocity increment must be much larger than the lter size, in order to satisfy the classical scaling law. Otherwise, the classical scaling law can not be directly applied in subgrid modeling. - A thought-experiment is described to analyse the time-reversibility problem of subgrid models. - A rapid algorithm for Tophat lter operator in discrete eld is introduced.
264

Dérivation Automatique pour le calcul des sensibilités appliqué au dimensionnement en génie électrique

Enciu, Petre 12 October 2009 (has links) (PDF)
Le dimensionnement par optimisation est aujourd'hui d'un intérêt majeur, car il fournit un moyen fiable et rapide en vue de déterminer les performances souhaitées de dispositifs, tout en minimisant une fonction de coût. Nous sommes particulièrement intéressés par l'optimisation sous contraintes basée sur le calcul de gradients. Ces algorithmes nécessitent des valeurs précises des dérivées de la fonction objectif et des performances à contraindre. Evaluer ces dérivées exactes se révèle comme une tâche complexe et très laborieuse, vu que les fonctions de performances et de coûts sont souvent évaluées à partir d'algorithmes numériques complexes. La Dérivation Automatique est une technique efficace pour calculer les dérivées des fonctions décrites au moyen de programmes informatiques dans des langages de programmation de haut niveau tel que Fortran, C ou C + +. Cette technique s'utilise parfaitement pour l'optimisation avec des algorithmes basés sur le calcul de gradients, étant donné que les dérivées sont évaluées sans aucune erreur de troncature ou d'annulation. Ce travail emploie la Dérivation Automatique pour calculer les gradients de programmes de calcul des modèles de dispositifs électromagnétiques.
265

L'aquifère carbonate karstique de Chekka (Liban) et ses exutoires sous-marins. Caractéristiques hydrogéologiques et fonctionnement.

El Hajj, Ahmad 24 November 2008 (has links) (PDF)
Les sources sous-marines de Chekka au Liban, étudiées depuis longtemps, sont présentées comme étant parmi les plus importantes sources sous-marines connues. Les premières estimations, jamais remises en question, leur attribuent un débit moyen de l'ordre de 6 m3/s, dont 2.5 m3/s au moins pour la principale source en étiage. Des technologies nouvelles développées en France pour l'étude des sources sous-marines ont été mises en œuvre pour étudier leur fonctionnement et celui de leur aquifère, dans le cadre du projet européen MEDITATE. La principale source pérenne "S2" a été instrumentée pour une mesure en continu du débit, de la salinité, de la température et de la pression. Les premières données indiquent un débit d'étiage d'environ 60 l/s d'eau saumâtre, soit 30 l/s d'eau douce en étiage. Son fonctionnement est typiquement karstique, avec de grandes variations du débit, de la salinité et de la température de l'eau. Aux faibles débits sont associées de fortes salinités liées à une intrusion marine, par des conduits karstiques. De nombreux points d'eau de la région, dont les sources sous-marines et littorales, ont été l'objet d'un suivi géochimique. Le bassin hydrogéologique fut délimité : les rivières Asfour et Jaouz subissent des pertes dans leur traversée des calcaires du Crétacé supérieur, atteignant, selon la saison, plusieurs m3/s au total. Le bilan hydrologique du bassin d'alimentation de ces sources attribue un débit moyen d'eau douce de 2.15 m3/s au total, compatible avec les mesures directes faites en étiage. Les premières conclusions mettent en doute la possibilité d'exploitation directe de ces sources sous-marines. Un contrôle continu de la principale source sous-marine paraît être la mesure à envisager dans le cadre d'une surveillance de l'aquifère pour en faire une exploitation raisonnée durable de cette ressource.
266

Minimisation d'énergie sous contraintes, applications en algèbre linéaire et en contrôle linéaire

Gryson, Alexis 01 July 2009 (has links) (PDF)
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l'approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l'approximation d'un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d'une équation de Sylvester. Après avoir prouvé l'existence d'un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d'énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique. On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l'axe réel symétriques par rapport à l'origine. L'impact de nos résultats théoriques pour l'analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d'une équation de Lyapounov est estimé à l'aide de plusieurs exemples numériques après avoir exposé l'algorithme nous permettant d'obtenir les paramètres utilisés.
267

Intégration d'un outil d'aide au tolérancement dans un logiciel de C.F.A.O.

Gaëtan, Legrais 22 November 2005 (has links) (PDF)
Dans la plupart des systèmes de CFAO actuels, les tolérances sont indiquées grâce à des outils de représentation graphique symbolique (cotes, cadres de tolérances, repères, textes, ...). Cette représentation doit être correcte du point de vue syntaxique et sémantique. Les règles de bases de la syntaxe sont en général prises en compte par le logiciel, mais pas toutes. Il est encore possible d'écrire des tolérances qui ne sont pas correctes du fait même de leur écriture. Pour vérifier que la sémantique d'une tolérance est correcte, il faut pouvoir lui donner une interprétation conformément aux règles définies par les normes. Or ces règles sont complexes. Jusqu'à présent seul un technicien, avant une connaissance approfondie, est capable de vérifier si une tolérance indiquée sur le dessin est correcte du point de vue sémantique. Je développe un système intégré au logiciel TopSolid qui permet d'inscrire les tolérances sur le plan à partir du modèle 3D de la pièce. L'utilisateur travaillera sur un modèle 3D. Après avoir indiquer sur la pièce les surfaces tolérancées, le logiciel propose alors de contrôler les paramètres et les choix possibles de l'utilisateur. Le concepteur pourra ensuite définir des références de tolérance dont la cohérence avec le cadre de tolérance sera automatiquement vérifiée au fur et à mesure de leurs créations. Il s'agira, ensuite, d'aider le concepteur à déterminer quelles sont les surfaces à prendre en références et celles qui doivent être tolérancées. Cette partie permettra alors de définir un tolérancement complet à partir d'un ensemble de surfaces fonctionnelles hiérarchisées. Cette thése propose d'assister le concepteur dans sa démarche de tolérancement. Pour ce faire, je mets à sa disposition au travers de mes travaux un outil de transfert des connaissances sur le tolérancement et un atelier d'aide à la prise de décision.
268

Preuves, types et sous-types

Ruyer, Frédéric 30 November 2006 (has links) (PDF)
Cette thèse porte sur l'étude théorique et pratique d'un système de typage appliqué à la preuve de programmes de style fonctionnels. Le système de base est le système ST créé par C.Raffalli; il comporte, outre le polymorphisme, du sous-typage et de l'omission de contenu non-algorithmique. Nous étudions tout d'abord les modèles de la théorie définie par le système de types, en construisant une axiomatique basée sur les treillis permettant de modéliser le calcul et la logique. Nous étudions sur cette base le système de types, montrons la réduction du sujet, et la possibilité de définir en interne la normalisabilité et la réductibilité des programmes. Dans la suite de la thèse, plus appliquée, nous étudions des codages de types de données riches inspirés des langages fonctionnels - y incluant notamment un système de modules du premier ordre- dans le Lambda-Calcul, et montrons qu'ils s'intègrent harmonieusement dans le système; la méthodologie développée dans cette partie permet d'étendre le langage de types et le langage de programmation en conservant un critère de consistance assurant la sûreté du code typé.
269

Contribution à la conception d'un émetteur-récepteur pour microcapteurs autonomes

Terrasson, G. 24 November 2008 (has links) (PDF)
L'étude des réseaux de microcapteurs sans fil met clairement en évidence la contrainte principale de l'autonomie en énergie. En effet, ces microcomposants autonomes et communicants appelés aussi noeuds du réseau sont dispersés dans des lieux parfois peu ou pas accessibles. L'objectif de notre travail est de proposer une méthode de conception d'un émetteur-récepteur adapté à ce type de réseaux. Partant d'une modélisation au niveau système mettant en relief la part prépondérante du module radiofréquence sur la consommation moyenne d'un noeud, nous avons développé trois nouveaux outils de conception correspondant à différents niveaux de modélisation de la chaine de communication. Leur utilisation conjointe et les résultats de simulations obtenus nous offrent la possibilité de mettre en relation les spécifications et les performances d'un module radiofréquence avec la consommation. L'association de ces outils dans une méthode de conception itérative nous a permis de dimensionner une chaine de communication en fonction d'une contrainte de consommation. Finalement, nous avons conçu, fabriqué et testé, un amplificateur faible bruit (LNA ou Low Noise Amplifier) à 868 MHz qui présente des caractéristiques très intéressantes en termes de consommation.
270

CONTRIBUTION A LA SEPARATION AVEUGLE DE SOURCES

Ali, Mansour 13 January 1997 (has links) (PDF)
Le problème de séparation de sources est un problème relativement récent en traitement du signal, qui consiste à séparer des sources, statistiquement indépendantes, observées par un réseau de capteurs. Dans cette thèse, plusieurs approches ont été étudiées : <br /> <br />Deux approches directes, valables uniquement pour le mélange linéaire instantané, ont été proposées. La première, analytique, est basée sur les statistiques de signaux observés, l'autre géométrique, est basée sur les distributions de ces signaux, dont la densité de probabilité est supposée à support borné. <br /> <br />Pour les signaux de même signe de kurtosis, on a proposé un algorithme adaptatif basé uniquement sur les cumulants croisés (2x2). Ce critère est valable pour les mélanges instantanés, aussi bien pour les mélanges<br /> convolutifs. <br /> <br />L'hypothèse concernant le signe de kurtosis est assez fréquente dans la littérature sur la séparation de sources. Des études sur cette hypothèse, et sur sa relation avec la nature de sources, sont présentées dans cette thèse. <br /> <br />Finalement, en s'inspirant des méthodes d'identification aveugles et à l'aide de deux paramètrisations différentes de la matrice de Sylvester, on montre la possibilité de séparer un mélange convolutif ou le transformer en un mélange instantané, en utilisant les statistiques de second ordre. Dans ce cadre, trois algorithmes de sous-espaces sont proposés.

Page generated in 0.0453 seconds