• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 528
  • 225
  • 59
  • 31
  • 8
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 863
  • 241
  • 154
  • 152
  • 144
  • 138
  • 123
  • 118
  • 108
  • 104
  • 100
  • 92
  • 86
  • 85
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Sur les fonctions L de formes modulaires

Royer, Emmanuel 22 June 2001 (has links) (PDF)
On propose quatre contributions à l'étude des fonctions L de formes modulaires. La première montre que le Jacobien d'une courbe modulaire possède un facteur simple sur le corps des rationnels de grande dimension et de rang nul, et un facteur simple de grande dimension et de grand rang. La seconde établit la conjecture de densité de niveau 1 des petits zéros pour de nouvelles familles de fonctions L de formes modulaires. La troisième étudie la distribution de la valeur en 1 de la fonction L de carré symétrique d'une forme modulaire. La dernière établit, en collaboration avec F. Martin, un critère de détermination des formes modulaires par les valeurs spéciales de leurs fonctions L.
352

Mesure d'indépendance linéaire de logarithmes dans un groupe algébrique commutatif

Gaudron, Eric 08 December 2001 (has links) (PDF)
Cette thèse s'inscrit dans la lignée des travaux relatifs à la théorie des formes linéaires de logarithmes. Elle comporte deux parties ainsi que trois annexes. Dans la première partie, nous nous intéressons au cas général d'un groupe algébrique commutatif quelconque, défini sur la clôture algébrique de Q. Étant donné un tel groupe G, un hyperplan W de l'espace tangent à l'origine de G et $u$ un point complexe de cet espace tangent, dont l'image par l'exponentielle du groupe de Lie complexe G(C) est algébrique, nous obtenons une minoration de la distance de u à W, qui améliore les résultats connus auparavant et qui, en particulier, est optimale en la hauteur de l'hyperplan W. La démonstration repose sur la méthode de Baker ainsi que sur un nouvel argument de nature arithmétique (procédé de changement de variables de Chudnovsky) qui nous permet d'évaluer précisément les normes ultramétriques des nombres algébriques construits au cours de la preuve. Dans la seconde partie, nous étudions plus en détail le < non-homogène>> (dans lequel le groupe G est le produit direct du groupe $\mathbb{G}_{\mathrm{a}}$ et d'une variété abélienne) et nous établissons une nouvelle mesure, comparable à celle donnée dans la première partie mais totalement explicite en les invariants liés à la variété abélienne. La particularité de cette seconde partie est de mettre en oeuvre, pour la première fois dans ce contexte, la méthode des pentes de J.-B. Bost et certains résultats de géométrie d'Arakelov qui lui sont attachés.
353

Sur la stabilisation de systèmes dynamiques continus non linéaires exploitant les matrices de formes en flèche : application à la synchronisation de systèmes chaotiques

Hammami, Sonia 21 December 2009 (has links) (PDF)
Les travaux effectués, dans le cadre de cette thèse, concernent l'analyse et la synthèse de systèmes dynamiques continus complexes de grande dimension. Pour la classe des systèmes étudiés, est mise en exergue en particulier l'importance du choix de la description des systèmes sur l'étendue des résultats pouvant être obtenus lorsque la méthode d'étude de la stabilité est fixée.L'utilisation des normes vectorielles comme fonction d'agrégation et du critère pratique de Borne et Gentina pour l'étude de la stabilité, associée à la description des systèmes par des matrices caractéristiques de forme en flèche, a permis l'élaboration de nouvelles conditions suffisantes de stabilisabilité de systèmes dynamiques continus non linéaires, monovariables et multivariables, formulées en théorèmes et corollaires.Ces résultats obtenus, pour une classe de processus, pouvant être caractérisés par des matrices instantanées de forme en flèche mince, ont été généralisés au cas des matrices quelconques, pouvant être mises sous forme en flèche mince généralisée ou en flèche épaisse.Les critères élaborés, soit pour l'analyse de la stabilité soit pour la synthèse d'une loi de commande stabilisante, sont ensuite exploités, avec succès, pour la formulation de nouvelles conditions suffisantes de vérification des propriétés de synchronisation, d'anti-synchronisation et de synchronisation hybride de systèmes chaotiques du type maître-esclave, d'un grand intérêt, en particulier, pour garantir une transmission sécurisée
354

Contributions aux méthodes directes d'estimation et de commande basées sur la vision

Silveira Filho, Geraldo 29 October 2008 (has links) (PDF)
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
355

Quelques problèmes d'optimisation de formes en sciences du vivant

Privat, Yannick 21 October 2008 (has links) (PDF)
Dans cette thèse, nous nous demandons si certaines formes présentes dans la nature résultent de l'optimisation d'un critère. Plus précisément, nous considérons un organe ou une partie du corps humain et tentons de deviner un critère que la nature aurait pu chercher à optimiser. Nous résolvons alors le problème d'optimisation de formes résultant afin de comparer la forme obtenue, théoriquement ou numériquement, avec la forme réelle de l'organe. Si ces deux formes sont proches, on pourra en déduire que le critère est convaincant. <br />Dans la première partie de cette thèse, nous considérons l'exemple d'une fibre nerveuse de type axone ou dendrite. Nous proposons deux critères pour expliquer sa forme. Le premier traduit l'atténuation dans le temps du message électrique traversant la fibre et le second l'atténuation dans l'espace de ce message. Dans notre choix de modélisation, nous distinguons deux types de fibres nerveuses : celles qui sont connectées au noyau de la cellule et celles qui sont connectées entre elles. Les problèmes correspondants se ramènent à la minimisation par rapport au domaine des valeurs propres d'un opérateur elliptique et d'une fonction de transfert faisant intervenir la trace sur le bord du domaine du potentiel électrique au sein de la fibre.<br />La seconde partie de cette thèse est dédiée à l'optimisation de la forme d'un arbre bronchique ou d'une partie de cet arbre. Nous considérons un critère de type "énergie dissipée". Dans une étude théorique, nous prouvons tout d'abord que le cylindre n'est pas une conduite optimale pour minimiser l'énergie dissipée par un fluide newtonien incompressible satisfaisant aux équations de Navier-Stokes.<br />Nous effectuons ensuite des simulations en deux et trois dimensions afin de tester numériquement si l'arbre bronchique est ou non optimal.
356

Fusion multi-sources pour l'interprétation d'un environnement routier

Bargeton, Alexandre 16 December 2009 (has links) (PDF)
Le dépassement des limitations de vitesse est l'une des causes majeures des accidents de la route, qui pourraient être réduits par l'utilisation de système robuste de détection des limitations de vitesse pouvant continuellement informer le conducteur de la bonne limitation imposée. Les travaux présentés dans ce document portent sur la réalisation d'un tel système basé sur une détection visuelle des panneaux de limitation de vitesse. Afin de rendre le système robuste, il est nécessaire de fusionner les résultats de ces détections avec les informations d'autres capteurs pour interpréter les résultats issus de la détection visuelle. C'est ainsi qu'a été entre autre spécialement développé un capteur cartographique permettant d'avoir une vision plus large sur l'horizon électronique du véhicule, ainsi qu'un système détection des lignes de marquage au sol pour analyser les changements de voie. Le processus de fusion mis en place traitant ces diverses sources d'information est fondé sur des modèles à base de règles permettant de s'affranchir des problèmes inhérents aux processus de fusion probabilistes pouvant parfois mener à des situations de doute mettant le système global en faute. Ces travaux sont le fruit d'une collaboration avec un industriel et le prototype développé a été validé expérimentalement sur route. Un outil de vérité terrain a été spécialement développé pour quantifier les résultats. Le système montre d'excellents résultats en détection et reconnaissance des panneaux de limitation de vitesse ainsi que dans la clarification de situations complexes.
357

Exploitation de la cohérence locale des données sismiques pour l'imagerie du sous-sol

Chauris, Hervé 12 April 2010 (has links) (PDF)
Mes travaux de recherche s'inscrivent dans l'imagerie sismique des premiers kilomètres du sous-sol, en particulier dans le domaine pétrolier. Il s'agit de reconstruire les propriétés de la sub-surface, par exemple la vitesse de propagation des ondes de compression, à partir d'enregistrements en surface de déplacements ou de variations de la pression liés au passage d'un train d'ondes acoustiques ou élastiques. Je me suis attaché, dans ce domaine, à regarder différemment les données sismiques. Les enregistrements sismiques dépendent de la position de source et d'un ensemble de récepteurs, ainsi que du temps d'enregistrement. Ils sont couramment analysés trace par trace, par exemple pour filtrer les données ou bien pour les migrer, c'est-à-dire retrouver en profondeur les perturbations du milieu, typiquement avec des migrations de type Kirchhoff. Dans le cas de la migration dite "reverse-time migration", les points de tir sont vus comme un ensemble : l'information de tous les récepteurs est rétro-propagée depuis la surface jusqu'en profondeur, également pour retrouver les propriétés du milieu. Je propose de considérer des groupes de traces adjacentes, autour d'une fenêtre en temps, et d'examiner différents algorithmes d'imagerie sous cet aspect. L'aspect cohérence locale est justifié dans le domaine pétrolier par les acquisitions actuelles qui sont de plus en plus denses, et aussi par la notion de zone de Fresnel. La cohérence latérale des signaux sismiques est traitée sous deux angles. Le premier donne une vision très épurée : les événements localement cohérents sont décrits en 2D par la position de la trace centrale, une position dans la trace, et une pente qui indique la cohérence. Je montre qu'à partir de ce type d'approche, il est possible de retrouver les grandes longueurs d'onde du modèle de vitesse par analyse de vitesse dans le domaine migré. J'ai pu aussi établir le lien entre cette méthode d'analyse de vitesse et la tomographie de pente. Le second angle d'attaque prend en compte la signature des données sismiques, et en particulier la bande passante limitée. Les applications sont alors beaucoup plus nombreuses : migration, analyse de vitesse, sensibilité de l'image migrée par rapport au modèle de vitesse, et d'autres tâches liées au pré-traitement comme le débruitage, la prédiction des multiples, ... Dans chacun des cas, j'analyse les avantages et limitations de l'utilisation de la cohérence locale. Il s'avère que le choix du code de décomposition en événements locaux (``curvelets'', ...) est étroitement lié à l'application qui en est faite : si l'objectif est de comprimer les données sismiques, alors les curvelets ne sont pas adaptées. S'il s'agit au contraire de savoir comment l'image migrée dépend du choix du modèle de vitesse pris pour la migration, alors les curvelets ont beaucoup d'avantages. Plus particulièrement, les curvelets offrent la flexibilité de la décomposition des données, très utile pour la suppression des bruits cohérents. De plus, elles diagonalisent presque l'opérateur de démigration/migration qui donne la sensibilité de l'image migrée par rapport au choix du modèle de vitesse. Enfin, elles permettent d'exploiter l'aspect multi-échelle des données, avec des applications sur la suppression de l'aliasing. Je montre aussi qu'il est possible de développer d'autres schémas de décomposition et de reconstruction, comme par exemple les ``circlets''. Dans les perspectives de recherche, je tiens à dépasser le cadre asymptotique hautes fréquences dans lequel les curvelets trouvent un cadre naturel. Je propose en particulier une nouvelle formulation du problème d'inversion des formes d'onde (DFWI, Differential Full WaveForm Inversion). Cette méthode se veut générale pour retrouver les propriétés du sous-sol et permettre une optimisation locale, tout en s'affranchissant de la détermination d'un modèle de départ très proche de la solution. Cette idée doit être approfondie. Elle exploite la cohérence locale des données sismiques et suppose que le signal est bien échantillonné en temps et en espace. Les applications sont très nombreuses et touchent le domaine pétrolier, la géotechnique, la sismologie globale et régionale.
358

Préparation de la mesure de la section efficace inclusive du Z->e+e- dans ATLAS. Etude des premières données avec le calorimètre électromagnétique.

Arnaez, Olivier 05 July 2010 (has links) (PDF)
Les collisions proton-proton à une énergie dans le centre de masse de 7 TeV au LHC produiront des bosons Z en grande quantité dont la mesure de la section efficace de production constitue un test du Modèle Standard. Après avoir décrit le contexte théorique et procédé à une description du détecteur ATLAS et des outils de simulation et d'analyse, une partie de cette thèse est consacrée à l'exploitation des événements cosmiques enregistrés dans la phase de préparation aux collisions afin de valider la simulation des formes de gerbes électromagnétiques dans un contexte proche de celui des collisions. Une deuxième partie de la thèse s'attache à la description des éléments clefs intervenant dans la mesure de la section efficace. Des critères de sélection utilisant des variables d'isolation, alternatifs à la sélection standard, ont été étudiés et ont mené à l'observation des premiers candidats Z->e+e- dans ATLAS. Enfin, les principales sources d'erreurs systématiques intervenant dans la mesure de section efficace ont été étudiées. Il s'agit des incertitudes liées d'une part à l'efficacité de sélection des électrons et d'autre part à l'efficacité géométrique du détecteur.
359

L'alignement de graphes : applications en bioinformatique et vision par ordinateur

Zaslavskiy, Mikhail 11 January 2010 (has links) (PDF)
Le problème d'alignement de graphes, qui joue un rôle central dans différents domaines de la reconnaissance de formes, est l'un des plus grands défis dans le traitement de graphes. Nous proposons une méthode approximative pour l'alignement de graphes étiquetés et pondérés, basée sur la programmation convexe concave. Une application importante du problème d'alignement de graphes est l'alignement de réseaux d'interactions de protéines, qui joue un rôle central pour la recherche de voies de signalisation conservées dans l'évolution, de complexes protéiques conservés entre les espèces, et pour l'identification d'orthologues fonctionnels. Nous reformulons le problème d'alignement de réseaux d'interactions comme un problème d'alignement de graphes, et étudions comment les algorithmes existants d'alignement de graphes peuvent être utilisés pour le résoudre. Dans la formulation classique de problème d'alignement de graphes, seules les correspondances bijectives entre les noeuds de deux graphes sont considérées. Dans beaucoup d'applications, cependant, il est plus intéressant de considérer les correspondances entre des ensembles de nœuds. Nous proposons une nouvelle formulation de ce problème comme un problème d'optimisation discret, ainsi qu'un algorithme approximatif basé sur une relaxation continue. Nous présentons également deux résultats indépendants dans les domaines de la traduction automatique statistique et de la bio-informatique. Nous montrons d'une part comment le problème de la traduction statistique basé sur les phrases peut être reformulé comme un problème du voyageur de commerce. Nous proposons d'autre part une nouvelle mesure de similarité entre les sites de fixation de protéines, basée sur la comparaison 3D de nuages atomiques.
360

Autour des déformations de Rankin-Cohen.

Yao, Yi-Jun 31 January 2007 (has links) (PDF)
Dans cette thèse on s'attache à étudier les crochets de Rankin-Cohen et les déformations correspondantes selon de différents points de vue. On présente d'un côté une nouvelle interprétation des déformations de Rankin-Cohen via la théorie de "Quantification par Deformations de Fedosov(en collaboration avec P. Bieliavsky et X. Tang). On parvient notamment à redémontrer un théorème de Connes-Moscovici sur la déformation formelle des algèbres sous l'action d'une algèbre de Hopf H1 munie d'une structure projective. De l'autre cote on donne dans Chapitre III une interprétation détaillée des crochets de Rankin-Cohen via la théorie de représentations unitaires de SL2(R) et en utilisant cette interprétation on étudie certaines propriétés des produits déformés, notamment l'unicité des produits construits par Cohen-Manin-Zagier et une propriété de séparation du produit d'Eholzer. Dans le dernier chapitre on donne une démonstration élémentaire de l'identité combinatoire qui est cruciale pour démontrer l'associativité dans l'approche de la question de déformations par Cohen-Manin-Zagier, Eholzer, et Connes-Moscovici.

Page generated in 0.0348 seconds