• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 863
  • 82
  • 30
  • Tagged with
  • 975
  • 975
  • 975
  • 548
  • 290
  • 230
  • 153
  • 146
  • 121
  • 119
  • 92
  • 92
  • 92
  • 83
  • 82
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Modèle de vue relative et spatio-temporelle de trajectoires géographiques d'objets mobiles : application au contexte maritime

Noyon, Valérie 03 October 2007 (has links) (PDF)
Avec les progrès techniques des moyens de transport, les déplacements se démocratisent et rendent les distances plus accessibles. Cette augmentation du trafic à tous les niveaux, mondial, régional et local, entraîne un encombrement croissant des routes terrestres, aériennes et maritimes et implique une surveillance particulière des zones à risque. Depuis quelques années, particulièrement dans le contexte maritime, cette surveillance est améliorée par l'utilisation des outils de géolocalisation comme le GPS (Global Positionning System) et les systèmes de transmission tel que la VHF (Very Hight Frequency) qui permettent de disposer de flux de données (positions, vitesses, caps) en temps réel. Les trajectoires des navires liées à ces données sont généralement représentées dans un environnement absolu (représentation cartographique) ou de manière relative (représentation radar). Ces représentations favorisent l'observation du positionnement des navires en temps réel, mais sans faciliter une véritable appréhension de l'évolution de toutes les informations connues dans les dimensions spatiales et temporelles, ce qui ne permet pas une complète compréhension des futurs états d'un système donné et une anticipation des situations critiques. L'objectif de cette thèse est de développer un nouveau modèle conceptuel de représentation des trajectoires géographiques pour l'aide à l'analyse de comportements d'objets mobiles. Le cadre expérimental de notre recherche est celui des trajectoires maritimes, à partir duquel nous proposons de construire un modèle formel de représentation et de manipulation de trajectoires. Nous postulons que la compréhension et la perception d'un processus de déplacement peut passer par une vision égocentrique de l'espace et du temps, où les primitives de modélisation sont les composantes géométriques couramment utilisées au sein des Systèmes d'Information Géographiques. Nous montrerons que la vitesse relative et la distance apparaissent comme des paramètres pertinents de compréhension des processus de déplacement. La position relative est basée sur une notion de distance entre objets mobiles, avec une distinction qualitative qui prend en compte la nature des relations topologiques entre ces objets. La vitesse relativisée est elle basée sur une notion de vitesse relative, et où les objets plus rapides ou moins rapides que l'objet de référence sont différenciés. L'association de ces mesures définit des états spatio-temporels caractérisés dans le langage naturel et composés afin de définir des relations transitives entre les objets. Le modèle proposé permet d'identifier les changements spatio-temporels lors de transitions continues entre les états et de leur associer des processus caractérisés par des expressions non ambiguës dans le langage naturel. La visualisation de ces processus complète les visualisations existantes des positions des objets mobiles et donne un cadre nouveau de perception et d'analyse des trajectoires en milieu maritime. Un prototype pour l'application aux déplacements maritimes de navires permet de visualiser les processus décrits et valider le modèle défini avec des données maritimes réelles, et plusieurs cas d'école expérimentés auprès d'un panel d'utilisateurs.
82

Méthodes d'agrégation : optimalité et vitesses rapides

Lecué, Guillaume 18 May 2007 (has links) (PDF)
Le principal travail de<br />cette thèse porte sur l'étude des méthodes d'agrégation sous<br />l'hypothèse de marge. Nous avons mis en avant que l'hypothèse de<br />marge améliore les vitesses d'agrégation. Un autre résultat de<br />cette thèse montre que certaines méthodes de minimisation du risque<br />empirique pénalisé sont sous-optimales quand le risque est convexe,<br />même sous l'hypothèse de marge. Contrairement aux procédures<br />d'agrégation à poids exponentiels, ces méthodes n'arrivent pas à<br />profiter de la marge du modèle. Nous avons ensuite appliqué les<br />méthodes d'agrégation à la résolution de quelques problèmes<br />d'adaptation. Une dernière contribution apportée dans cette thèse a<br />été de proposer une approche du contrôle du biais en classification<br />par l'introduction d'espaces de règles de prédiction parcimonieuses.<br />Des vitesses minimax ont été obtenues pour ces modèles et une<br />méthode d'agrégation a donné une version adaptative de ces<br />procédures d'estimation.
83

Optimisation de forme dans la classe des corps de largeur constante et des rotors.

Bayen, Térence 01 June 2007 (has links) (PDF)
Dans cette thèse, nous avons considéré des problèmes de minimisation de fonctionnelles relatives à des objets géométriques en dimension 2 et 3 sous contraintes de bord. Nous considérons d'abord le cas des corps de largeur constante en dimension 2 et nous redémontrons le théorème de Blaschke-Lebesgue par la théorie du contrôle optimal en utilisant le principe de Pontryagin. Nous étudions aussi le problème de la minimisation du volume dans la classe des corps de largeur constante en dimension 3 et à symétrie de révolution. Par le principe de Pontryagin, nous obtenons des conditions nécessaires sur un minimiseur. Nous étudions également le problème de minimisation de l'aire dans la classe des rotors d'un polygone à n côtés, ce qui constitue une généralisation du problème précédent. Par le principe de Pontryagin, nous démontrons qu'un minimiseur est une réunion finie d'arcs de cercles de rayon r_i où les r_i prennent des valeurs quantifiées. Nous étudions plus spécifiquement certaines propriétés des rotors réguliers en s'intéressant à leur optimalité locale pour la fonctionnelle d'aire, et pour un certain type de déformations admissibles. Par le théorème de Kuhn-Tucker, nous généralisons au cas des rotors un résultat de Firey en montrant que les rotors réguliers du triangle équilatéral sont des maxima locaux de l'aire, et que les rotors réguliers des polygones réguliers à n>4 côtés, sont des points selles de l'aire. Enfin, nous étudions le problème de minimisation du volume en dimension 3 dans la classe des corps de largeur constante. Nous introduisons d'abord un espace fonctionnel prenant en compte la contrainte de convexité et celle de largeur. Puis nous en déduisons des conditions d'optimalité faibles, vérifiées par le solide de Meissner, dont on conjecture depuis 1934 qu'il minimise le volume dans cette classe.
84

Quelques méthodes mathématiques pour la simulation moléculaire et multiéchelle

Stoltz, Gabriel 14 June 2007 (has links) (PDF)
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet.
85

INEGALITES LOG-SOBOLEV POUR LA LOI D'UNE DIFFUSION<br />ET GRANDES DEVIATIONS POUR DES EDP STOCHASTIQUES

Gourcy, Mathieu 12 December 2006 (has links) (PDF)
On s'intéresse dans cette thèse au comportement ergodique de certains systèmes dynamiques.<br /><br />Dans la première partie, on établit une inégalité de Sobolev logarithmique pour la loi d'un mouvement Brownien avec dérive, et plus généralement de certaines diffusions elliptiques, sur l'espace des trajectoires riemanniennes muni d'une métrique L2. <br />Ce résultat implique des propriétés de concentration intéressantes pour le comportement en temps grands de moyennes d'observables le long de la trajectoire.<br /><br />Dans la seconde partie, on prouve un principe de grandes déviations pour la mesure empirique des équations de Burgers et de Navier-Stokes stochastiques. <br />Ce principe décrit la convergence exponentielle vers la mesure d'équilibre du système, dont l'unicité est assurée par les conditions de non dégénérescence imposées sur la perturbation aléatoire.
86

Approches statistiques en apprentissage : boosting et ranking

Vayatis, Nicolas 09 December 2006 (has links) (PDF)
Depuis une dizaine d'années, la théorie statistique de l'apprentissage a connu une forte expansion. L'avènement d'algorithmes hautement performants pour la classification de données en grande dimension, tels que le boosting ou les machines à noyaux (SVM) a engendré de nombreuses questions statistiques que la théorie de Vapnik-Chervonenkis (VC) ne permettait pas de résoudre. En effet, le principe de Minimisation du Risque Empirique ne rend pas compte des méthodes d'apprentissage concrètes et le concept de complexité combinatoire de VC dimension ne permet pas d'expliquer les capacités de généralisation d'algorithmes<br />sélectionnant un estimateur au sein d'une classe massive telle que l'enveloppe convexe d'une classe de VC. Dans le premier volet du mémoire, on rappelle les interprétations des algorithmes de boosting comme des implémentations de principes de minimisation<br />de risques convexes et on étudie leurs propriétés sous cet angle. En particulier, on montre l'importance de la<br />régularisation pour obtenir des stratégies consistantes. On développe également une nouvelle classe d'algorithmes de type gradient stochastique appelés algorithmes de descente miroir avec moyennisation et on évalue leur comportement à travers des simulations informatiques. Après avoir présenté les principes fondamentaux du boosting, on s'attache dans le<br />deuxième volet à des questions plus avancées telles que<br />l'élaboration d'inégalités d'oracle. Ainsi, on étudie la<br />calibration précise des pénalités en fonction des critères<br />de coût utilisés. On présente des résultats<br />non-asymptotiques sur la performance des estimateurs du boosting pénalisés, notamment les vitesses rapides sous les conditions de marge de type Mammen-Tsybakov et on décrit les capacités d'approximation du boosting utilisant les "rampes" (stumps) de décision. Le troisième volet du mémoire explore le problème du ranking. Un enjeu important dans des applications<br />telles que la fouille de documents ou le "credit scoring" est d'ordonner les instances plutôt que de les catégoriser. On propose une formulation simple de ce problème qui permet d'interpréter le ranking comme une classification sur des paires d'observations. La différence dans ce cas vient du fait que les<br />critères empiriques sont des U-statistiques et on développe donc la théorie de la classification adaptée à ce contexte. On explore également la question de la généralisation de l'erreur de ranking afin de pouvoir inclure des a priori sur l'ordre des instances, comme dans le cas où on ne s'intéresse qu'aux "meilleures" instances.
87

Compréhension des mécanismes de coupe lors du perçage à sec de l'empilage Ti6Al4V/Composite fibre de carbone

Bonnet, Cédric 12 October 2010 (has links) (PDF)
Les exigences du secteur aéronautique incitent les constructeurs à intégrer une part croissante d'alliages de titane Ti6Al4V et de composites à fibres de carbone maintenues dans résine époxyde pour alléger les pièces de structures tout en conservant d'excellentes propriétés mécaniques. Ces matériaux sont empilés et percés en une seule opération au moment de l'assemblage des appareils. Les verrous technologiques et scientifiques sont complexes dès lors que l'opération de perçage a été réalisée à sec. Dans la partie titane, un bilan thermique complet de la zone de coupe est établi pour limiter la production de chaleur et éviter la diffusion vers la partie composite. Il est montré qu'un phénomène de retreint de la surface du trou sur le foret est responsable d'environ 50% de la consommation énergétique de l'opération. Les mécanismes de retour élastique et de retreint thermique ont pu être mis en évidence par démarche expérimentale et numérique. Une étude tribologique est menée dans les zones de contact pièce/outil et copeau/outil pour quantifier et modéliser les contributions mécaniques (coefficient de frottement) et thermiques (coefficient de partage de la chaleur) aux interfaces. Ces données seront utilisées pour la simulation des effets thermomécaniques induits sur la pièce et le foret. Dans la partie composite, une étude expérimentale macroscopique est menée en premier lieu pour enrichir les connaissances dans ces matériaux caractérisés par des comportements très hétérogènes. Puis une analyse de la coupe des fibres à l'échelle mésoscopique est proposée pour identifier les mécanismes à l'origine du refus de coupe et du délaminage. A l'issue de ces études un outil bi-compétence a pu être mis au point. L'optimisation de la géométrie des listels, l'apport d'un revêtement diamant CVD anti-abrasion et le choix de conditions de coupe adaptées à chacun des matériaux, garantissent le respect de la qualité et des contraintes environnementales de l'usinage à sec.
88

Effets de la photoactivation par irradiation synchrotron sur la micro vascularisation et sur les tissus cérébraux chez la souris saine ou porteuse d'un gliome : développements en microscopie biphotonique et essais précliniques.

Ricard, Clément 24 June 2008 (has links) (PDF)
Les tumeurs intracrâniennes font partie des pathologies les plus fréquentes en neurologie après les accidents vasculaires cérébraux et les démences. On estime leur incidence à 10 nouveaux cas par an pour 100000 personnes. Les glioblastomes en sont la forme la plus virulente et malgré les avancées médicales des dernières années leur pronostic demeure très pessimiste. En effet, la médiane de survie est de l'ordre de 12 mois et le taux de survie à 5 ans est seulement de 2%.<br />L'un des enjeux actuels de la recherche en neuro-oncologie est de mettre au point de nouveaux traitements à visée curative. C'est le cas de la thérapie de photoactivation du platine par irradiation synchrotron (PAT-Plat), technique qui a été développée au cours des dernières années et qui a montré des effets curatifs chez des rats porteurs du gliome F98.<br />Dans ce travail de thèse, nous avons cherché à mieux caractériser les effets de la PAT-Plat et de ses différentes modalités (chimiothérapie à base de cisplatine et radiothérapie synchrotron) sur les tissus et la vascularisation cérébrale saine ainsi que sur le gliome F98. La microscopie biphotonique intravitale a été utilisée comme méthode d'observation et notre étude a donné lieu au développement de plusieurs méthodes (observation de la perméabilité de la barrière hémato-encéphalique (BHE), imagerie de la vascularisation tumorale, marquage des astrocytes et des fibres élastiques en intravital).<br />Nous avons ainsi démontré qu'une irradiation synchrotron (15Gy/79keV) n'entraînait pas d'effets secondaires à court terme (rupture de la BHE, diminution de la perfusion, gliose, ...) dans le cortex pariétal de souris nude. Nous avons également mis en évidence qu'un effet de synergie entre le cisplatine et l'irradiation était à l'origine des effets spectaculaires de la PAT-Plat. Enfin, nous avons souligné qu'outre son action sur les cellules tumorales, la thérapie entraînait une diminution de la perfusion des vaisseaux angiogéniques.
89

ETUDE DE LA DENSITE D'ETATS SURFACIQUES DE CERTAINS OPéRATEURS DE SCHRöDINGER.

Souabni, Boutheina 08 July 2008 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'étude des densités d'états surfaciques des opérateurs de Schrôdinger à potentiel surfacique presque périodique, du type d'Anderson et du type du problème à N-corps. Nous commençons dans un premier chapitre par établir un résultat sur l'approximation du spectre de l'opérateur de Schrödinger continu par le spectre de l'opérateur discret correspondant. Nous établissons ensuite une relation entre le spectre et le support de la densité d'états surfaciques. Au deuxième chapitre nous prouvons que la densité d'états surfaciques du modèle d'Anderson est la limite des densités d'états surfaciques discrètes au sens des distributions. Ces résultats sont généralisés au cas des potentiels avec singularités dans le quatrième chapitre. Au troisième chapitre nous établissons des estimations de décroissance hors la diagonale, ainsi que des estimations des effets perturbatifs du potentiel dans la norme des opérateurs à trace. Le dernier chapitre aborde sous un angle général le problème à N-corps.
90

REDUCTION DE L'EMISSION ELECTROMAGNETIQUE DES CIRCUITS INTEGRES : L'ALTERNATIVE ASYNCHRONE

Panyasak, D. 14 June 2004 (has links) (PDF)
Ce travail de thèse s'attache à la réduction du phénomène d'interférence électromagnétique dans les circuits intégrés numériques.<br />Les méthodes développées s'adressent aux descriptions haut-niveau des circuits afin de réduire les modifications rétroactives dans le flot de conception et de circonscrire ainsi le temps et les coûts dédiés à l'élaboration du circuit. <br />Une première méthode appelée "Asynchronisation" propose de s'affranchir de la principale source d'émission dans les circuits numériques : l'horloge. Ce signal de contrôle est remplacé par des communications locales d'une manière permettant de conserver la compatibilité cycle à cycle du circuit. <br />Les communications locales sont ensuite exploitées par la seconde méthode "mise en forme du courant" ("Current Shaping") afin de réduire davantage l'émission électromagnétique du circuit. La concurrence des traitements dans le circuit est minimisée par ordonnancement. Les pics de courant résultant de la simultanéité des actions dans le circuit sont ainsi minimisés.<br />De plus, une étude a été menée sur les protocoles 4 phases en vue de déterminer comment réduire davantage leur émission électromagnétique.

Page generated in 0.1114 seconds