• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Architectures massivement parallèles et vision artificielle bas-niveau

Plyer, Aurélien 20 February 2013 (has links) (PDF)
Ce travail de thèse étudie l'apport à la vision bas-niveau des architectures de calcul massivement parallèles. Nous reprenons l'évolution récente de l'architecture des ordinateurs, en mettant en avant les solutions massivement parallèles qui se sont imposées récemment, les GPU. L'exploitation des potentialités de ces architectures impose une modification des méthodes de programmation. Nous montrons qu'il est possible d'utiliser un nombre restreint de schémas ("patterns") de calcul pour résoudre un grand nombre de problématiques de vision bas niveau. Nous présentons ensuite un nouveau modèle pour estimer la complexité de ces solutions. La suite du travail consiste à appliquer ces modèles de programmation à des problématiques de vision bas-niveau. Nous abordons d'abord le calcul du flot optique, qui est le champ de déplacement d'une image à une autre, et dont l'estimation est une brique de base de très nombreuses applications en traitement vidéo. Nous présentons un code sur GPU, nommé FOLKI qui permet d'atteindre une très bonne qualité de résultats sur séquences réelles pour un temps de calcul bien plus faible que les solutions concurrentes actuelles. Une application importante de ces travaux concerne la vélocimétrie par imagerie de particules dans le domaine de la mécanique des fluides expérimentale. La seconde problématique abordée est la super-résolution (SR). Nous proposons d'abord un algorithme très rapide de SR utilisant le flot optique FOLKI pour recaler les images. Ensuite différentes solutions à coût de calcul croissant sont développées, qui permettent une amélioration de précision et de robustesse. Nous présentons des résultats très originaux de SR sur des séquences affectées de mouvement complexes, comme des séquences de piétons ou des séquences aériennes de véhicules en mouvement. Enfin le dernier chapitre aborde rapidement des extensions en cours de nos travaux à des contextes de mesure 3D, dans des domaines comme la physique expérimentale ou la robotique.
412

Problèmes inverses dans les réseaux

Kauffmann, Bruno 24 March 2011 (has links) (PDF)
La croissance récente d'Internet lors deux dernières décennies a conduit à un besoin croissant de techniques permettant de mesurer la structure et la performance d'Internet. Les techniques de mesures de réseaux peuvent être classifiées en méthodes passives qui utilisent des données collectées au niveau des routeurs, et les méthodes actives, reposant sur l'injection active et l'observation de paquets-sondes. Les méthodes actives, qui sont la motivation principale de ce doctorat, sont particulièrement adaptées aux utilisateurs finaux, qui ne peuvent pas accéder aux données mesurées par les routeurs avec l'architecture actuelle d'Internet. Sur un autre plan, la théorie des réseaux se développe depuis un siècle, et de nombreux outils permettent de prédire la performance d'un système, en fonction de quelques paramètres clés. La théorie des files d'attentes émerge comme une solution particulièrement fructueuse, que ce soit pour les réseaux téléphoniques ou pour les réseaux filaires à commutation de paquet. Dans ce dernier cas, elle s'intéresse au mécanisme à l'échelle des paquets, et prédit des statistiques à ce niveau. À l'échelle des flots de paquets, la théorie des réseaux à partage de bande passante permet une abstraction de tout schéma d'allocation de bande passante, y compris le partage implicite résultant du protocole TCP. De nombreux travaux ont montré comment les résultats provenant de ces théories peuvent s'appliquer aux réseaux réels, et en particulier à Internet, et dans quels aspects le comportement de réseaux réels diffère des prédictions théoriques. Cependant, il y a eu peu de travaux établissant des liens entre le point de vue théorique d'un réseau et le problème pratique consistant à le mesurer. Le but de ce manuscrit est de bâtir quelques ponts entre le monde des méthodes de mesure par sondes actives et le monde de la théorie des réseaux. Nous adoptons l'approche des problèmes inverses, qui peuvent être vus en opposition aux problèmes directs. Un problème direct prédit l'évolution d'un système défini, en fonction des conditions initiales et d'une équation d'évolution connue. Un problème inverse observe une partie de la trajectoire d'un système défini, et cherche à estimer les conditions initiales ou paramètres pouvant conduire à cette trajectoire. Les données des méthodes de mesure par sondes actives sont les séries temporelles des pertes et délais des sondes, c'est-à-dire précisément une partie de la "trajectoire" d'un réseau. Ainsi, les méthodes de mesures par sondes actives peuvent être considérées comme des problèmes inverses pour une théorie des réseaux qui permettrait une prédiction exacte de l'évolution des réseaux. Nous montrons dans ce document comment les méthodes de mesures par sondes actives sont reliées aux problèmes inverses dans la théories des files d'attentes. Nous spécifions comment les contraintes de mesures peuvent être incluses dans les problèmes inverses, quels sont les observables, et détaillons les étapes successives pour un problème inverse dans la théorie des files d'attentes. Nous classifions les problèmes en trois catégories différentes, en fonction de la nature de leur résultat et de leur généralité, et donnons des exemples simples pour illustrer leurs différentes propriétés. Nous étudions en détail un problème inverse spécifique, où le réseau se comporte comme un réseau dit "de Kelly" avecK serveurs en tandem. Dans ce cas précis, nous calculons explicitement la distribution des délais de bout en bout des sondes, en fonction des capacités résiduelles des serveurs et de l'intensité des sondes. Nous montrons que l'ensemble des capacités résiduelles peut être estimé à partir du délai moyen des sondes pour K intensités de sondes différentes. Nous proposons une méthodes d'inversion alternative, à partir de la distribution des délais des sondes pour une seule intensité de sonde. Dans le cas à deux serveurs, nous donnons une caractérisation directe de l'estimateur du maximum de vraisemblance des capacités résiduelles. Dans le cas général, nous utilisons l'algorithme Espérance-Maximisation (E-M). Nous prouvons que dans le cas à deux serveurs, la suite des estimations de E-M converge vers une limite finie, qui est une solution de l'équation de vraisemblance. Nous proposons une formule explicite pour le calcul de l'itération quand K = 2 ou K = 3, et prouvons que la formule reste calculable quelque soit le nombre de serveurs. Nous évaluons ces techniques numériquement. À partir de simulations utilisant des traces d'un réseau réel, nous étudions indépendamment l'impact de chacune des hypothèses d'un réseau de Kelly sur les performances de l'estimateur, et proposons des facteurs de correction simples si besoin. Nous étendons l'exemple précédant au cas des réseaux en forme d'arbre. Les sondes sont multicast, envoyées depuis la racine et à destination des feuilles. À chaque noeud, elles attendent un temps aléatoire distribué de façon exponentielle. Nous montrons que ce modèle est relié au modèle des réseaux de Kelly sur une topologie d'arbre, avec du trafic transverse unicast et des sondes multicast, et calculons une formule explicite pour la vraisemblance des délais joints. Nous utilisons l'algorithme E-M pour calculer l'estimateur de vraisemblance du délai moyen à chaque noeud, et calculons une formule explicite pour la combinaison des étapes E et M. Des simulations numériques illustrent la convergence de l'estimateur et ses propriétés. Face à la complexité de l'algorithme, nous proposons une technique d'accélération de convergence, permettant ainsi de considérer des arbres beaucoup plus grands. Cette technique contient des aspects innovant dont l'intérêt peut dépasser le cadre de ces travaux. Finalement, nous explorons le cas des problèmes inverses dans la théorie des réseaux à partage de bande passante. À partir de deux exemples simples, nous montrons comment un sondeur peut mesurer le réseau en faisant varier le nombre de flots de sondes, et en mesurant le débit associé aux flots dans chaque cas. En particulier, si l'allocation de bande passante maximise une fonction d'utilité -équitable, l'ensemble des capacités des réseaux et leur nombre de connections associé peut être identifié de manière unique dans la plupart des cas. Nous proposons un algorithme pour effectuer cette inversion, avec des exemples illustrant ses propriétés numériques.
413

Simulation informatique d'expérience aléatoire et acquisition de notions de probabilité au lycée

Françoise, Gaydier 17 November 2011 (has links) (PDF)
Les programmes affirment que simuler une expérience aléatoire, c'est simuler sa loi de probabilité : nous montrons que ce n'est pas une nécessité. Nous avons entrepris une analyse a priori de la tâche de simulation d'une expérience aléatoire lorsqu'on ne la fait pas dériver de sa loi de probabilité ; cela nous a amenée à préciser les liens qu'entretiennent une expérience aléatoire, ses modélisations probabilistes et ses simulations. Nous proposons un modèle de ces liens, où intervient une étape de pré-modèlisation, commune aux deux tâches de simulation et de modélisation probabiliste, étape pendant laquelle sont choisies les hypothèses de modélisation. La simulation peut alors se construire à partir d'un cahier des charges qui décrit les différentes actions constituant l'expérience aléatoire et leur enchaînement, pour une imitation au plus près cette expérience. La simulation informatique apparaît alors comme une activité essentiellement de type algorithmique. Nous avons mené une expérimentation auprès de lycéens pour observer quelles techniques ils mettent en œuvre pour simuler une expérience aléatoire, et dans quelle mesure ils utilisent le modèle probabiliste ou des simulations pour résoudre un problème de prise de décision dans une situation où intervient le hasard. Une fois choisies les hypothèses de modélisation, l'imitation au plus près n'utilise pas la théorie des probabilités. Certains problèmes résolus par une exploitation statistique des simulations peuvent donc permettre d'introduire des notions de la théorie des probabilités telles que : risque, intervalle et niveau de confiance, adéquation d'un modèle probabiliste aux données expérimentales.
414

Reconstruction géométrique de formes - Application à la géologie

Nullans, Stéphane 14 December 1998 (has links) (PDF)
Cette thèse s'articule autour de la reconstruction géométrique de formes. Plusieurs méthodes, basées sur les diagrammes de Voronoï, sont proposées pour la reconstruction automatique d'objets naturels. L'application principale est la modélisation et l'imagerie géologique. Une première méthode permet la reconstruction de volumes et surfaces géologiqu- es à partir de données incomplètes et hétérogènes : données ponctuelles sur des affleurements, portions de contours cartographiques, sondages, coupes incomplètes ou interprétées, modèles numériques de terrains... L'idée majeure de la méthode consiste à assembler les objets différents selon leurs proximités, en utilisant le diagramme de Voronoï de ces objets. Les diagrammes de Voronoï sont des structures géométriques permettant de partitionner l'espace en régions d'influence. En pratique toutes les données sont discrétisées en un ensemble de points colorés, les couleurs représentant ici les caractéristiques géologiques ou géophysiques des données, que nous souhaitons imager. La partition "colorée" de ces points nous donne une première solution topologique au problème de reconstruction. Elle nous fournit en outre, une représentation du bord de l'objet géologique et de son intérieur. L'utilisation de courbes et de surfaces déformables sous contraintes (tension, courbure et respect de la topologie initiale) permet ensuite d'obtenir des interfaces plus lisses et plus conformes. Une étape particulière permet de prendre en compte des surfaces de discontinui- té comme les failles. Afin de représenter un objet S, non plus par des éléments discrets (polyèdres de Voronoi), mais par les valeurs positives d'une fonction continue, nous avons introduit une nouvelle méthode. L'objectif de la méthode est de définir une fonction interpolante s telle que l'ensemble des zéros de s passe exactement par les données de départ et soit une approximation cohérente et lisse de S par ailleurs. Dans un premier temps nous définissons, une fonction caractéristique locale en chaque donnée (point, contour...) et l'objet volumique final résulte alors d'une interpolation de ces fonctions.
415

Variations sur le calcul des vecteurs d'éclairement indirect

Serpaggi, Xavier 19 December 2001 (has links) (PDF)
L'exploration des diverses solutions liées au problème de l'éclairement global en synthèse d'images a vu l'émergence de deux disciplines fort différentes. La plus ancienne est l'application d'un principe utilisé par les physiciens dans les calculs d'échanges thermiques. Dans le cas de la synthèse d'images, ce ne sont en fait que les grandeurs échangées qui diffèrent et les ondes infrarouges sont remplacées par la lumière visible. Ce ne sont donc plus des échanges thermiques qui sont traités, mais uniquement des échanges lumineux entres différentes surfaces : la radiosité. Plus récemment, nous avons vu l'application de concepts mathématiques statistiques (les méthodes de Monte-Carlo) à un algorithme de lancer de rayons : l'équation de rendu et sa résolution par le suivi de chemins. Le travail présenté dans cette thèse fait partie de cette seconde famille. Les vecteurs d'éclairement indirect (VEI) obtenus à l'aide du lancer de rayons,s'appliquent dans le cadre de scènes d'intérieur et utilisent, pour leur calcul,une méthode de Monte-Carlo. Les recherches que nous avons menées ont pour but de développer cette jeune méthode que sont les VEI. Nous avons,pour cela,tenté d'explorer différentes voies, parfois en appliquant des principes connus,parfois en proposant des méthodes originales. Le résultat est une collections de propositions permettant de calculer les VEI plus rapidement et plus précisément. Ces propositions se séparent en deux groupes bien distincts dont le premier est l'étude du calcul d'un VEI. Le second propose des améliorations pour visualiser l'éclairement indirect calculé avec les VEI.
416

Estimations a posteriori pour l'équation de convection-diffusion-réaction instationnaire et applications aux volumes finis

Chalhoub, Nancy 17 December 2012 (has links) (PDF)
On considère l'équation de convection-diffusion-réaction instationnaire. On s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des volumes finis centrés par mailles en espace et un schéma d'Euler implicite en temps. Les estimations, qui sont établies dans la norme d'énergie, bornent l'erreur entre la solution exacte et une solution post-traitée à l'aide de reconstructions H(div, Ω)-conformes du flux diffusif et du flux convectif, et d'une reconstruction H_0^1(Ω)-conforme du potentiel. On propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques. Enfin, on dérive une estimation d'erreur a posteriori dans la norme d'énergie augmentée d'une norme duale de la dérivée en temps et de la partie antisymétrique de l'opérateur différentiel. Cette nouvelle estimation est robuste dans des régimes dominés par la convection et des bornes inférieures locales en temps et globales en espace sont également obtenues.
417

Modèles de vision et synthèse d'images

Farrugia, Jean-Philippe 29 November 2002 (has links) (PDF)
Le photo-réalisme en synthèse d'images nécessite l'intervention de nombreux paramètres, ainsi que des calculs complexes. Le but peut être considéré comme atteint lorsque un observateur ne peut plus faire la différence entre une simulation et une photographie de la scène simulée. Pour atteindre cet objectif, il est nécessaire d'effectuer des calculs complexes, aussi bien au niveau de la géométrie de la scène, de la simulation des matériaux, ou encore de l'interaction lumière matière. Toutefois, un élément est souvent oublié dans cette quête de réalisme : l'environnement d'observation. Cette simulation est en effet observée sur un dispositif de visualisation, par un observateur humain, placé dans un certain environnement. Or, chacune de ces trois composantes dispose de caractéristiques bien spécifiques qu'il peut être intéressant d'exploiter en synthèse d'images. C'est ce que nous nous proposons de faire à travers une métrique perceptuelle entre images développée pour correspondre à nos besoins. Cette métrique permet de comparer deux images en utilisant un modèle de vision qui simule le traitement effectué par le système visuel humain. Elle sera ensuite intégrée dans un algorithme de rendu progressif, afin de remplacer les critères empiriques de ce dernier par des critères perceptuels. Les temps de calculs obtenus sont pratiquement deux fois inférieurs à eux d'un calcul complet.
418

Étude des plasmas créés par l'interaction laser X - matière

Galtier, Eric 15 November 2010 (has links) (PDF)
Cette thèse met à profit l'émergence des nouvelles sources de lumière de 4ème génération, les lasers à électrons libres, pour créer et caractériser un état de matière sous conditions extrêmes encore mal connu : la matière dense et tiède (WDM). Une expérience a permis d'étudier les transitions entre les différentes phases solide/WDM/plasma et de caractériser le mécanisme responsable de la thermalisation. L'impulsion laser XUV FLASH, de durée et d'énergie égales à environ 20 femtosecondes et 30 µJ respectivement, est micro-focalisée sur une cible solide et entraîne un chauffage isochore. L'intensité, supérieure à 10^16 W/cm^2, n'a encore jamais été atteinte dans un tel contexte expérimental. Les spectres d'émission d'un plasma d'aluminium sont étudiés pour la première fois à l'aide d'un code couplant un algorithme génétique et un code de physique atomique, afin de remonter à l'évolution temporelle complète de l'interaction entre le laser XUV et la matière solide, et ce malgré l'intégration temporelle des spectres expérimentaux. La première preuve expérimentale de l'importance de l'effet Auger est établie pour le chauffage isochorique d'une cible d'aluminium. La première observation de l'émission X d'une cible de nitrure de bore irradiée sous conditions extrêmes a donné lieu à une étude préliminaire du phénomène. En parallèle, l'effet des électrons supra-thermiques sur la distribution des populations électroniques dans les niveaux d'énergie des ions est analysé et montre une importante similitude avec le processus de photo-ionisation à l'oeuvre dans l'interaction laser XUV-matière.
419

Analyse syntaxique automatique du français écrit : applications à l'indexation automatique

Lallich-Boidin, Geneviève 08 October 1986 (has links) (PDF)
L'analyse syntaxique d'une langue naturelle consiste à définir une grammaire de cette langue, grammaire nécessairement ambiguë, à choisir un algorithme d'analyse non déterministe et à élaborer une stratégie d'analyse afin d'éviter la construction de structures syntaxiques parasites. Dans le cadre de ce travail, nous définissons une grammaire du syntagme nominal du français écrit. Nous étudions les analyseurs hors contexte et non déterministes de Cocke-Younger-Kosomi et d'Earley, et retenons ce dernier. Puis, au dessus de cet analyseur, nous élaborons une stratégie d'analyse qui, à partir des données linguistiques portées par le texte à analyser, permet de prédire localement la structure juste et qui limite de ce fait le nombre de solutions parasites. L'indexation automatique de documents à partir des syntagmes nominaux contenus dans leur résumé est une application de l'analyseur construit
420

Modélisation et optimisation d'un ensemble convertisseur-machine. Application aux systèmes d'entrainement à haute vitesse.

Jannot, Xavier 02 December 2010 (has links) (PDF)
Les travaux présentés dans cette thèse concernent la modélisation et l'optimisation d'un ensemble Convertisseur-Machine devant fonctionner à haute vitesse. La première partie établit un état de l'art des méthodologies de conception relatives au dimensionnement optimal de systèmes d'entrainement et analyse les particularités du fonctionnement à haute vitesse. Puis, une modélisation analytique multiphysique des éléments du système est réalisée. Afin de mener une conception globalement optimale, les interactions significatives entre les éléments du système doivent être modélisées. Cela est effectué à l'aide d'une modélisation électrique fine - qui est le cœur de la caractérisation des interactions - mettant en œuvre une approche harmonique originale. Il en découle alors une modélisation des interdépendances entre onduleur et machine au niveau des pertes dans le système et de la qualité du couple. La modélisation est ensuite couplée à un algorithme génétique selon une méthodologie de conception hybride faisant intervenir des modèles analytiques puis par éléments finis. Enfin, cette démarche est appliquée au dimensionnement de deux systèmes d'entrainement dont le moteur est une MSAP à aimantation orthoradiale. Ces deux cas d'application ont été traités avec succès et ont mis en avant l'intérêt d'une approche " Système " dans la conception de systèmes d'entrainement. Par ailleurs nous avons analysé les morphologies des machines en fonction de la vitesse de rotation. Ceci a fait ressortir des capacités intéressantes de ce type de machines - pour la haute vitesse - d'un point de vue magnétique, mécanique, et des pertes au rotor.

Page generated in 0.0305 seconds