• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 353
  • 170
  • 56
  • 4
  • 2
  • 1
  • Tagged with
  • 601
  • 355
  • 146
  • 140
  • 113
  • 74
  • 72
  • 71
  • 55
  • 51
  • 47
  • 45
  • 44
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Multi-criteria Mapping and Scheduling of Workflow Applications onto Heterogeneous Platforms

Rehn-Sonigo, Veronika 07 July 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur le placement et l'ordonnancement d'applications de flux de données sur des plates-formes hétérogènes. Dans ce contexte, nous nous concentrons sur trois types différents d'applications :<br />Placement de répliques dans les réseaux hiérarchiques - Dans ce type d'application, plusieurs clients émettent des requêtes à quelques serveurs et la question est : où doit-on placer des répliques dans le réseau afin que toutes les requêtes puissent être traitées. Nous discutons et comparons plusieurs politiques de placement de répliques dans des réseaux hiérarchiques en respectant des contraintes de capacité de serveur, de qualité<br />de service et de bande-passante. Les requêtes des clients sont connues a priori, tandis que le nombre et la position des serveurs sont à déterminer. L'approche traditionnelle dans la littérature est de forcer toutes les requêtes d'un client à être traitées par le serveur le plus proche dans le réseau hiérarchique. Nous introduisons et étudions deux nouvelles politiques. Une principale contribution de ce travail est l'évaluation de l'impact de ces nouvelles politiques sur le coût total de replication. Un autre but important est d'évaluer l'impact de l'hétérogénéité des serveurs, d'une perspective à la<br />fois théorique et pratique. Nous établissons plusieurs nouveaux résultats de complexité, et nous présentons plusieurs heuristiques <br />efficaces en temps polynomial.<br />Applications de flux de données - Nous considérons des applications de flux de données qui peuvent être exprimées comme des graphes linéaires. Un exemple pour ce type d'application est le traitement numérique d'images, où les images sont traitées en<br />régime permanent. Plusieurs critères antagonistes doivent être optimisés, tels que le débit et la latence (ou une combinaison) ainsi que la latence et la fiabilité (i.e. la probabilité que le calcul soit réussi) de l'application. Bien qu'il soit possible de trouver<br />des algorithmes polynomiaux simples pour les plates-formes entièrement homogènes, le problème devient NP-difficile lorsqu'on s'attaque à des plates-formes hétérogènes. Nous présentons une formulation en programme linéaire pour ce dernier problème. De<br />plus nous introduisons plusieurs heuristiques bi-critères efficaces en temps polynomial, dont la performance relative est évaluée par des simulations extensives. Dans une étude de cas, nous présentons des simulations et des résultats expérimentaux (programmés en MPI) pour le graphe d'application de l'encodeur JPEG sur une grappe de calcul.<br />Applications complexes de streaming - Considérons l'exécution d'applications organisées en arbres d'opérateurs, i.e. l'application en régime permanent d'un ou plusieurs arbres d'opérateurs à données multiples qui doivent être mis à jour continuellement à différents endroits du réseau. Un premier but est de fournir à l'utilisateur un ensemble de processeurs qui doit être acheté ou loué pour garantir que le débit minimum de l'application en régime permanent soit atteint. Puis nous étendons notre modèle aux applications multiples : plusieurs applications concurrentes sont exécutées en même<br />temps dans un réseau, et on doit assurer que toutes les applications puissent atteindre leur débit requis. Une autre contribution de ce travail est d'apporter des résultats de complexité pour des instances variées du problème. La troisième contribution est l'élaboration<br />de plusieurs heuristiques polynomiales pour les deux modèles d'application. Un objectif premier des heuristiques pour applications concurrentes est la réutilisation des résultats intermédiaires qui sont partagés parmi différentes applications.
332

Le morcellement des connaissances en physiologie : du constat à la remédiation<br><br>Intégration du paradigme de la complexité dans l'étude de la construction des liens entre différents concepts enseignés en physiologie, aux niveaux des pratiques enseignantes et des productions des élèves.

El Hage, Fadi 21 April 2005 (has links) (PDF)
L'identification du problème de morcellement des connaissances en physiologie en 2001 en France et en 2002-2003 au Liban a fait l'objet de plusieurs analyses. Les élèves de Cinquième et de Seconde comme d'ailleurs leurs enseignants mobilisent peu de liens entre les différents systèmes physiologiques étudiés d'une part et avec le système nerveux d'autre part. La relation entre tous ces systèmes et les besoins des cellules du corps est généralement absente, d'où les difficultés rencontrées par les élèves à mobiliser les concepts enseignés pour résoudre des problèmes. Les obstacles didactiques, épistémologiques et psychologiques mis en évidence dans ce travail de recherche pourraient constituer des éléments d'explication à ce cloisonnement des connaissances. Cependant, ces obstacles pourraient être franchis si la formation des enseignants en faisait un objectif pédagogique. En effet, à la suite d'une session de formation des enseignants à « l'enseignement de la physiologie selon le paradigme de la complexité », l'échantillon d'élèves dont les enseignants ont participé à la session et ont expérimenté l'apprentissage par résolution de problèmes (ARP) a été comparé à l'échantillon d'élèves témoins dont les enseignants n'ont pas été formés à la complexité. Des différences significatives ont été obtenues : la prise en compte de la complexité et de l'enseignement par problèmes ont permis aux élèves de mobiliser plus de liens entre les différents concepts enseignés en physiologie et de prendre plus de risque pour résoudre les problèmes qui leur ont été proposés. La prise en compte de la part de l'affectivité dans l'apprentissage et une relation à l'erreur « décontaminée de la faute » ont permis aux enseignants et ensuite à leurs élèves d'entretenir un nouveau rapport aux savoirs et une attribution de sens aux concepts enseignés.
333

Algorithmique parallèle pour les machines à mémoire distribuées (applications aux algorithmes matriciels)

Tourancheau, Bernard 20 February 1989 (has links) (PDF)
Différents résultats de complexité sont présentés pour les communications et le calcul sur des machines à mémoire distribuée. Les topologies concernées sont le réseau linéaire, l'anneau, la grille, l'hypercube et le réseau complet. Un réseau systolique est présenté pour l'algorithme de diagonalisation de Jordan. Une étude sur l'accélération et une étude de l'allocation des données sont formulées dans le contexte des mémoires distribuées
334

Physique statistique des problèmes d'optimisation

Zdeborova, Lenka 20 June 2008 (has links) (PDF)
L'optimisation est un concept fondamental dans beaucoup de domaines scientifiques comme l'informatique, la théorie de l'information, les sciences de l'ingénieur et la physique statistique, ainsi que pour la biologie et les sciences sociales. Un problème d'optimisation met typiquement en jeu un nombre important de variables et une fonction de coût qui dépend de ces variables. La classe des problèmes NP-complets est particulièrement difficile, et il est communément admis que, dans le pire des cas, un nombre d'opérations exponentiel dans la taille du problème est nécessaire pour minimiser la fonction de coût. Cependant, même ces problèmes peuveut être faciles à résoudre en pratique. La question principale considérée dans cette thèse est comment reconnaître si un problème de satisfaction de contraintes NP-complet est "typiquement" difficile et quelles sont les raisons pour cela ? Nous suivons une approche inspirée par la physique statistique des systèmes désordonnés, en particulier la méthode de la cavité développée originalement pour les systèmes vitreux. Nous décrivons les propriétés de l'espace des solutions dans deux des problèmes de satisfaction les plus étudiés : la satisfiabilité et le coloriage aléatoire. Nous suggérons une relation entre l'existence de variables dites "gelées" et la difficulté algorithmique d'un problème donné. Nous introduisons aussi une nouvelle classe de problèmes, que nous appelons "problèmes verrouillés", qui présentent l'avantage d'être à la fois facilement résoluble analytiquement, du point de vue du comportement moyen, mais également extrêmement difficiles du point de vue de la recherche de solutions dans un cas donné.
335

Phases vitreuses, optimisation et grandes déviations

Rivoire, Olivier 11 July 2005 (has links) (PDF)
Les problèmes d'optimisation combinatoires définis sur graphes aléatoires sont au coeur de la théorie de la complexité algorithmique. Ils sont également étroitement liés à une formulation champ moyen, dite approximation de Bethe, de modèles sur réseau de verres de spins et verres structuraux. Cette thèse s'appuie sur ce parallèle pour appliquer à des problèmes d'optimisation une approche issue de la physique statistique des systèmes désordonnés, la méthode de la cavité. Etant donné un ensemble d'entrées (instances) d'un problème d'optimisation, cette méthode permet de déterminer les propriétés des solutions des instances typiques, ainsi que celles des instances atypiques, dont les probabilités sont exponentiellement petites (grandes déviations sur la structure externe). Pour une instance donnée, la méthode de la cavité donne également accès à la thermodynamique des différentes solutions admissibles (grandes déviations sur la structure interne). D'un point de vue physique, de nombreux problèmes algorithmiquement difficiles se révèlent ainsi posséder une phase de type verre. Cette thèse est composée de trois parties destinées à exposer les principes, applications et limitations de la méthode de la cavité. La première partie rappelle, dans la perspective des grandes déviations, les liens entre physique statistique et optimisation combinatoire. La deuxième partie aborde les modèles définis sur graphes aléatoires et, pour différents ensembles de graphes, analyse les propriétés typiques et atypiques de ces modèles. La troisième partie est consacrée aux grandes déviations sur le "désordre interne", constitué par les solutions et quasi-solutions d'une instance donnée. Une attention particulière est dévolue au traitement des phases vitreuses où l'ensemble des solutions est fragmenté en un nombre exponentiel d'amas disjoints (structure dite à un pas de brisure de symétrie des répliques); il est montré comment la méthode de la cavité fournit dans de tels cas une description fine des propriétés géométriques de l'espace des solutions.
336

Modèles additifs parcimonieux

Avalos, Marta 21 December 2004 (has links) (PDF)
De nombreux algorithmes d'estimation fonctionnelle existent pour l'apprentissage statistique supervisé. Cependant, ils ont pour la plupart été développés dans le but de fournir des estimateurs précis, sans considérer l'interprétabilité de la solution. Les modèles additifs permettent d'expliquer les prédictions simplement, en ne faisant intervenir qu'une variable explicative à la fois, mais ils sont difficiles à mettre en ouvre. Cette thèse est consacrée au développement d'un algorithme d'estimation des modèles additifs. D'une part, leur utilisation y est simplifiée, car le réglage de la complexité est en grande partie intégré dans la phase d'estimation des paramètres. D'autre part, l'interprétabilité est favorisée par une tendance à éliminer automatiquement les variables les moins pertinentes. Des stratégies d'accélération des calculs sont également proposées. Une approximation du nombre effectif de paramètres permet l'utilisation de critères analytiques de sélection de modèle. Sa validité est testée par des simulations et sur des données réelles.
337

Le traitement des variables régionalisées en écologie : apports de la géomatique et de la géostatistique

AUBRY, PHILIPPE 06 January 2000 (has links) (PDF)
Face à la contradiction consistant à traiter les variables régionalisées écologiques sans tenir compte de leurs propriétés spatiales, nous développons des méthodes géomatiques, utilisant des techniques informatiques, et géostatistiques, appliquant la théorie des fonctions aléatoires. Après avoir introduit des éléments de géomatique et de géostatistique, et avoir précisé la nature spécifique de l'autocorrélation spatiale, nous introduisons les inférences design-based et model-based. A l'aide de fonctions aléatoires, nous étudions l'efficacité de l'échantillonnage, optimisons des prédicteurs, et calculons des intervalles de prédiction. Nous proposons une procédure d'optimisation des classes de distances lors du calcul du variogramme. Nous examinons également l'utilisation de l'intégrale du variogramme, et justifions la modélisation du variogramme par ajustement aux moindres carrés pondérés. Nous discutons de la précision du variogramme dans les cadres design-based et model-based, et au sens du jackknife. L'optimisation de l'échantillonnage d'une population finie en vue de l'estimation de la moyenne spatiale ou du variogramme est examinée à l'aide de plusieurs heuristiques d'optimisation combinatoire et de simulations de fonctions aléatoires. Le problème du test de la corrélation ou de l'association entre deux variables régionalisées est étudié, à nouveau en utilisant des simulations de fonctions aléatoires. Nous passons en revue plusieurs méthodes et recommandons les tests qui font explicitement référence à l'autocorrélation spatiale des variables régionalisées. Dans le cadre de la définition de l'association spatiale entre variables régionalisées, nous proposons une méthode hybride utilisant des quadtrees et une distance d'édition entre arborescences récursives. Enfin, nous étudions des mesures de la complexité spatiale, critiquons l'analyse fractale et proposons des méthodes alternatives, notamment une mesure de complexité topologique d'une carte en isolignes.
338

Optimisation discrète dans les réseaux de télécommunication : reconfiguration du routage, routage efficace en énergie, ordonnancement de liens et placement de données

Mazauric, Dorian 07 November 2011 (has links) (PDF)
Nous nous intéressons dans cette thèse à différents types de réseaux (optiques, sans-fil, pair-à-pair) ayant chacun leurs spécificités mais partageant des problématiques communes : assurer la meilleure qualité de services possible, garantir la stabilité du système, minimiser les ressources et donc le coût de fonctionnement. Tout d'abord, nous étudions le problème de la reconfiguration du routage dans les réseaux optiques consistant à rerouter les requêtes de connexion en minimisant les perturbations pour les utilisateurs. Puis, nous nous intéressons au problème de la détermination de routages efficaces en énergie dans les réseaux coeur. Pour ce faire, nous étudions le problème de trouver des routages minimisant le nombre d'équipements utilisés. Ensuite, nous nous intéressons aux algorithmes d'ordonnancement des liens dans les réseaux sans-fil en présence d'interférence. Enfin, nous considérons le problème de stockage de données dans les réseaux pair-à-pair. Nous étudions l'impact de différentes politiques de placement sur la durée de vie des données et nous déterminons un choix de placement optimal. Pour résoudre ces problèmes, nous utilisons les outils théoriques des mathématiques discrètes (graphes, configurations, optimisation combinatoire), d'algorithmique (complexité, algorithmique distribuée) et de probabilités.
339

Investigations classiques, complexes et concurrentes à l'aide de la logique linéaire

Laurent, Olivier 05 February 2010 (has links) (PDF)
La logique linéaire fait désormais partie des outils standards en théorie de la démonstration et, de manière plus générale, dans l'étude de la correspondance de Curry-Howard. Nous présentons ici trois directions importantes d'application de méthodes issues de la logique linéaire : - la théorie de la démonstration de la logique classique et ses aspects calculatoires via notamment la sémantique des jeux ; - la complexité implicite à travers les modèles dénotationnels des logiques linéaires à complexité bornée ; - la théorie de la concurrence et ses fondements logiques grâce aux ingrédients apportés par la logique linéaire différentielle. Les approches linéaires offrent ainsi un cadre commun pour l'étude de différents aspects logiques du calcul.
340

Reconnaissance et modélisation d'objets 3D à l'aide d'invariants projectifs et affines

Lamiroy, Bart 08 July 1998 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le cadre de la modélisation et de la reconnaissance d'objets par leur apparence et par des descripteurs locaux. Nous partons, dans une première partie de cette thèse, d'images d'où sont extraits des contours puis des segments approchant ces derniers. À partir de ces segments, nous calculons des descripteurs locaux, appelés quasi-invariants, qui ont la particularité d'être très stables par rapport à des changements modérés de point de vue. En stockant ces quasi-invariants dans une structure adaptée, et en modélisant un objet 3D par un ensemble limité de vues 2D, nous montrons qu'il est possible de reconnaître des objets sous tout angle de vue. La reconnaissance est obtenue en deux étapes. D'abord les quasi-invariants locaux entre image et modèles sont mis en correspondance en utilisant une méthode d'indexation. Ensuite, une vérification globale exprimant une cohérence géométrique permet de filtrer des appariements erronés et de sélectionner le modèle le plus semblable à l'image. Constatant des faiblesses dans l'extraction et dans le pouvoir discriminant des descripteurs initiaux, nous étendons ensuite notre approche pour fournir une méthode d'intégration avec toute une classe de méthodes locales existantes. Les résultats expérimentaux fournis par cette extension forment une validation complète de notre travail. Dans un deuxième temps, nous analysons le problème de la complexité algorithmique soulevé par le genre d'approches utilisées. En effet, nous montrons formellement que certaines méthodes d'indexation sont très mal adaptées à la reconnaissance par descripteurs locaux dès lors que ces descripteurs évoluent dans un espace de dimension élevée. La complexité est telle, que, dans certains cas, elle peut dépasser celle d'une comparaison séquentielle de tous les modèles et leurs descripteurs. Nous montrons quels sont ces cas, et ce qui peut être fait pour les éviter.

Page generated in 0.0467 seconds