• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 105
  • 31
  • 1
  • Tagged with
  • 449
  • 154
  • 83
  • 77
  • 68
  • 62
  • 61
  • 47
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Contribution à l'étude du pilotage de la modélisation des systèmes d'information

Alvares, Luis Otavio Campos 17 October 1988 (has links) (PDF)
Proposition d'une représentation formelle complète des méthodes de modélisation des systèmes d'information en informatique de gestion. Le but est de constituer une base de connaissances d'un système expert pour diriger des modélisations. Une architecture fonctionnelle d'un tel système expert est proposée et expérimentée
132

Cohérence de copies multiples avec latence de détection d'erreur et test fonctionnel de micro-processeurs

Postigo, Carlos 14 June 1983 (has links) (PDF)
Modification d'algorithmes classiques utilises dans le maintien de la cohérence de copies multiples en vue de prendre en compte une latence de détection de faute. Bref parallèle des algorithmes modifies de Kaneko et Herran et Verjus. Réalisation d'une nouvelle classification de pannes.
133

Biocapteur Optique : Sonde fibrée à cavité Fabry-Pérot intrinsèque et à couplage évanescent

Bendoula, Ryad 17 November 2005 (has links) (PDF)
Le travail de thèse présenté s'inscrit dans le vaste domaine des biocapteurs appliqués au secteur biomédical.<br /> Le biocapteur développé est destiné à la mesure de concentration de substances chimiques. De nombreux biocapteurs optiques ont déjà été mis au point pour la détection de ces substances. L'originalité de notre travail réside dans l'utilisation d'une réaction biochimique à proximité du coeur d'une fibre optique pour modifier les conditions de résonance d'une cavité Fabry-Pérot par couplage évanescent.<br /> Le principe de ce capteur s'articule autour de deux techniques de<br />metrologie optique :<br />• Fonctionnalisation biochimique de l'interface cavité-milieu extérieur pour que la concentration de la substance cible modifie l'indice effectif de l'onde se propageant dans la cavité Fabry-Pérot par couplage évanescent.<br />• Interférométrie : mesure précise de la longueur optique de la cavité pour suivre l'évolution de l'indice effectif.<br /> L'intérêt d'un tel système est d'offrir un capteur de dimensions très réduites (taille proche d'une fibre optique). La réalisation sur une même fibre de plusieurs capteurs avec différentes longueurs de cavité fournit une sonde multiparamétrique, interrogeable par les<br />techniques classiques d'interférométrie (modulation de cohérence).
134

Courbes de Bézier en géométrie algorithmique : approximation et cohérence topologique

Neagu, Manuela 05 May 1998 (has links) (PDF)
Dans cette thèse, nous proposons une méthode de résolution des problèmes de la géométrie algorithmique posés pour des objets courbes (par opposition aux objets "linéaires" : ensembles de points, segments, polygones ...). Les objets que nous étudions sont des courbes de Bézier composites, choisies, d'une part, pour le réalisme qu'elles assurent dans la modélisation géométrique, et d'autre part, pour la facilité du traitement algorithmique que leurs propriétés offrent. Notre approche met l'accent sur les aspects topologiques des problèmes abordés, en évitant les incohérences que la résolution en arithmétique flottante d'équations algébriques de degré élevé (générées par le traitement direct des courbes) peut le plus souvent introduire. Cet objectif est atteint par l'utilisation d'approximations polygonales convergentes, qui dans le cas des courbes de Bézier sont naturellement fournies par les polygones de controle par l'intermédiaire de la subdivision de de Casteljau. Deux des problèmes fondamentaux de la géométrie algorithmique sont traités ici, l'enveloppe convexe et les arrangements, les deux en dimension 2. Dans le cas des arrangements, la notion de topologie (combinatoire) est bien connue ; dans celui de l'enveloppe convexe, nous la définissons rigoureusement. Pour les deux problèmes, nous montrons qu'il est possible d'obtenir toute l'information topologique définissant (de manière, il est vrai, implicite, mais correcte et complète) la solution exacte en travaillant exclusivement sur les approximations polygonales des objets donnés. Les résultats théoriques obtenus sont concrétisés par des algorithmes dont la convergence et la correction sont démontrées et pour lesquels des études de cout sont réalisées. Des exemples illustrent le fonctionnement de ces algorithmes, validant la méthode proposée.
135

Transport électronique dans les nanojonctions supraconducteur - métal normal - supraconducteur

DUBOS, Pascal 27 October 2000 (has links) (PDF)
Dans cet ouvrage, nous présentons une étude du transport électronique dans un îlot métallique diffusif en contact avec deux électrodes supraconductrices. Nous avons mis au point un nouveau procédé de fabrication qui permet de réaliser ces jonctions niobium – cuivre – niobium avec des interfaces métalliques très transparentes. Les électrodes supraconductrices en niobium présentent alors une température critique proche de celle du supraconducteur massif. En préambule aux mesures de transport nous caractérisons les jonctions longues et diffusives par une étude quantitative théorique et expérimentale du couplage Josephson continu. Quand une tension est appliquée aux bornes de la jonction, la différence de phase entre les deux supraconducteurs oscille à très haute fréquence et la distribution des électrons est portée hors de l'équilibre thermodynamique. Nous mesurons une forte variation de conductance continue de la jonction qui est liée à la relaxation des électrons du métal normal via les collisions inélastiques. Nous avons ensuite réalisé une mesure de la conductance quand la jonction est irradiée avec une onde hyperfréquence. L'ïlot se comporte comme une cavité résonante à la fréquence Josephson. Le couplage de l'onde avec cette cavité fait apparaître les paliers Shapiro quand la tension atteint V=nhw/2e. Ces paliers sont caractéristiques de l'oscillation sinusoïdale du supercourant Josephson. Au-dessus d'une certaine température, il apparaît en plus de nombreux paliers fractionnaires. L'amplitude de ces nouveaux paliers persiste à haut température alors que les paliers Shapiro disparaissent très rapidement. Nous orientons la discussion en terme de contributions hors-équilibre au courant Josephson alternatif.
136

Gestion des données dans les grilles de calcul : support pour la tolérance aux fautes et la cohérence des données.

Monnet, Sébastien 30 November 2006 (has links) (PDF)
Les applications scientifiques d'aujourd'hui, telles les simulations de grands phénomènes naturels, requièrent une grande puissance de calcul ainsi qu'une importante capacité de stockage. Les grilles de calcul apparaissent comme une solution permettant d'atteindre cette puissance par la mise en commun de ressources de différentes organisations. Ces architectures présentent en revanche des caractéristiques rendant leur programmation complexe: elles sont dynamiques, hétérogènes, réparties à grande échelle. Cette thèse s'intéresse aux problématiques liées à la conception d'un service de partage de données pour les grilles de calcul. L'objectif est de permettre un accès transparent aux données, en automatisant la localisation, le transfert, la gestion de la persistance et de la cohérence des données partagées. Nous nous sommes plus particulièrement concentrés sur la gestion de la cohérence et de la persistance des données en environnement dynamique. Dans un tel contexte, assurer la persistance nécessite la mise en place de mécanismes de tolérance aux fautes. Nous proposons une approche pour gérer conjointement ces deux aspects via une architecture logicielle multiprotocole permettant de coupler différents protocoles de cohérence avec différents mécanismes de tolérance aux fautes. Nous proposons une conception hiérarchique de cette architecture, adaptée à la topologie réseau des grilles de calcul. Ces contributions ont été mises en oeuvre au sein du service de partage de données pour grilles JUXMEM. Les expérimentations menées sur la grille expérimentale Grid'5000 montrent que notre conception hiérarchique permet d'améliorer les performances des accès aux données partagées.
137

Contribution à la conception de services de partage de données pour les grilles de calcul

Antoniu, Gabriel 05 March 2009 (has links) (PDF)
Ce manuscrit décrit les travaux de recherche que nous avons mené pendant les six dernières années sur le thème du partage transparent des données réparties à grande échelle. L'infrastructure visée a été celle des grilles de calcul. Notre objectif a été de répondre à la question: comment serait-il possible de construire un système fournissant un modèle transparent d'accès aux données, tout en tenant compte des contraintes spécifiques aux infrastructures physiques utilisées (architecture hiérarchique, distribution à grande échelle, volatilité, tolérance aux défaillances, etc.)? En réponse à ce défi, nous avons proposé le concept de service de partage de données pour grilles, pour lequel nous avons défini une spécification, une architecture et une mise en oeuvre. Ce travail se situe à la frontière de plusieurs domaines: systèmes à mémoire virtuellement partagée, systèmes pair-à-pair, systèmes tolérants aux fautes. En nous appuyant sur des résultats déjà existants qui proposaient des solutions partielles à notre problème, notre approche a consisté à étendre, adapter et coupler ces solutions partielles et à rajouter les "briques" manquantes, afin de construire une solution globale, plus complexe, mais qui satisfasse l'ensemble des propriétés recherchées. Un résultat issu de cette approche est la notion de groupe hiérarchique auto-organisant, qui combine des protocoles de cohérence issus des systèmes à mémoire virtuellement partagée avec des protocoles de gestion de groupe tolérants aux fautes. Sur cette notion repose notre approche pour la définition de protocoles de cohérence tolérants aux fautes, adaptés aux grilles. Nous avons attaché une importance particulière à la validation expérimentale} de notre proposition par une mise en oeuvre et par une évaluation sur des plates-formes réelles à travers des prototypes expérimentaux. Ceci nous a permis de réaliser des expériences multisites en grandeur nature sur la plate-forme Grid'5000, avec l'objectif d'évaluer les bénéfices apportés par notre service de partage de données aux environnements de calcul réparti sur grille. A cet effet, nous avons évalué la capacité de JuxMem à s'intégrer avec plusieurs modèles de programmation pour grille d'une part (GridRPC, modèles à base de composants) et avec d'autres technologies de stockage d'autre part (Gfarm, ASSIST). Cette intégration a été réalisée en collaboration avec des équipes françaises, telles que les équipes-projets REGAL et GRAAL de l'INRIA, mais aussi avec des équipes étrangères des universités de Pise et de Calabre en Italie, d'Illinois/Urbana-Champaign aux Etats-Unis et de Tsukuba au Japon. Enfin, nous avons travaillé en étroite concertation avec l'équipe JXTA de Sun Microsystems (Santa Clara, Etats-Unis), qui a soutenu nos efforts à travers un contrat de collaboration industrielle.
138

Conception des Moyens d'Expérimentation. Approche de Cohérence en Coût - Performance

Luong, Thi Hông Liên 16 September 2005 (has links) (PDF)
L'expérimentation, outil de validation ou de confrontation de l'hypothèse à la réalité, nécessite des moyens spécifiques: les MOYENS D'EXPERIMENTATIONS (ME). Leur développement fait partie des programmes de recherche et d'innovation. Leur optimisation, en terme de coût, qualité et délai, est également un vecteur de compétitivité. Dans le cadre de cette thèse, notre étude se limite au développement des Moyens d'Expérimentations nouveaux et Spécifiques (MES) dans les domaines de recherche émergents et de l'innovation technologique. Après une enquête réalisée auprès de 21 laboratoires de recherche et de R&D en France plus une analyse d'environ trente projets de développement des MES réalisés de 1997 à 2002, nous constatons que: Le manque d'outils méthodologiques adaptés au contexte de développement et aux caractères spécifiques des MES ne permet pas d'affronter les difficultés de conception, source d'une qualité insuffisante. Les MES développés ne sont pas optimaux en terme de coût, de performance et de délai. Des recherches bibliographiques sur les méthodes et outils de conception de produits suivis d'une analyse de leur pertinence dans le contexte du développement des MES nous a permis de valider cette problématique. Notre ambition est d'optimiser le développement des Moyens d'Expérimentations avec l'objectif d'améliorer et de fiabiliser les MES et de rendre leur développement plus rationnel. Nous proposons une démarche de conception adaptée aux moyens d'expérimentations spécifiques. Cette démarche permet de mieux prendre en compte les particularités des MES et leur niveau de complexité, de faciliter les échanges entre le chercheur et le concepteur, et ainsi de concevoir un MES "bon du premier coup". La démarche est construite en intégrant deux nouveaux outils méthodologiques. Ils s'intitulent: "l'ANalyse de l'EXpérimentation Orientée Fonctionnelle" (ANEXOF) et "l'Analyse de la Cohérence en CoûtPerformance" (ACCP). L'ANEXOF exploite le besoin du chercheur et définit le cahier des charges fonctionnel. Elle est basée sur l'analyse fonctionnelle, associée à la démarche expérimentale, elle fait le lien entre les connaissances scientifiques du chercheur, les connaissances en conception et les savoir-faire technologiques du concepteur. L'ACCP intervient à partir de la phase de conception préliminaire dont le but est l'optimisation de la solution choisie. En réduisant au strict nécessaire les performances globales et en équilibrant leurs performances locales de façon cohérente avec leurs coûts, on obtiendra la répartition optimale de l'investissement dans sa structure, par conséquent, le coût global du produit est optimal.
139

Normer pour mieux varier ? La différenciation comportementale par les normes, et son application au trafic dans les simulateurs de conduite

Lacroix, Benoit 01 October 2009 (has links) (PDF)
Dans les simulations centrées individu, la variété et la cohérence du comportement des agents sont des critères importants pour le réalisme et la validité de la simulation. Dans ce travail, nous nous sommes intéressés à la prise en compte simultanée de ces deux éléments. Nous proposons un modèle de différenciation comportementale, qui se décline en un outil dont les principaux apports sont d'être générique, non-intrusif, et de permettre une conception en dehors de l'agent. Le modèle s'articule selon trois axes. Tout d'abord, il décrit les comportements des agents par des normes. Celles-ci fournissent un profil comportemental à la conception, et un contrôle de la conformité à l'exécution. Ensuite, le processus de génération des comportements permet d'autoriser la création d'agents déviants ou en violation. Il inlfue pour cela sur le déterminisme du mécanisme. Enfin, les normes peuvent être inférées à partir de simulations enregistrées ou de situations réelles, afin d'analyser les résultats des expérimentations et d'automatiser la configuration du modèle. Nous avons appliqué cet outil à la simulation de trafic dans SCANeR, l'application développée et utilisée par Renault pour ses simulateurs de conduite. Les développements réalisés au cours de la thèse introduisent dans le trafic des styles de conduite spécifiés sous forme de normes, par exemple des conducteurs prudents ou agressifs. Ils permettent ensuite de peupler l'environnement de manière automatisée. Au delà de l'amélioration subjective du réalisme, les expérimentations réalisées démontrent les apports de l'outil sur la variété et la représentativité des comportements obtenus.
140

Simulation globale de l'éclairage pour des séquences animées prenant en en compte la cohérence temporelle

Damez, Cyrille 10 December 2001 (has links) (PDF)
Les méthodes globales de simulation de l'éclairage permettent, à la différence des méthodes d'éclairage local, d'exprimer l'équilibre énergétique dans les échanges entre différents objets, et donc de simuler précisément les effets subtils d'éclairage dûs aux nombreuses inter-réflexions. Il est donc naturel de souhaiter les utiliser pour la synthèse réaliste de films d'animation. Plutôt que de résoudre une succession d'équations intégrales tri-dimensionelles, nous modélisons les échanges lumineux ayant lieu au cours de l'animation sous la forme d'une unique équation intégrale quadri-dimensionelle. Dans le cas ou l'intégralité des mouvements est connue à l'avance, nous proposons une extension de l'algorithme de radiosité hiérarchique mettant à profit la cohérence temporelle. La radiosité en chaque point et à chaque instant y est exprimée dans une base de fonctions hiérarchiques définies sur un maillage produit par un processus de raffinement. L'extension de ce maillage à un espace à quatre dimensions nous permet de calculer des échanges lumineux sur un intervalle de temps fini au lieu d'une date donnée. L'algorithme ainsi défini permet la simulation de l'éclairage global diffus dans une scène animée, dans un temps largement inférieur, avec une qualité équivalente. Nous avons développé pour cela de nouveaux oracles de raffinement ad hoc, que nous présentons ici. Afin de permettre le calcul de scènes géométriquement complexes, nous présentons une nouvelle politique de regroupement hiérarchique des objets adaptée au cas quadri-dimensionnel. Nous présentons également un algorithme permettant la réduction des discontinuités temporelles dues aux approximations effectuées lors de la résolution, basé sur l'emploi de bases de multi-ondelettes. Finalement, nous présentons un mécanisme d'ordonnancement des calculs et de sauvegarde temporaire sur une mémoire de masse permettant de réduire la consommation en mémoire vive de l'algorithme.

Page generated in 0.0819 seconds