• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1673
  • 267
  • 117
  • 61
  • 15
  • 9
  • 7
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 2206
  • 2206
  • 1965
  • 1950
  • 1937
  • 438
  • 389
  • 336
  • 220
  • 216
  • 186
  • 176
  • 176
  • 175
  • 172
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Calcul d'objet asynchrone : confluence et déterminisme

Henrio, Ludovic 28 November 2003 (has links) (PDF)
L'objectif de cette thèse est de concevoir un calcul d'objets permettant d'écrire des applications parallèles et distribuées, en particulier dans un cadre à grande échelle, tout en assurant de bonnes propriétés. Le calcul proposé s'intitule ASP : Asynchronous Sequential Processes. Les principales caractéristiques de ce calcul sont : des communications asynchrones, la présence de futurs et une exécution séquentielle dans chacun des processus. Ce calcul exhibe de fortes propriétés de confluence et de déterminisme. Cette thèse a donc aussi pour objectif de prouver de telles propriétés dans un cadre aussi général que possible. ASP est basé sur une répartition des objets en différentes activités disjointes. Une activité est un ensemble d'objets gérés par un unique processus. Les objets actifs sont des objets accessibles par des références globales/distantes. Ils communiquent à travers des appels de méthodes asynchrones avec un mécanisme de futurs. Un futur est une référence globale désignant un résultat qui n'est pas encore calculé. Cette thèse modélise ces différents aspects, leurs principales propriétés et les conséquences de ces mécanismes sur la notion de comportement déterministe des programmes. Le résultat principal consiste en une propriété de confluence et son application à l'identification d'un ensemble de programmes se comportant de façon déterministe. Du point de vue pratique, ASP peut aussi être considéré comme une modélisation de la librairie ProActive. Cette librairie fournit des outils pour développer des applications parallèles et distribuées en Java.
652

Environnements pour la compilation dirigée par les données : supports d'exécution et expérimentations

Mahéo, Yves 04 July 1995 (has links) (PDF)
La difficulté de programmation des architectures parallèles à mémoire distribuée est un obstacle à l'exploitation de leur puissance de calcul potentielle. Parmi les différentes approches proposées pour pallier à cette difficulté, celle de la compilation dirigée par les données semble prometteuse, notamment dans le domaine du calcul scientifique. Le programme source, exprimé par exemple en HPF, est un programme séquentiel impératif dans lequel il est précisé comment sont réparties les données sur les processeurs ; le compilateur dérive un code parallèle en distribuant le contrôle d'après la distribution des données. La mise en oeuvre de cette approche nécessite le développement d'environnements complets. Cette thèse présente le travail réalisé dans le cadre d'un environnement de ce type : l'environnement Pandore. Nous nous sommes intéressés à la conception et la réalisation d'un exécutif portable et efficace qui doit être associé au compilateur ainsi qu'à l'évaluation des performances des programmes générés. Après avoir situé l'approche de la compilation par distribution de données dansle contexte plus large de la programmation des machines parallèles à mémoire distribuée, nous définissons des opérations de haut niveau qui permettent la description des schémas de compilation et la prise en compte des optimisations. Deux types de machines cibles sont considérés, d'une part des machines à messages et d'autre part des machines disposant d'un mécanisme de mémoire virtuelle partagée. Les points clés de la mise en oeuvre des opérations dans le compilateur et l'exécutif sont abordés. Nous insistons plus particulièrement sur la gestion des données distribuées et sur les optimisations des communications à l'exécution. Une mise en oeuvre réalisée dans l'environnement Pandore est ensuite détaillée. L'évaluation des performances des programmes est également étudiée, dans un premier temps par une série d'expérimentations sur plusieurs applications et dans un deuxième temps par la définition d'outils de mesure et de visualisation adaptés à la compilation par distribution de données.
653

Définition d'un cadre méthodologique pour la conception de modèles multi-agents adaptée à la gestion des ressources renouvelables

Bommel, Pierre 07 May 2009 (has links) (PDF)
Le paradigme des systèmes multi-agents (SMA), qui propose une manière originale de modéliser le monde, est considéré comme un mode pertinent de représentation des connaissances. Mais les potentialités des SMA ne doivent pas cacher les difficultés qui guettent le modélisateur et qui peuvent remettre en cause sa légitimité scientifique. La question de la validation sert alors de fil directeur de cette thèse qui décrit un cadre méthodologique pour concevoir des modèles plus fiables. Car, contrairement aux modèles mathématiques, un SMA ne peut pas prouver ses résultats ni s'abstraire de la simulation. De plus, les probabilités de faire apparaître des erreurs ou des biais ne sont pas négligeables. De sa conception à son implémentation, de nombreux artefacts peuvent apparaître. On peut alors légitimement s'interroger sur la fiabilité des simulateurs. Or il s'agit moins d'erreurs de codage que de problèmes de gestion approximative des interactions ou d'activation des agents qui peuvent remettre en cause cette fiabilité. Cette thèse éclaire donc les zones sensibles susceptibles de générer des artefacts. Car la modélisation des socio-éco-systèmes n'est pas juste une spécialité informatique, mais demande un véritable savoir-faire et le modélisateur doit garder un regard critique sur ses outils. Non seulement il faut connaître par avance les points sensibles des SMA mais il faut également s'assurer de la robustesse de ses résultats en montrant que le simulateur exhibe des comportements relativement stables. Au-delà de la phase d'élaboration, la thèse souligne le rôle des analyses exploratoires pour mieux expliquer le comportement global d'un modèle, hiérarchiser l'influence des paramètres et tester la robustesse des hypothèses. Elle montre l'intérêt de la réplication et la nécessité de présenter un SMA de façon claire et non ambiguë. Après la mise en place d'un simulateur, un travail de re-présentation reste à mener pour proposer des diagrammes réorganisés qui mettent la lumière sur les points essentiels et autorisent des discussions et des critiques. Nous défendons l'idée d'une modélisation exposée, qui doit assumer ses choix sans imposer ses points de vue. Il est urgent d'abandonner la vision naïve qui consiste à penser qu'un modèle est objectif. La notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa pensée comme une image dans un miroir. Or, que ce soit intentionnel ou non, un modèle est forcément une représentation subjective. Il faut donc expliciter ses choix et les présenter de la façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués. Suite aux défauts de fiabilité des SMA et aussi à cause de démarches naïves de la modélisation, il est préférable, dans l'état actuel des SMA, d'opter pour des modèles simples plutôt qu'une approche descriptive qui chercherait à introduire dans le modèle le maximum d'informations considérées comme données par nature.
654

ÉQUILIBRAGE DE CHARGE DYNAMIQUE POUR<br />DES OBJETS ACTIFS DANS LES GRILLES DE CALCUL

Bustos-Jiménez, Javier 18 December 2006 (has links) (PDF)
Esta tesis apunta a entregar las bases para el desarrollo de los algoritmos de balance de carga para el modelo de objetos activos definido por ProActive en el contexto de las redes a gran escala (grillas).<br />ProActive es un middleware implementado en lenguaje Java, de código abierto, para la programacióon concurrente, paralela, distribuida, y móvil; basado en el modelo de objeto-activo. En<br />ProActive, cada objeto activo tiene su propio hilo de control y puede decidir independientemente<br />en qué orden servir los métodos invocados, las cuales se almacenan automáticamente en una cola<br />de peticiones pendientes. Para agregar eficacia al paradigma de objetos activos, ProActive proporciona<br />un mecanismo del migración, obteniendo localización automática y transparencia mediante<br />el uso de forwarders. La migración viene con un costo de comunicación: un objeto activo debe<br />emigrar con su estado completo, que consiste en sus peticiones pendientes (llamadas de método),<br />objetos futuros, y sus objetos pasivos. Por lo tanto, las aplicaciones implementadas con ProActive<br />son sensibles a la latencia.<br />Cuando varios objetos activos con funcionalidad idéntica se despliegan, un algoritmo de balance<br />de carga se utiliza para mejorar el funcionamiento de la aplicación utilizando esa funcionalidad.<br />La carga de trabajo puede ser equilibrada, ya sea enviando objetos activos de un procesador<br />altamente cargado a uno menos cargado, o bien robando objetos activos a un procesador altamente<br />cargado. El ambiente donde normalmente se ejecutan las aplicaciones implementadas usando el<br />modelo de objetos activos se compone generalmente de grupos múltiples de recursos, por ejemplo,<br />un sistema de máquinas interconectadas por una red local de alta velocidad.<br />Dado lo anterior, se ha estudiado y desarrollado un algoritmo de balance de carga para objetos<br />activos que pertenecen a una aplicación paralela, fijando las bases para el desarrollo de los<br />algoritmos de balance de carga para el middleware ProActive. Este primer acercamiento se llama<br />algoritmo Robin-Hood + Nottingham Sheriff. Este algoritmo fue validado en el contexto de redes<br />de alta escala (sobre 1.000 nodos) mediante simulaciones, utilizando nuestros modelo de grillas de<br />computadores, los cuales están basados en la observación y la medición de lo que consideramos<br />las características dominantes para el balance de objetos activos: capacidad de procesamiento y<br />latencia entre recursos.<br />Finalmente, presentamos los contratos de acoplamiento para el despliegue de aplicaciones paralelas, así como su forma de utilización en el contexto de balance de carga. A modo de ejemplo,<br />mostramos su uso en la elección del balanceador a utilizar (cluster local v/s nuestro algoritmo).
655

Réseaux bayésiens : Apprentissage et diagnostic de systemes complexes

Leray, Ph. 28 November 2006 (has links) (PDF)
-
656

Adaptation d'un algorithme génétique pour la reconstruction de réseaux de régulation génétique : COGARE.

Briche, Julien 09 September 2009 (has links) (PDF)
Nous proposons une approche “algorithme génétique” pour la reconstruction génomique. Notre approche introduit le concept d'algorithmie génétique multi-échelle : l'optimisation est conduite simultanément à une échelle locale et à une échelle globale. La fonction d'efficacité est donc hybride. Notre approche prend également en compte plusieurs types de données, dynamiques, statiques, ou imposées. Il en résulte un nouveau logiciel de reconstruction génomique, COGARE. Il est étalonné sur données simulées et comparé aux algorithmes existants. Il est utilisé sur deux cas réels, sur lesquels il révèle des capacités à renvoyer des informations pertinentes au biologiste.
657

Algorithmes parallèles de simulation physique pour la synthèse d'images : application à l'animation de textiles

Zara, Florence 01 December 2003 (has links) (PDF)
Cette thèse combine le calcul haute performance à la réalité virtuelle par son apport de méthodes de calcul parallèle pour l'animation d'objets 3D en synthèse d'image. Son application vise plus particulièrement le domaine de la simulation de textiles par modèles physiques. Les lois fondamentales de la dynamique ont en effet été employées pour modéliser le mouvement de plusieurs objets dans un souci de réalisme. Les modèles employés étant numériquement complexes, le calcul d'une image en séquentiel varie de la seconde à plusieurs minutes suivant la complexité du modèle. L'objectif a été de diminuer ce temps par la parallélisation des algorithmes et l'exécution sur grappes de machines multiprocesseurs afin d'obtenir des animations en temps réel. Différentes méthodes d'intégration des équations du mouvement ont été implantées en parallèle. Dans le cas de l'emploi de méthodes implicites, les opérations coûteuses en calcul proviennent de la résolution de systèmes linéaires par la méthode du Gradient Conjugué impliquant des opérations d'algèbre linéaire de type multiplications de matrices creuses et de vecteurs. Ce projet de thèse a contribué à l'obtention de nouvelles structures algorithmiques parallèles efficaces avec l'obtention d'algorithmes asynchrones. Il a également permis de valider l'approche de l'environnement de programmation parallèle Athapascan (projet INRIA-APACHE) avec la mise au point d'applications avec des contraintes temps réel mou ainsi que le contrôle dynamique de son ordonnanceur. Durant ce projet de thèse, un couplage entre la simulation parallèle de textiles et son affichage utilisant l'environnement de visualisation multi-écrans Net Juggler a également été réalisé en faisant communiquer efficacement ces deux programmes parallèles.
658

Simulation graphique d'un robot bipède dans un environnement structuré

France, Laure 13 October 1999 (has links) (PDF)
Cette thèse porte sur la réalisation d'un simulateur pour un robot anthropomorphe bipède dans un environnement. Les roboticiens ont besoin d'un tel simulateur pour valider leurs lois de contrôle développées pour un robot bipède réel. Nous modélisons ce robot et nous l'animons avec des cycles de marche issus de la capture de mouvements. Nous complétons ces cycles de marche en calculant les mouvements transitoires de départ et d'arrêt du robot. Pour cela, nous utilisons une méthode basée sur l'interpolation de polynômes cubiques et respectant des contraintes liées aux mouvements des pieds du robot (cohérence du mouvement et non pénétration dans le sol). Nous obtenons ainsi des mouvements complets pour faire marcher notre robot dans son environnement. Comme cet environnement est inconnu du robot, nous modélisons sa perception au moyen de capteurs proximétriques, qui donnent la distance entre le robot et les objets locaux. Cette perception locale est utile pour la détection d'obstacles, afin d'éviter toute collision du robot avec son environnement. De plus, le robot doit modifier son comportement en fonctionde l'environnement. Par exemple, lorsqu'il rencontre des escaliers, il doit pouvoir les monter ou les descendre. Il lui faut donc une certaine reconnaissance des objets. Nous calculons alors le profil de l'environnement perçu à partir des distances détectées par les capteurs, et nous proposons un algorithme de reconnaissance d'objets basé sur ce profil. Une fois que ces fonctions de marche, de perception et de reconnaissance sont fournies au robot, nous étudions le placement des capteurs sur le robot, afin de déterminer la meilleure configuration pour laquelle le nombre de capteurs est minimal pour une détection maximale des objets dans l'environnement. Enfin, nous réalisons une simulation complète du robot bipède évoluant dans un environnement, dont le mouvement de marche est contrôlé en fonction de ce qui est perçu par les capteurs.
659

Modèles d'intégration de la connaissance pour la fouille des données d'expression des gènes

Martinez, Ricardo 02 July 2007 (has links) (PDF)
Dans cette thèse, nous présentons une structure qui comprend tous les méthodes développées pour interpréter des résultats d'expression des gènes en incorporant des annotations sur les gènes. Puis, nous abordons la question de la découverte de « clusters » (algorithmes non-supervisées) parmi des profils d'expression de gène, et nous proposons deux approches spécifiques à ce sujet : CGGA (Co-expressed Gene Groups Analysis) and GENMINER (Gene-integrated analysis using association rules mining). CGGA est une méthode de l'approche a priori qu'intègre l'information issue des données des biopuces, i.e. les profils d'expression des gènes, avec les annotations fonctionnelles des gènes issues des différentes sources d'information génomique tel que Gène Ontologie. GENMINER est une méthode de co-clustering basé dans l'extraction de règles d'association qu'intègre l'information des profils d'expression des gènes (discrétisées) a partir de différentes sources d'information biologique sur les gènes (en incluant la totalité de l'information minimale contenue dans la biopuce). A la fin nous ciblons la question de la découverte de classes par des méthodes supervisés, a ce sujet nous proposons GENETREE (GENE-integrated analysis for biological sample prediction using decision TREEs). GENETREE est une méthode de co-clustering basé dans les arbres de décision qui permet d'intégrer les profils d'expression des gènes et l'information contenue dans les sources d'information biologique relative aux voies métaboliques (en tenant en compte la variable temporelle du processus biologique. Les expérimentations menées avec les trois méthodes ont permis de mettre en évidence les principaux groupes de gènes fonctionnellement riches et co-exprimés dans les différents jeux de données d'expression des gènes qui ont été analysées.
660

Techniques de traçage pour la méthode des caractéristiques appliquée à la résolution de l'équation du transport des neutrons en domaines multi-dimensionnels

Févotte, François 08 October 2008 (has links) (PDF)
Parmi les différentes méthodes de résolution numérique de l'équation du transport des neutrons, la méthode des caractéristiques est actuellement l'une des plus employées pour les calculs industriels. Elle permet en effet d'obtenir un bon rapport entre précision et temps de calcul, tout en facilitant la description précise de géométries complexes grâce à un maillage non structuré. Afin de réduire la quantité de ressources requises par la méthode des caractéristiques, nous proposons dans ce mémoire deux axes d'amélioration. Le premier axe de travail est fondé sur une analyse de la technique d'intégration transverse dans la méthode des caractéristiques. Un certain nombre de limites ont été détectées à ce niveau, que nous nous proposons de corriger en proposant une variante de la méthode des caractéristiques. En traitant au mieux les discontinuités matérielles, l'objectif est d'accroître la précision de l'intégration transverse, en vue de réduire le temps de calcul sans sacrifier la qualité des résultats. L'analyse des résultats numériques fournis par cette nouvelle méthode permet d'en montrer l'intérêt, ainsi que de mieux quantifier les approximations dues à l'intégration transverse. Une autre amélioration découle de l'observation que la plupart des réacteurs en exploitation présentent des structures complexes, mais formées –au moins en partie– d'un réseau de cellules ou d'assemblages de géométries identiques. Nous proposons une méthode systématique issue de la théorie des groupes et permettant de tirer parti de ces répétitions. L'implémentation de cette technique permet de diminuer la quantité de ressources nécessaires pour stocker les informations relatives à la géométrie. Les résultats numériques en montrent l'intérêt dans un contexte industriel.

Page generated in 0.0374 seconds